> 数据图表如何了解2.3 成本:开闭源性能收敛,推理成本指数级下降2025-8-32.3 成本:开闭源性能收敛,推理成本指数级下降 开源模型性能逐渐与闭源模型趋同,进一步降低大模型部署成本,推动大模型普惠发展。 25年1月,DeepSeek R1发布即开源,性能比肩 OpenAI o1 正式版,API价格大幅下降。R1 API服务定价为每百万输入tokens 1元(缓存命中)/ 4元(缓存未命中),每百万输出tokens 16元;与之对比,GPT o1 API服务定价为每百万输入tokens 55元(缓存命中)/ 110元(缓存未命中),每百万输出tokens 438元。 25年4月,阿里开源8款不同尺寸的全新一代混合推理模型Qwen3,在推理、工具调用、指令遵循及多语言能力等方面显著提升。根据IT之家,相较之下,千问3的部署成本仅为满血版DeepSeek-R1的25%至35%,仅需4张H20 GPU便能部署完整功能的千问3模型,显存占用量仅为同类性能模型的三分之一。 实现特定性能水平的推理成本已显著下降,单位美元获得的人工智能性能已大幅提高。Epoch AI估计,根据任务不同,大语言模型的推理成本正以每年9至900倍的速度下降。例如,在MMLU测试(评估语言模型性能的常用比较基准)中达到GPT-3.5水平的模型,其推理成本从2022年11月的每百万词元20美元降至2024年10月的0.07美元(Gemini-1.5-Flash-8B),约1.5年内下降超280倍。图表13:开源模型性能表现紧随闭源模型图表14:2022–2024 年选定的比较基准的推理成本资料来源:Epoch AI,中邮证券研究所请参阅附注免责声明资料来源:斯坦福《2025年人工智能指数报告》,中邮证券研究所15中邮证券综合其他