> 数据图表如何了解OpenRouter 平台上推理模型的 tokens 消耗占比持续增长2026-1-2数据来源:Artificial Analysis,东吴证券研究所注:这张图表主要量化了不同 AI 模型在执行同一套评测标准(Artificial Analysis Intelligence Index v3)时所消耗的“输出 Token”总量,展示了“推理模型”与“普通模型”在算力消耗上的差异。左侧灰色背景区域聚集了 Grok 4、Gemini 2.5 Pro 等推理模型,它们的平均算力消耗为 77M Tokens,其中浅色部分代表模型内部进行逻辑推演的“推理 Token”(即思维链),深色部分才是最终呈现的“回答 Token”相比之下,右侧白色区域的普通模型平均算力消耗为 14M Tokens,表明推理模型为了换取更强的逻辑解题能力,在生成过程中付出了普通模型数倍的算力消耗。东吴证券科技传媒