> 数据图表

想关注一下行业要闻及简评

2025-3-0
想关注一下行业要闻及简评
行业要闻及简评DeepSeek又迎更新,通义千问发布新一代端到端旗舰模型事件描述:3月24日,DeepSeek上线了小版本更新后的DeepSeek-V3模型DeepSeek-V3-0324。3月27日,阿里巴巴发布通义千问系列的最新旗舰模型Qwen2.5-Omni。点评:DeepSeek又迎更新,编程能力大幅优化。3月24日,DeepSeek上线了小版本更新后的DeepSeek-V3模型。新模型的版本号为DeepSeek-V3-0324,模型参数为6850亿,较初代V3版本的6710亿有小幅增长。DeepSeek尚未放出新版模型的系统卡。值得注意的是,DeepSeek将开源秉持到底,这次将DeepSeek-V3模型的开源协议更新为与DeepSeek-R1一致的MIT协议,这一协议更为宽松,允许模型蒸馏、商用等行为,给了开发者更多的自主权。在性能上,编程能力的优化成了最大亮点,新版本DeepSeek-V3生成前端代码的能力大大提升。幻方量化在已开源的论文中强调其训练成本极低——通过对算法、框架和硬件的优化协同设计,假设H800GPU的租用价格为每块GPU2美元/小时,DeepSeek-V3的全部训练成本总计仅为557.6万美元(注:该成本仅包括DeepSeek-V3的正式训练,不包括与先前在架构、算法或数据上的研究和消融实验相关的成本)。DeepSeek-V3的API服务定价将上调为每百万输入tokens 0.5元(缓存命中)/2元(缓存未命中),每百万输出tokens 8元,按缓存未命中的输入价格计,加总成本是10元人民币。2020年1月10日通义千问发布新一代端到端旗舰模型Qwen2.5-Omni。3月27日,阿里巴巴发布通义千问系列的最新旗舰模型Qwen2.5-Omni。这款端到端多模态模型专为广泛的多模态感知设计,能够处理文本、图像、音频和视频等多种输入,同时能够通过生成文本和合成语音提供实时流式响应。根据“通义千问Qwen”官方微信号信息,这款模型的主要特点为:1)全能创新架构:Qwen团队提出了一种全新的Thinker-Talker架构,这是一种端到端的多模态模型,旨在支持文本/图像/音频/视频的跨模态理解,同时以流式方式生成文本和自然语音响应。2)实时音视频交互:架构旨在支持完全实时交互,支持分块输入和即时输出。3)自然流畅的语音生成:在语音生成的自然性和稳定性方面超越了许多现有的流式和非流式替代方案。4)全模态性能优势:在同等规模的单模态模型进行基准测试时,表现出卓越的性能。Qwen2.5-Omni在音频能力上优于类似大小的Qwen2-Audio,并与Qwen2.5-VL-7B保持同等水平。5)卓越的端到端语音指令跟随能力:Qwen2.5-Omni在端到端语音指令跟随方面表现出与文本输入处理相媲美的效果,在MMLU通用知识理解和GSM8K数学推理等基准测试中表现优异。模型性能方面,Qwen2.5-Omni在包括图像,音频,音视频等各种模态下的表现都优于类似大小的单模态模型以及封闭源模型。在多模态任务方面OmniBench,Qwen2.5-Omni达到了SOTA的表现。此外,在单模态任务中,Qwen2.5-Omni在多个领域中表现优异。该模型现已在 Hugging Face、ModelScope、DashScope 和 GitHub上开源开放。资料来源:财联社,平安证券研究所