首页 AI科技文章正文

华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

AI科技 2025年06月30日 12:10 0 aa

今日上午,华为在官方微信公众号正式官宣开源盘古7B、72B两款大模型,以及为华为昇腾NPU芯片优化的推理代码,目前均已在国内代码托管平台GitCode正式上线。其中盘古7B(盘古 Embedded)拥有70亿参数量,盘古72B(盘古 Pro MoE)则拥有720亿参数量。

华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

根据华为官方的介绍,盘古7B模型为双系统框架,具备“快思慢想”功能,能够根据任务复杂度自动选择合适的模式,即在常规请求下使用“快思考”模式,在复杂推理任务下使用“慢思考”模式,从而在延迟和推理深度之间实现平衡。在多款复杂推理测试中,盘古7B的性能要强于阿里巴巴旗下的Qwen3-8B、智谱旗下的GLM4-9B,

华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

盘古72B则为MoE混合专家模型,与一般的MoE模型不同,华为提出了一种新型的分组混合专家模型MoGE,其优点在于可以在专家选择阶段对专家进行分组,约束token在每个组内激活等量专家,进而实现负载均衡。

性能方面,华为声称该模型针对昇腾300I Duo、800I A2平台进行优化,在后者上可以实现单卡1148 token/s的推理速度。

华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

根据SuperCLUE中文大模型基准测评5月的数据,盘古72B在开源排行榜中位列第五,总分为58.75分,超越Qwen3-14B、Qwen3-8B,仅次于DeepSeek-R1满血版、DeepSeek-V3满血版以及Qwen3-32B和235B。

值得一提的是,盘古72B的文本理解与创作得分位居榜单之首,为80.48分,但在科学推理能力上仅有39.6分,明显弱于位居榜单前列的其余模型。

华为官宣开源盘古7B/72B大模型,写作能力强劲,性能跻身开源第五

此外,在推理模型榜单中,盘古72B的推理能力得分为60.3,并未有明显领先优势。一定程度上说明盘古系列开源模型的推理性能还有待进步。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap