作者:电子创新网张国斌
华为于2025年6月30日宣布开源盘古70亿参数的稠密模型和盘古Pro MoE 720亿参数的混合专家模型。然而,随后盘古大模型被质疑抄袭阿里巴巴的通义千问Qwen-2.5 14B模型。
7月4日,一位自称为哥斯达黎加大学的韩国学生在GitHub上发布了一份技术分析报告。报告指出,通过“LLM-Fingerprint”(大语言模型指纹)技术对比,盘古Pro MoE模型与通义千问Qwen-2.5 14B模型在注意力参数分布上的平均相关性高达0.927,远超正常范围,暗示盘古模型可能并非独立开发。
该报告报告还提到,在盘古开源代码文件中发现了“版权所有2024,Qwen团队,阿里巴巴集团”的标注,进一步引发了抄袭的质疑。
该报告引发业界震动,面对质疑,7月5日下午,华为旗下AI大语言模型盘古Pro MoE技术开发团队“诺亚方舟实验室”发布了一份声明,称盘古 Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。
“我们注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。其他技术特性创新,请参考昇腾生态竞争力系列技术报告披露内容。”华为盘古团队表示。
盘古团队指出,“盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。”
盘古Pro MoE技术开发团队强调,团队始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。感谢全球开发者与合作伙伴对盘古大模型的关注和支持,团队高度重视开源社区的建设性意见。希望通过盘古大模型开源,与志同道合的伙伴一起,探索并不断优化模型能力,加速技术突破与产业落地。
诺亚方舟实验室是华为公司于2012年设立的人工智能研究机构,聘用全球科研人员从事基础研究。该实验室通过迁移学习等技术创新,为盘古大模型等重大项目提供核心算法支持。目前,诺亚方舟实验室主要负责华为盘古大语言模型(LLM)系列研发工作。2021年,华为云发布了盘古系列预训练大模型,包括NLP(自然语言)大模型、CV(视觉)大模型、科学计算大模型。
今年6月21日,华为云发布盘古大模型5.0,包含不同参数规格的模型,如十亿级参数的Pangu E系列可支撑手机、PC等端侧的智能应用;百亿级参数的Pangu P系列,适用于低时延、低成本的推理场景;以及千亿级参数的Pangu U系列、万亿级参数的Pangu S系列超级大模型等,帮助企业更好地在全场景应用AI技术。
开源社区对这一事件展开了广泛讨论。一些开发者指出,开源组件的复用在行业内较为普遍,关键在于是否遵循开源协议和进行合规标注。有专家认为,当前AI大模型领域开源定义模糊,法律和协议规则尚不完善,这使得类似争议难以明确界定。
如何看待此次争议?
此次事件引发了对AI大模型开源生态的反思,包括开源协议的清晰度、知识产权的界定以及开源社区的信任机制。尽管华为否认抄袭指控,但这一事件可能会影响华为在开源社区的形象和声誉,同时也凸显了在开源项目中透明度和合规性的重要性。
现代AI开源社区,如 HuggingFace、Meta、Mistral、Open-LLM 等,有着明确的开源伦理:
1、遵循上游许可证(如LLaMA的非商业用途);
2、必须注明衍生作品的基础模型来源;
3、开源声明必须明确哪些是新内容,哪些是复用他人成果。
老张认为,如果一个模型在LLaMA基础上训练,却不说明来源,甚至包装为“完全自主”,无论出发点如何,都违背了开源社区基本的“透明性和尊重原则”。如果盘古确为LLaMA衍生模型而未公开说明,属于严重开源伦理失范;如果确为自主训练,应尽快公开更多训练细节与代码验证,止谣于源头。
不论真假,本次风波对中国AI模型开源生态都是一次集体公信力的考验,建议国产AI厂商要从这起事件中吸取教训,开放不是造势,而是信任,创新不能靠套壳而要靠技术积累。
中国当前正处于AI国产化、自主化攻坚阶段。盘古是国内极具影响力的大模型品牌之一,曾多次登上发布会主舞台,象征技术自信。这场争议若被坐实,则会让业界质疑中国大模型的原创性,这些质疑,会反过来影响国家推动AI自主可控战略的产业信任度。
大家怎么看?欢迎留言讨论!