华为宣布开源盘古7B稠密和72B混合专家模型

华为于2025年6月30日宣布开源其盘古7B稠密模型和盘古Pro MoE 72B混合专家模型,以及基于昇腾的模型推理技术。

2025年6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。

基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。

盘古7B相关模型权重与推理代码将于近期上线开源平台。

华为诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。请访问https://gitcode.com/ascend-tribe

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开