6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。

界面新闻
只服务于独立思考的人群
6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
广告等商务合作,请点击这里