美光推出首款8层堆叠24GB第二代HBM3内存,可缩短大型语言模型使用时间

7月27日,美光已宣布已出样业界首款8层堆叠的24GB容量第二代HBM3内存,基于1β DRAM制程节点高带宽内存(HBM)解决方案,带宽超过1.2TB/s,引脚速率超过9.2Gb/s,比现有HBM3解决方案性能可提升最高50%。美光介绍,第二代HBM3产品与前一代产品相比,每瓦性能提高2.5倍,可帮助缩短大型语言模型(如GPT-4及更高版本)的训练时间,降低总体拥有成本(TCO)。

    广告等商务合作,请点击这里

    未经正式授权严禁转载本文,侵权必究。

    打开界面新闻APP,查看原文
    界面新闻
    打开界面新闻,查看更多专业报道

    热门评论

    打开APP,查看全部评论,抢神评席位

    热门推荐

      下载界面APP 订阅更多品牌栏目
        界面新闻
        界面新闻
        只服务于独立思考的人群
        打开