腾讯云发布MaaS一站式服务,大模型为何要跟行业深度结合?

腾讯云希望大模型能够跟行业进行深度结合,解决各行各业客户的具体问题。

摄影:崔鹏

界面新闻记者 | 崔鹏

自从今年初生成式人工智能技术席卷科技界以来,国内不少公司都推出了相关产品。无论是外界舆论还是企业客户都在询问腾讯,作为行业头部公司,腾讯到底在大模型业务上有何进展。

6月19日的发布会就是腾讯对外给出的阶段性答案,那就是MaaS(Model-as-a-Service)大模型一站式服务平台。

与此前诸多公司急切高调推出的通用大模型和C端(消费者端)产品不同,腾讯将更多的关注放在了面向B端的行业大模型身上。

腾讯集团高级执行副总裁、腾讯云与智慧产业事业群CEO汤道生在发布会上判断称,类似于金融、文旅、传媒、政务和教育等众多的产业场景,是演练和发挥大模型价值的最佳场景。

目前市面上一些通用大模型产品,训练数据主要来自公开数据或者网络采集,缺乏特定领域知识;同时它需要大量计算资源和漫长的训练周期,这对企业来说昂贵且耗时。所以选择合适的场景,对于企业大模型的落地至关重要。

腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声告诉界面新闻,腾讯云希望大模型能够跟行业进行深度结合,解决各行各业客户的具体问题。

腾讯方面称,本次推出的MaaS服务,由于加入了大模型相关技术,让那些传统行业解决方案中不好解决的问题,或者解决代价很大的问题,都有了更好的解法。

而只有当各行业的客户采用了腾讯的大模型服务之后,能解决实际问题,“我们才会觉得大模型真的起到作用了”,吴运声表示。

企业大模型落地挑战重重

吴运声认为,目前行业大模型跟产业的结合,还处在比较早期的阶段。

一方面大模型技术的发展日新月异,无论是算力层面、模型小型化、数据标注、数据训练还是开元模型层面,都在快速变化的过程中;另一方面整个产业对大模型能力和应用方式的理解,也还在初级阶段。

通常来说,一家企业想要搭建行业大模型,有几个环节必不可少:挑选适合自己使用场景的模型,使用云厂商专业工具搭建一体化模型服务,梳理测试用例、建立服务质量评估流程,确保数据及模型应用安全、合规和可控。

而企业想要在实际业务场景中部署使用大模型服务,则面临着成本、数据和安全等诸多落地难题。

首先,计算资源少。大模型需要比较高的计算资源和存储资源。与一般服务器相比,GPU服务器的稳定性比较低,大模型训练需要的GPU经常达到上千张卡。

同时,在训练集群里,连接几百台GPU服务器所需要的网络速度极高,一旦网络产生拥堵,就会影响训练效率。所以很多算法团队倾向于选择专业的云服务厂商进行云服务运维支持。

其次,数据质量比较差。搭建大模型本身就是一项成本极高的系统工程,需要大量的高质量数据进行训练和优化,还需要经过清洗和预处理,以消除噪声、填补缺失值并确保数据质量。如果导入的数据质量低,那训练出来的模型也会有问题。

第三,投入成本高,这也是大模型落地面临的主要困难之一。大模型需要投入大量的数据、计算资源、专业技术和时间来训练、调试、优化并部署实施。

第四,专业经验少。大模型的开发落地需要比较多的技术和人力资源,部署大模型需要考虑到计算资源、网络带宽和安全性等多方面问题,很多企业比较缺乏相关技术和人才,导致大模型无法顺利落地应用。

MaaS的重心在于解决行业侧需求

腾讯云在过去几年时间里,一直在致力于向各行业客户提供解决方案和工具箱,但在大模型浪潮迎面而来之后,腾讯也需要顺势而为。

所以,腾讯在大概10个行业中选择了一些现有客户,提供了50多个解决方案,去尝试用大模型技术解决特定行业问题。

官方信息显示,MaaS大模型服务依靠腾讯云TI平台建造行业大模型精选商店,基于腾讯HCC高性能计算集群和大模型能力,为客户提供覆盖模型预训练、模型精调和智能应用开发的一站式大模型服务。

腾讯云一位技术专家告诉界面新闻,很多客户觉得大模型很贵,其实贵的不是大模型本身,而是它的推理算力。所以腾讯的方式是针对客户的问题,以最低的成本、最合适的模型和服务,来让客户真正用上大模型。

吴运声在采访中表示,在腾讯云TI平台内置的行业大模型基础上,企业只要加入自己独有的场景数据,就能快速生成自己的专属模型,同时还能够按需定制不同规格、不同参数的模型服务。

在算力层面,今年四月份腾讯刚刚发布了专门为大模型训练设计的新一代HCC高性能计算集群,采用腾讯云星星海自研服务器,算力性能提升了3倍;未来腾讯云还将推出向量数据库(Tencent Cloud VectorDB),源自腾讯的向量引擎(OLAMA),更适用于AI运算和检索。

在平台层面,腾讯TI平台能提供完善的大数据工具链,包括数据标注、训练、评估、测试和部署等全套工具;“太极Angel”在传统CV、NLP算法模型的基础上,新增了对大模型的训练和推理加速能力,相比行业常用方案性能提升30%以上。

按照腾讯以往的习惯,面向外界销售的产品,通常都会现在内部使用并且评估效果,大模型服务也不例外。

在最近几个月大模型技术的火热发展过程中,腾讯始终在观察和内部实践相关技术。吴运声表示,腾讯内部包括腾讯会议、腾讯企点客服/分析、腾讯AI代码助手等产品,都应用了大模型技术进行升级。

在当天的发布会上,腾讯会议也宣布即将推出覆盖会议全流程场景的AI助手,用户只需要通过简单自然的会议指令,就可以完成信息提取、内容分析和会管会控等复杂任务,并自动生成总结摘要。

此外,腾讯云还将推出新一代的AI代码助手,支持多种编程语言和主流开发框架,覆盖沟通、编码、排错、评审和调优,实现开发工作全面的加速。

 

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开