用AI减轻算力荒,CoCoPIE在一千美金级别的通用单片设备上实现L4级自动驾驶

优化设计后,相同效能所需要的算力大幅下降,中低端芯片也可以被利用在汽车

图源:图虫创意

记者 | 姜菁玲

一家公司正在试图用AI来减轻目前的算力危机。

2020年8月,来自美国东北大学、北卡罗来纳州立大学及威廉玛丽学院几位人工智能方向的顶尖教授,成立了CoCoPIE。通过全栈式的压缩、编码、以及运行优化,人工智能的运行效率被显著提升,运行人工智能的算力需求也随之下降。

CoCoPIE CTO慎熙鹏向界面新闻记者介绍称,以最近CoCoPIE在自动驾驶场景下的人工智能优化取得的突破性进展为例,在保证同等准确和实时效果下,通过协同优化技术,L4级别的自动驾驶AI平台对算力的需求从目前业界使用的NVIDIA Drive AGX Pegasus,可以降到NVIDIA Jetson AGX,前者成本在1万美元左右,后者仅需699美元。

自动驾驶技术需要借助AI判别各种各样的路况,因此对AI的准确性和实时性要求非常高。慎熙鹏表示,这可以很大程度上对当前汽车产业缺芯的情况进行缓解,因为对算力资源的需求减少,相对更低等级的芯片也可以被利用起来。“这意味着大家可以从一些低端机上入手重新设计,实现自动驾驶系统。”

CoCoPIE认为,在深度学习模型本地化运算的过程中,CPU、GPU、DSP等主流硬件尚有很大潜力没有被开发,通过优化压缩和编译的过程,能够使得以往无法运行在某些终端设备上的神经网络得以在这些终端设备上运行。而“压缩-编译协同”设计可以让AI只借助主流处理器在本地化上运行,而不用AI加速硬件。

CoCoPIE核心技术是压缩、编码、以及运行优化。慎熙鹏认为,与其他人工智能模型优化公司相比,CoCoPIE的区别在于是全栈优化,从人工智能的模型到编译器的代码生成,再到运行时资源的调度,可以全部完成。

目前,CoCoPIE正在与国内的自动驾驶厂商进行合作,产品即将落地。除此之外,CoCoPIE目前还为腾讯提供实时高清视频优化,实时地在终端产品上将低清晰度视频转化高清。以及,与芯片厂商合作,帮助他们优化芯片效能,“使中端芯片跑出高端芯片效果,低端芯片跑出中端芯片的效果。”

慎熙鹏表示,整体上,CoCoPIE目前拥有十余家客户,包括腾讯、滴滴、Cognizant等公司。CoCoPIE的交付方式主要有两种,一是与合作方共同开发,定制化提供解决方案;二是将面向中小企业,提供SaaS系统,可以基于CoCoPIE平台进行AI模型优化,提高速度和准确度。整体上,CoCoPIE计划未来以SaaS为发展重点。除了整体平台的交付,CoCoPIE也将针对特定行业和场景推出相应解决方案。

当前,CoCoPIE目前团队共有15人,分布在美国和中国。2021年8月,CoCoPIE完成了数千万人民币A轮融资。

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开