AI的下一站:QPU,英伟达已布局

作为AI领域的龙头,英伟达自然不能缺席QPU这一领域。

文|半导体产业纵横

在最近一次的GTC大会上,英伟达CEO黄仁勋再次提及QPU。这也预示着,量子计算的商业应用已进入倒计时阶段,仅在一周之内,谷歌和英伟达相继宣布了与量子计算相关的技术突破。

01、QPU是什么?

QPU(Quantum Processing Unit,即量子处理单元)是量子计算机的核心组件,基于量子叠加与纠缠原理实现计算功能,其算力随量子比特数n呈指数级(2ⁿ)增长。当前QPU主要技术实现方案包括超导量子、离子阱、量子点等物理体系,并在混合量子-经典计算架构中展现出解决复杂问题的潜力。

量子计算是一种革命性计算技术,利用量子物理特性处理和解决信息问题,其在量子计算机上运行,而量子计算机是专门设计的电子设备,允许在量子尺度上操纵物体。在量子尺度下,物体行为与日常经验迥异,量子计算通过编写程序利用这些独特量子行为,执行传统计算机无法完成的任务。

量子计算最核心的突破在于量子比特(Qubits)的特性,不同于经典比特(0或1),量子比特可处于叠加态,同时为0和1,使量子计算机能并行探索多种可能性。

从技术实现路径看,量子计算硬件主要分为两类。

第一类是基于微观结构构建分立能级系统的“人造粒子”路线,如超导量子计算、硅半导体量子计算。优势在于可扩展性强,易与现有集成电路技术耦合,但面临量子门保真度与比特控制难题。超导量子计算是基于超导约瑟夫森结构建二能级系统,如transmon、fluxonium等构型。优势是可扩展性强、易操控、与集成电路兼容性好,是当前最成熟的主流量线之一。例如,IBM持续刷新比特规模与操控精度,谷歌通过“悬铃木”芯片展示量子优势。硅半导体量子计算是利用硅基量子点中电子的自旋构建量子比特,核心优势是可扩展性强、与现有CMOS工艺高度兼容,适合大规模量产,但受限于同位素材料加工与栅格串扰,可扩展性仍面临挑战。

第二类是直接操控微观粒子的“天然粒子”路线,如离子阱量子计算、中性原子量子计算、光量子计算。特点是比特全同性好、逻辑门精度高,却在大规模系统构建上存在挑战。离子阱量子计算是通过射频电场囚禁带电离子,利用离子基态与激发态构建二能级系统。核心优势是量子比特全连接性好、操控精度极高、相干时间长,是目前门保真度最高的路线之一,但面临大规模扩展与高集成度测控难题。中性原子量子计算是通过激光“光镊”在超高真空腔中囚禁中性原子,激发至里德堡态构建二能级系统。核心优势是相干时间长、保真度高,且可扩展性优于离子阱,近年来在比特规模上增长最快。光量子计算是利用光子的偏振、相位等自由度构建量子比特,核心优势是相干时间长、可室温运行、测控简单,分为“逻辑门型”(通用计算)与“专用型”(如玻色采样、相干伊辛系统,用于组合优化)两类。

这两大阵营各有特点和优势,目前处于并行发展阶段,共同推动量子计算技术的快速发展。行业规划显示,2029年IBM计划交付200逻辑量子比特系统,2033年扩展至数千逻辑比特规模。

02、QPU与AI天然契合

全球知名前沿科技咨询机构ICV在《2024Global Quantum Computing Industry Development Prospect》中认为,2027年末-2028年初会是全行业一个重要的时间点,专用量子计算机将逐渐解决特定问题,如组合优化、量子化学、机器学习,引导材料设计和药物开发。

量子计算与人工智能的融合被视为下一代计算革命的重要方向。量智融合的核心并非单向技术叠加,而是多领域、多学科的横向连接,依托协同创新实现非线性增长。量子计算有望突破当前 AI 模型训练的算力瓶颈,提升算法效率;另一方面,量子比特易受环境干扰,需复杂校准和纠错算法才能正常运行。而人工智能则能在量子控制、误差校正、算法设计等方面可以反向赋能量子技术,为量子系统的稳定性和可扩展性提供新路径。

当前量子信息与人工智能的结合主要有两个方向:一是 AI for Science(科学智能),例如谷歌曾用量子人工智能优化纠错码;二是量子计算赋能机器学习,未来量子计算机成熟后,将为 AI 提供算力支持。

更重要的是在能效方面,QPU理论功耗低于经典处理器,混合系统被视为降低整体能耗的有效路径。通过采用量子计算技术,可以有效解决当前智算数据中心的能耗问题。

03、英伟达已布局QPU方案

作为AI领域的龙头,英伟达自然不能缺席QPU这一领域。今年6月,在法国巴黎举行的GTC大会上,英伟达CEO黄仁勋表示,量子计算领域正迎来历史性拐点,预测下一代超级计算机将配备与GPU相连的QPU。

2022年,英伟达便宣布启动经典-量子混合计算机项目,提出需构建GPU-QPU低延迟连接架构与统一编程模型。通过建立GPU与QPU之间的快速低延迟连接通道,实现经典计算资源对量子电路的实时优化与校准。该系统的核心技术工具包cuQuantum已实现商用,被亚马逊云科技、Menten AI等机构应用于量子电路模拟与药物研发优化。

在最近华盛顿召开的GTC大会上,英伟达公布了量子领域关键突破,推出NVQLink,实现量子计算机QPU和GPU的直接通信。黄仁勋指出,量子计算的QPU已获得空前支持,目前包括17家量子计算公司和8个美国能源部DOE国家实验室均已接入英伟达生态。

NVQLink本质上是一种开放系统架构,专门用于将GPU计算的极致性能与量子处理器紧密耦合,构建加速的量子超级计算机。从技术参数看,它实现了低于4.0微秒的延迟(FPGA到GPU到FPGA往返),以及高达400 Gb/s的GPU-QPU吞吐量。这一速度对量子纠错至关重要,因为量子态极其脆弱,必须在极短时间内完成检测和修正。

量子计算机虽理论速度快,但面临"太脆弱"的致命问题:热噪声和电磁干扰易导致计算出错,错误会累积使结果不可靠。而量子纠错可能是全球最密集的并行计算任务之一,这正是GPU的用武之地。

当前NISQ(含噪声中等规模量子)时代的量子比特极其脆弱,其发展受限于错误纠正、校准和控制等经典计算任务,解决这一瓶颈需要巨大经典算力。未来,每个NVIDIA GPU科学超级计算机都将与量子处理器紧密耦合,NVQLink负责硬件层面的高速互联,CUDA-Q则负责软件层面的统一编程和管理。

CUDA-Q作为NVIDIA推出的开源量子-经典混合计算软件平台,被定位为"量子计算的CUDA"。其混合编程模型允许在单个量子程序中协同计算GPU、CPU和QPU资源,使开发者能编写可无缝运行于三者之间的代码,并为量子纠错提供专属方案,显著降低量子计算开发门槛。

产业实践中,NVIDIA通过CUDA-Q平台已连接德国于利希中心、日本ABCI-Q等超算系统,构建QPU与GPU协同计算生态。在混合架构中,QPU负责执行量子算法核心模块,经典处理器处理数据预处理与结果优化。

 

广告等商务合作,请点击这里

本文为转载内容,授权事宜请联系原著作权人。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开