英伟达CTO重磅发声:AI芯片与CPO光模块深度绑定,开启算力互联新纪元

2025年10月,在全球光通信领域顶级盛会ECOC 2025上,英伟达首席技术官(CTO)发表主题演讲,抛出行业重磅信号:下一代GPU将与共封装光学(CPO)技术深度集成、紧密绑定,以此突破带宽瓶颈,满足千亿乃至万亿参数大模型的高效运行需求。这一表态不仅明确了英伟达在AI算力基础设施领域的战略布局,更正式确立了AI算力“芯片+光互联”的协同演进路线,将深刻推动全球数据中心架构迎来革命性变革。
随着AI大模型向千亿、万亿参数跨越,多模态融合成为主流趋势,带宽已取代单一算力,成为制约大模型训练效率与推理体验的核心枷锁。传统AI算力架构中,GPU与光模块采用分离式设计,数据传输过程中存在信号损耗大、延迟高、功耗偏高的痛点,难以匹配海量参数模型的高频数据交互需求——据行业测算,千亿参数模型单次训练迭代需传输约100GB梯度数据,传统架构下的带宽短板会导致GPU算力利用率不足30%,严重浪费硬件资源并拉长研发周期。
在此背景下,英伟达CTO强调的CPO与GPU深度绑定,成为破解带宽困境的关键路径。作为新一代光互联核心技术,CPO通过将光引擎与AI芯片共封装集成,大幅缩短电信号传输距离,相较于传统可插拔光模块,可使功耗降低50%以上,传输延迟降至5-10ns,单端口带宽密度提升10倍,完美适配千亿参数及以上大模型对高带宽、低延迟、低功耗的核心需求。据悉,英伟达已布局3D封装架构的CPO方案,采用电子芯片置于光子芯片上方的堆叠布局,搭配微环调制器,进一步提升集成效率与传输性能。
此次表态的核心意义,远不止于单一企业的技术布局,更在于为全球AI算力产业确立了“芯片+光互联”的协同演进共识。长期以来,AI芯片与光互联领域多处于各自迭代、协同不足的状态,算力提升与带宽升级脱节,制约了AI产业向更高阶发展。英伟达作为全球AI芯片领域的领军者,其明确将CPO纳入下一代GPU核心架构,相当于为行业树立了技术标杆,将推动芯片厂商、光模块企业、数据中心运营商形成协同研发、联动升级的产业生态。
行业分析认为,这一战略布局将引发连锁反应,推动数据中心架构迎来根本性变革。传统数据中心的“计算-互联-存储”分离式架构将逐步被“芯片-光互联”一体化架构替代,CPO技术将从当前的概念验证、小规模试点,加速进入规模化量产阶段,成为AI数据中心的核心标配。与此同时,产业价值将重新分配,光引擎、核心光器件、先进封装等环节将成为产业链核心增长点,带动上下游企业加速技术突破与产能布局。
从产业长远发展来看,英伟达推动AI芯片与CPO的深度绑定,不仅将破解当前大模型发展的带宽瓶颈,更将为AI算力的持续突破奠定基础。随着“芯片+光互联”协同演进路线的落地,AI大模型的训练效率将大幅提升,多模态交互、自动驾驶、量子计算等高端应用场景的落地速度将进一步加快。作为AI产业的核心基础设施,算力架构的革新也将带动数字经济全产业链升级,开启AI产业发展的全新阶段。

