那400G的位置就比较尴尬了,一方面,超大规模数据中心和智算中心确实在大规模采购400G光模块,用量不小。另一方面,800G已经在AI训练集群的核心层往上冲,2026年很可能成为标准配置。
但这不代表400G要很快退场,数据中心内部的结构是分层的。核心层追求最新最快的速率,但汇聚层和接入层更看重成熟和稳定。还有大量已经部署了100G网络的数据中心,升级到400G是最合理的路径,跳过400G直接上800G的改造成本太高。
所以更准确的判断是:400G光模块在AI核心层会被800G逐步替代,但在接入层、汇聚层、企业数据中心和城域互联这些场景里,它还会稳定出货好几年。这不是一个过渡产品,而是一个会与更高速率长期共存的成熟规格。

一、三种技术路线,各有各的用法
光模块的技术路线主要有三条:EML、硅光和薄膜铌酸锂。每条路线的成熟度和适用场景都不一样。EML方案是最传统的,技术最成熟,供应链也最稳定。它的原理很简单,就是一个激光器加一个调制器,通过电信号控制光的强度来传输数据。400G模块普遍采用4路100G的方案,也就是一个模块里放四个EML芯片,每个跑100G,加起来就是400G。
EML方案的优点是性能可靠,传输距离可以做到10公里甚至更长。缺点也不难理解,四个芯片集成在一起,功耗和体积都不小。目前主流的400G QSFP-DD模块里,EML方案仍然是主力,尤其是在长距离的FR4和LR4型号上。
硅光方案是这几年发展最快的。它的思路不一样,不是把分立的光器件组装在一起,而是用半导体工艺直接在硅片上刻出光波导、调制器、探测器这些结构。集成度高了,封装成本也能降下来。
以前行业内觉得硅光技术到200G/lane就到头了,但2025年的OFC展上,有厂商展示了带宽接近100GHz的硅光芯片,这意味着硅光做400G/lane已经不是理论问题了。在800G这一代产品里,因为EML芯片供应紧张,硅光抢了不少份额。
硅光方案的优点是集成度高、功耗相对低、适合大规模生产。缺点是在长距离传输场景下,性能不如EML稳定。所以在数据中心内部的短距互联,比如500米以内的场景,硅光方案用得比较多,400G DR4模块就是典型的硅光产品。
薄膜铌酸锂是技术指标最好的一个,它的电光系数高,带宽可以做得很大,理论上能做到更高速率。但这个技术目前还卡在产业化阶段。主要问题是芯片尺寸偏大,功耗也不低,异质集成的工艺难度很高。在400G这一代产品里,薄膜铌酸锂还不是主流选择。可能要到800G甚至1.6T,它才有机会真正落地。
二、封装形态怎么选,可插拔还是CPO
封装形态这件事,行业里讨论得比较多。目前主流的是两种可插拔封装:QSFP-DD和OSFP。QSFP-DD的名字有点绕,简单说就是在传统QSFP封装的基础上增加了一排引脚,实现了8个电通道。它的优点是宽度小,一个交换机面板上可以塞进去更多端口。OSFP的尺寸稍大一点,但散热能力更强,适合功耗较高的长距离模块。两种封装在市场上都有大量设备支持,选哪个主要看交换机的端口类型。
NPO(近封装光学) 是这两年被关注比较多的一个过渡方案。它的思路是把光引擎从交换机面板挪到靠近交换芯片的位置,但仍然保持模块形态。这样做的好处是缩短了电信号传输距离,可以降低功耗和信号损耗,同时供应链还能保持解耦。
CPO(共封装光学) 则是更进一步,直接把光引擎和交换芯片封装在一起。理论上这能大幅降低功耗,但代价是系统变得封闭,维护难度增加。一个CPO交换机如果某个光通道坏了,没法像换模块一样插拔更换,整个交换机可能都需要返厂。
业界对CPO的态度比较务实,大多数人认为,CPO能不能大面积普及,取决于两个方面:一是光引擎能否做得足够简单可靠,故障率足够低;二是能否通过连接器实现光引擎和交换芯片的解耦,让用户可以单独更换光引擎。这两个问题目前还没有很好的答案。

三、数据中心内部互联,400G的成熟场景
数据中心内部的光模块用量最大,场景也最明确。典型的Spine-Leaf架构中,Leaf交换机和Spine交换机之间需要高速链路,这就是400G模块的主战场。具体来说,机柜内部的服务器到Leaf交换机,目前还是25G或100G为主。但从Leaf到Spine这一跳,流量汇聚之后带宽压力大,400G是最合适的选择。这个场景里传输距离通常不超过100米,所以多模光纤的SR4或者单模光纤的DR4都可以用。SR4用多模光纤,成本低,但距离短;DR4用单模光纤,距离能到500米,成本稍高。
AI智算中心的网络结构和传统数据中心不太一样,AI训练集群里,GPU之间需要频繁交换数据,对网络延迟和带宽的要求都比普通业务高得多。一个典型的训练集群可能有几千甚至上万个GPU,这些GPU通过Scale-out网络互联。
在这个场景里,400G模块承担的是机柜之间的互联任务。每个GPU节点通常配一到两个400G端口,连接到集群的交换机上。因为AI训练的数据流是同步的,任何一条链路的延迟抖动都可能拖慢整个集群。所以AI场景对模块的稳定性和一致性的要求比普通数据中心更高。
硅光方案的400G DR4模块在AI数据中心里用得比较多。一方面是功耗优势,大规模集群里几万个模块,每省一瓦电一年就能省下可观的电费。另一方面硅光模块的集成度高,批量生产时的一致性好,适合大规模部署。
四、选型时需要注意的几个实际问题
说完了技术路线和应用场景,回到实际问题:如果你要采购400G模块,应该关注哪些指标。第一个是传输距离。这是最基础的选型依据。100米以内的机柜间互联,用SR8或者SR4,配多模光纤,成本最低。500米以内的,用DR4,配单模光纤。2公里的,用FR4。10公里的,用LR4。再长就要上相干模块了。选错距离规格会导致信号接收端功率不足,链路无法稳定工作。
第二个是功耗。早期400G模块的功耗普遍在12瓦以上,对交换机的散热能力要求比较高。现在主流的400G DR4模块已经把功耗降到9-10瓦,做得好的能控制在9瓦以内。如果你的交换机端口密度比较高,比如一个面板上插了32个或36个模块,总功耗可能超过300瓦,这时候需要确认交换机的散热设计是否足够,或者考虑用液冷散热的方案。
第三个是兼容性。这是实际部署中最容易出问题的地方。400G模块需要和交换机端口完全匹配才能正常工作,不同品牌的交换机对模块的编码要求不一样。有的交换机比较开放,可以识别第三方模块;有的则需要模块里烧录特定的厂商编码才能被识别。
一个实用的建议是,在批量采购之前,先拿样品做小规模测试,确认模块能稳定工作再下单。很多模块厂商也提供兼容性测试服务,可以把模块寄到你的机房或者帮你预约测试环境。
总结一下,400G光模块不是过渡产品,而是一个已经成熟、会长期存在的规格。它在数据中心内部的短距互联场景中有稳定的应用,在城域网络的中长距传输场景中需求还在增长。理解它的技术边界和适用场景,是做出合理选型决策的前提。无论是互联网公司的数据中心,还是运营商的城域网络,400G光模块都将继续扮演不可替代的角色。













