AI时代数据中心的黄金搭档?CF400G光模块与CF400固态硬盘
随着AI大模型训练、推理对算力互联、存储性能的要求陡增,本次内容涉及数据中心算力链两大关键硬件:一是探讨CF400G光模块是否能凭借适配性成为AI时代下一代高速光互连的“黄金接口”;二是提及CF400固态硬盘,可推测其或能为数据中心高频小数据交互、近存算力节点提供配套存储支持,整体围绕下一代数据中心的核心性能适配方向展开初步梳理。
在ChatGPT、大模型训练、自动驾驶车路云这些算力爆炸的场景背后,每一张100GB/s的显卡吞吐、每一次超大规模数据中心的跨机架通信,都在倒逼光模块传输速率、密度、功耗的三重突破——而CF400G(Compact Form Factor Quad 400G,紧凑型四通道400G光模块标准衍生的后续系列,当前主流已覆盖4×100G FR4/LR4 10km的800G QSFP-DD/OSFP“子模块”原型逻辑,这里指包含CFP4/QSFP-DD/OSFP的广义400G紧凑型光模块生态,兼顾了前期CFP8过渡与后期800G/1.6T演进的行业共识命名),正是当下这轮“算力基础设施新基建光层”里的核心承载,甚至被不少分析师称为“未来10年算力底座光层的入场券”。
从“够用就行”到“爆炸刚需”:CF400G的崛起背景
10年前,数据中心的主流光模块还停留在10G SFP+、40G QSFP+;5年前,200G QSFP-DD(初期SR4版本)和400G CFP8开始成为云厂商的“备选尝鲜品”;但2022年以后,全球头部云厂商(亚马逊AWS、谷歌云、微软Azure、阿里云、腾讯云等)的新建超大规模数据中心,已经把400G FR4/LR4的QSFP-DD/OSFP作为ToR(机架顶部)-Spine(核心汇聚)层、甚至部分GPU集群互联的“标配光模块”——CF400G的爆发,本质上是三大算力需求叠加的结果:
单台服务器/单张GPU的带宽“暴增百倍级”
以通用服务器为例:2018年主流x86服务器的PCIe Gen3 x16总线带宽是128GB/s(双向256Gbps理论值),配两张10G SFP+网卡刚好“凑够”数据交换;但2023年的PCIe Gen5 x16服务器,双向总线带宽已经飙升到1TB/s(4×256Gbps理论通道拆分),必须用至少4张200G QSFP-DD,或者2张400G QSFP-DD/OSFP才不会出现“总线堵光层”的瓶颈。
而GPU集群的需求更夸张:英伟达A100/H100的单卡NVLink互联带宽虽然主要用铜缆/有源光缆(AOC)的小范围集群,但跨机架、跨数据中心的集群调度(比如多AZ大模型训练),必须依赖光模块——H100需要400Gbps的双向带宽才能满足跨AZ调度的“数据无延迟回传率”要求,CF400G刚好踩中这个“临界点”。
数据中心内部流量“东数西算”式暴增
根据思科全球云指数报告,2023年全球数据中心内部流量占总流量的比例已经超过85%,其中跨机架、跨集群的流量又占内部流量的70%——而“东数西算”工程的推进,更把跨区域、甚至跨国家的数据中心互联(DCI)带宽需求推到了新高度:比如贵安新区到深圳坪山的算力枢纽DCI通道,初期就规划了单根光纤400G×80的32Tbps容量,CF400G LR4/ER4/ZR4(覆盖10km/40km/80km的长距离/超长距离CF400G光模块)就是DCI通道的“首选砖”。
光模块厂商的“技术收敛+成本下降”
CF400G的崛起,也离不开技术的成熟:2018年CF400G的核心光芯片——硅光调制器/探测器、磷化铟(InP)激光器,良品率还不到30%,单块QSFP-DD FR4光模块的价格超过3000美元;但到2024年,中际旭创、新易盛、Finisar(已被II-VI收购)等头部光模块厂商,已经把良品率提升到了90%以上,单块QSFP-DD FR4光模块的价格降到了200-300美元,甚至比2018年的200G QSFP-DD还要便宜——技术收敛(主流厂商都放弃了CFP8的大尺寸,转向QSFP-DD和OSFP的“小尺寸双雄”)+ 成本下降,让CF400G从“云厂商的奢侈品”变成了“云厂商的必需品”。
从“800G过渡”到“1.6T基础”:CF400G的技术生态
广义的CF400G,其实不是一个单一的光模块标准,而是一套包含封装标准、光芯片标准、电芯片标准、光纤标准的完整技术生态——这套生态的核心优势,向下兼容、向上可扩展”:
封装标准:小尺寸双雄QSFP-DD vs OSFP
QSFP-DD(Quad Small Form-Factor Pluggable Double Density,四倍小型可插拔双密度)和OSFP(Octal Small Form-Factor Pluggable,八倍小型可插拔),是当前CF400G的两大主流封装标准——两者的尺寸都只有CFP8的1/3左右,能在1U的ToR交换机上插满32-48个光模块,实现12.8Tbps-19.2Tbps的单端口吞吐量。
- QSFP-DD:是云厂商的“首选封装”,因为它向下兼容QSFP+/QSFP28(可以插旧的10G/25G/40G/100G光模块,保护云厂商的前期投资),电接口是PCIe Gen5 x8或者NRZ/PAM4双模式的,功耗只有QSFP-DD CFP8的1/2左右(QSFP-DD FR4的功耗约12W,CFP8 FR4的功耗约25W)。
- OSFP:是超算厂商和部分对带宽密度要求更高的云厂商的“备选封装”,因为它的电接口是PCIe Gen6 x16或者PAM4双模式的,光通道数是QSFP-DD的2倍(OSFP是8通道,QSFP-DD是4通道),后期可以直接升级到8×100G SR8/FR8的800G光模块,甚至8×200G SR16/FR16的1.6T光模块——不过OSFP的尺寸比QSFP-DD稍微大一点,不能向下兼容QSFP+/QSFP28,功耗也比QSFP-DD高一点(OSFP FR4的功耗约15W)。
光芯片技术:硅光 vs InP vs 硅光+InP混合
硅光(Silicon Photonics,SiPh)、磷化铟(Indium Phosphide,InP)、硅光+InP混合(Hybrid Silicon Photonics,HSP),是当前CF400G的三大主流光芯片技术——三者各有优劣,分别对应不同的应用场景:
- InP光芯片:是短距离SR4/SR8、中长距离FR4/LR4的“首选技术”,因为它的调制带宽高、插入损耗低、灵敏度高,单通道NRZ可以达到28Gbps,单通道PAM4可以达到112Gbps(当前主流的CF400G FR4/LR4就是用的112Gbps PAM4 InP光芯片)——不过InP光芯片的成本比较高,良品率提升难度大。
- 硅光芯片:是长距离ER4/ZR4、超长距离ZR+的“备选技术”,也是未来800G/1.6T光模块的“核心技术储备”,因为它的集成度高、成本低、功耗低,可以把调制器、探测器、波分复用器(WDM)都集成在一块硅片上——不过硅光芯片的插入损耗比较高,需要用功率更高的InP激光器作为“泵浦源”,所以现在主流的硅光CF400G光模块,其实都是“硅光调制器+InP激光器”的混合技术(也就是HSP)。
- HSP混合技术:是当前长距离ER4/ZR4、以及部分对成本和功耗都有要求的中长距离FR4/LR4的“主流技术”,它结合了InP激光器的高功率、高灵敏度和硅光调制器的高集成度、低成本、低功耗——比如中际旭创的400G QSFP-DD ZR4光模块,用的就是HSP混合技术,覆盖距离可以达到80km,功耗只有18W左右。
向上可扩展:从4×100G到8×100G再到8×200G
CF400G的技术生态,更大的亮点就是“向上可扩展”——因为它的封装标准(QSFP-DD和OSFP)、电接口标准(PAM4)、光纤标准(单模 *** F G.652/G.654),都是为后期的800G/1.6T光模块预留的:
- 800G光模块的升级逻辑:QSFP-DD可以通过“通道数翻倍”(从4×100G PAM4升级到8×100G PAM4)或者“单通道速率翻倍”(从4×100G PAM4升级到4×200G PAM4)两种方式,升级到800G光模块;OSFP则可以直接通过“通道数翻倍”(从8×50G PAM4升级到8×100G PAM4,或者从8×100G PAM4升级到8×200G PAM4)的方式,升级到800G/1.6T光模块——而且两种封装的800G光模块,都可以向下兼容CF400G光模块的光纤接口(比如QSFP-DD 800G SR8光模块,就可以插在QSFP-DD 400G SR4的光纤接口上,只要把通道数从4调整到8就行)。
- 当前800G光模块的量产情况:2024年,中际旭创、新易盛、II-VI等头部光模块厂商,已经实现了8×100G PAM4 SR8/FR8的800G QSFP-DD/OSFP光模块的量产,而且价格已经降到了500-600美元——亚马逊AWS、谷歌云、微软Azure等头部云厂商,已经开始在新建的GPU集群互联中使用800G光模块;而通用服务器的ToR-Spine层,预计2026-2027年也会开始大规模使用800G光模块。
从“云厂商主导”到“全行业普及”:CF400G的未来展望
CF400G的爆发,才刚刚开始——根据LightCounting的预测,2024年全球CF400G光模块的市场规模将达到120亿美元,2028年将突破300亿美元,年复合增长率(CAGR)超过25%——而且未来CF400G的应用场景,也不会只局限于数据中心,还会扩展到5G/6G前传/回传、自动驾驶车路云、工业互联网、医疗影像等领域:
数据中心:仍然是CF400G的“之一大市场”
未来5-10年,数据中心仍然是CF400G的“之一大市场”——因为大模型训练、自动驾驶仿真、元宇宙渲染这些算力爆炸的场景,会继续推动单台服务器/单张GPU的带宽暴增,以及数据中心内部流量的暴增;东数西算”工程的推进,也会继续推动跨区域DCI通道的带宽需求——预计2028年,数据中心领域的CF400G/800G光模块市场规模,将占全球光模块总市场规模的60%以上。
5G/6G前传/回传:是CF400G的“第二大市场”
5G/6G前传/回传,也是CF400G的“重要应用场景”——因为5G的毫米波基站、6G的太赫兹基站,需要的前传/回传带宽非常高:5G毫米波基站需要的前传带宽是100Gbps×2(双向),6G太赫兹基站需要的前传带宽是400Gbps×2(双向)——而且5G/6G的基站密度非常高,需要的光模块数量非常大;同时5G/6G的前传/回传 *** ,对光模块的尺寸、功耗、成本都有严格的要求——CF400G的QSFP-DD封装,刚好满足这些要求。
自动驾驶车路云、工业互联网、医疗影像:是CF400G的“新兴市场”
自动驾驶车路云、工业互联网、医疗影像这些领域,也是CF400G的“潜在应用场景”——比如自动驾驶车路云的边缘计算节点,需要的跨节点通信带宽是400Gbps×2(双向);工业互联网的工业机器人集群,需要的实时数据传输带宽是200Gbps×2(双向);医疗影像的三维CT/MRI扫描仪,需要的数据传输带宽是100Gbps×2(双向)——随着这些领域的发展,CF400G的市场规模也会继续扩大。
CF400G不是一个简单的光模块标准,而是一套为算力爆炸时代量身定制的“光层基础设施技术生态”——它的崛起,解决了单台服务器/单张GPU的带宽瓶颈,满足了数据中心内部流量和跨区域DCI通道的带宽需求,也为后期的800G/1.6T光模块预留了技术空间。
未来10年,CF400G/800G/1.6T光模块,将成为算力底座光层的“核心承载”——而中际旭创、新易盛等中国头部光模块厂商,已经在这个领域占据了全球市场的半壁江山(根据LightCounting的预测,2024年中国光模块厂商的全球市场份额将超过60%),这也为中国的“算力基础设施新基建”提供了有力的支撑。
可以说,谁掌握了CF400G/800G/1.6T光模块的核心技术,谁就掌握了未来10年算力底座光层的话语权——而中国光模块厂商,已经走在了前面。

还没有评论,来说两句吧...