🚀 前言
本篇内容基于公开资料(见文末参考资料)梳理CX-8的规格(就当是为方便大家查阅,而不用每次都去NV官网搜索)。但是由于公开资料及作者能力有限(后者才是重点),可扩展的面不多,大家各取所需,也欢迎补充。
ConnectX-8 SuperNIC:Highest-performance 800G networkingdesigned for massive-scale AI.同时支持Spectrum-X Eth和Quantum-X IB技术。
🚀🚀 SPEC展示
规格总览

没想到吧 还有Mezz形态和OCP 3.0形态。
关键特性细节
a. Network Interface

Supports up to 8 split ports:是其高端能力和灵活性的标志,它意味着您购买的不是一个固定的400G接口,而是一个可以软件定义的、最高可配置为8*50G端口的“网络连接资源池”。当然也支持4*100G、2*200G。
这与 400G端口的物理结构 密切相关:
400G端口(常见封装为 OSFP 或 QSFP-DD)内部通常由 8条 电通道组成;
目前主流技术下,每条电通道的速率是 50G PAM4。这8条通道捆绑在一起实现 8 * 50G = 400G 的总带宽;
“端口拆分” 的实质,就是将这些捆绑的通道解绑,并重新分配给多个逻辑端口。
b. Host Interface
注:架构图参“考英伟达企业解决方案”公众号。上图中 物理隔离 是为了形象理解两个芯片之间不能"直接"通信。
集成PCIe Switch的CX-8有如下核心作用:
简化了主板设计、改善了气流并增强了可维护性,打造一个更紧凑、更节能、更经济高效的平台。
首次实现“PCIe Gen6+800G”的端到端高速互联(PCIe Gen6 的 48 lanes带宽(1.5TB/s))。
基于 ConnectX-8 的优化设计可为集群内的所有 GPU 间通信提供高达每个GPU 50 GB/s的IO带宽,因为NCCL直接通过网络转发所有流量。
实现全组件的QoS保障,ConnectX-8的PCIe Switch能给不同组件分配 “服务质量优先级”(比如训练时给 GPU 通信最高优先级,推理时给SSD读数据最高优先级),避免“相互抢资源导致延迟飙升”。
C. Advanced AI/ HPC Networking
d. AI/HPC Software
e. Others
Secure boot、MCTP、NCSI、PXE boot、iSCSI boot等不作展开。
参考资料:
https://resources.nvidia.com/en-us-accelerated-networking-resource-library/connectx-datasheet-c
https://mp.weixin.qq.com/s/W0VywCFI_eiNcHSSbC6bDg

