大数跨境

NVIDIA英伟达 800G InfiniBand和以太网连接人工智能布线指南(五)

NVIDIA英伟达 800G InfiniBand和以太网连接人工智能布线指南(五) 康宁光通信
2025-07-09
1

NVIDIA英伟达 800G InfiniBand

和以太网连接人工智能布线指南





目录


向上滑动阅览目录

1.

了解收发器类型、端口拆分和布线场景

1.1.

场景1 - 800G和400G - 服务器到交换机应用 MPO-8/12 APC

1.2.

场景2 - 800G和400G - 交换机到交换机应用 MPO-8/12 APC

1.3.

 场景3 - 800G和200G - 服务器到交换机应用 MPO-8/12 APC

1.4.

场景4 - 800G和200G - 交换机到交换机应用 MPO-8/12 APC

1.5.

场景5 - 800G和400G -交换机到交换机应用,点对点 LC-双工UPC

1.6.

场景6 - 800G和400G -交换机到交换机应用,连接数据中心的 LC-双工UPC

1.7.

每个场景的收发器选项和端口拆分连接

2.

NVIDIA DGX SuperPOD布线架构参考指南

2.1.

了解DGX-H100节点(服务器)的计算网络连接

2.2.

了解Quantum-2 9700 NDR IB交换机 

2.3.

理解SuperPOD的构建块——可扩展单元的概念

2.4.

在NVIDIA DGX SuperPOD中实现布线场景

2.4.1

A级-服务器到叶节点的布线

2.4.2

B级-叶节点到脊节点的布线

2.4.3

C级-脊节点到核心的布线

2.5.

多模 vs 单模

2.6.

整体概览

2.6.1

4可扩展单元(SU)集群/POD的布线

2.6.2

8可扩展单元(SU)集群/POD布线

2.6.3

16可扩展单元(SU)集群/POD的布线 

2.6.4

32可扩展单元(SU)集群/POD的布线 

2.6.5

 64可扩展单元(U)集群/POD的布线

2.7.

结论

附件1 

高密度配线架

附件2 

极性图纸

场景1

800G和400G - 服务器到交换机应用MPO-8/12 APC

场景2

800G和400G -交换机到交换机应用MPO-8/12 APC

场景3

800G和200G - 服务器到交换机应用MPO-8/12 APC

场景4

800G和200G - 交换机到交换机应用MPO-8/12 APC

场景5

800G和400G - 交换机到交换机应用,点对点 LC-双工UPC

场景6

800G和400G - 交换机到交换机应用,数据中心内的 LC-双工UPC

附件3

参考文献和联系方式

已到底部


2.6 整体概览

现在我们已经了解了不同的集群或POD尺寸,以及如何在计算布线系统的活动设备之间进行布线,让我们通过图示总结一下可以使用的组件。这些组件将取决于具体的设计,但主要基于我们在本文中回顾的不同产品和部件编号。


2.6.1 连接4个可扩展

单元(SU)集群/POD的布线

在图19中,将4个SU POD与128台服务器、32台叶节点交换机和16台脊节点交换机进行布线需要:

• 1,024个从节点到叶节点的连接

• 1,024个从叶节点到脊节点的连接

• 如果有核心交换机的话,还需要1,024个连接(可选)


图19. 包含A级、B级、C级布线的4个可扩展单元(SU)集群/POD


通过应用我们已探讨的不同布线层级,可以得出以下结论:

•  数据中心运营商可以在可扩展单元中使用A级布线,进行服务器到叶节点的布线,使用点对点跳线或束状跳线组件。这将需要每个可扩展单元256个独立的8芯跳线(长度可变),或者仅需8个每个含 256芯的束状跳线(长度可变)。

•  数据中心运营商可以使用B级布线,进行叶节点到脊节点的布线,采用结构化布线。这将需要安装单根跳线或束状跳线、适配器面板、配线架和高芯数主干光缆作为主干布线。通过这种主干布线,我们可以轻松使用64条干线(每个叶节点16条干线,每条144芯),这将替代点对点连接中的单根跳线和束状跳线。这种方法允许使用备用端口,更好地管理复杂性,并提高数据中心中的通道空间。

•  如果部署核心交换机,数据中心运营商可以使用C级布线,进行脊节点到核心的布线,使用点对点跳线、束状跳线组件或DAC(直连铜缆)。


2.6.2 连接8个可扩展

单元(SU)集群/POD的布线

在图20中,将8个SU POD与256台服务器、64台叶节点交换机和32台脊节点交换机进行布线需要:

• 2,048个从节点到叶节点的连接

• 2,048个从叶节点到脊节点的连接

• 如果有核心交换机的话,还需要2,048个连接(可选)


图20. 包含A级、B级、C级布线的 8个可扩展单元(SU)集群/POD


通过应用我们已探讨的不同布线层级,可以得出以下结论:

•  数据中心运营商可以在可扩展单元中使用A级布线,进行服务器到叶节点的布线,使用点对点跳线或束状跳线组件。这将需要每个可扩展单元256个独立的8芯跳线(长度可变),或者仅需8个每个含256芯的束状跳线(长度可变)。

•  数据中心运营商可以使用B级布线,进行叶节点到脊节点的布线,采用结构化布线。这将需要安装单根跳线或束状跳线、适配器面板、配线架高芯数主干光缆作为主干布线。通过这种主干布线,我们可以轻松使用128条干线(每个叶节点16条干线,每条144芯),这将替代点对点连接中的单根跳线和束状跳线。这种方法允许使用备用端口,更好地管理复杂性,并提高数据中心中的通道空间。

•  如果部署核心交换机,数据中心运营商可以使用C级布线,进行脊节点到核心的布线,使用点对点跳线、束状跳线组件或DAC(直连铜缆)。


2.6.3 连接16个可扩展

单元(SU)集群/POD的布线

在图21中,将16个SU POD与512台服务器、128台叶节点交换机和128台脊节点交换机进行布线需要:

· 4,096个从节点到叶节点的连接

· 4,096个从叶节点到脊节点的连

· 如果有核心交换机的话,还需要4,096个连接(可选)


图 21. 包含A级、B级、C级布线的16个可扩展单元(SU)集群/POD


通过应用我们已探讨的不同布线层级,可以得出以下结论:

•  数据中心运营商可以在可扩展单元中使用A级布线,进行服务器到叶节点的布线,使用点对点跳线或束状跳线组件。这将需要每个可扩展单元256个独立的8芯跳线(长度可变),或者仅需8个每个含256芯的束状跳线(长度可变)。

•  数据中心运营商可以使用B级布线,进行叶节点到脊节点的布线,采用结构化布线。这将需要安装单根跳线或束状跳线、适配器面板、配线架高芯数主干光缆作为主干布线。通过这种主干布线,我们可以轻松使用256条干线(每个叶节点16条干线,每条144芯),这将替代点对点连接中的单根跳线和束状跳线。这种方法允许使用备用端口,更好地管理复杂性,并提高数据中心中的通道空间。

•  如果部署核心交换机,数据中心运营商可以使用C级布线,进行脊节点到核心的布线,使用点对点跳线、束状跳线组件或DAC(直连铜缆)。


2.6.4 连接32个可扩展

单元(SU)集群/POD的布线

在图22中,将32个SU POD与1,024台服务器、256台叶节点交换机、256台脊节点交换机和128台核心交换机进行布线需要:

• 8,192个从节点到叶节点的连接

• 8,192个从叶节点到脊节点的连接

• 8,192个从脊节点到核心的连接


图 22. 包含A级、B级、C级布线的 32个可扩展单元(SU)集群/POD


通过应用我们已探讨的不同布线层级,可以得出以下结论:

•  数据中心运营商可以在可扩展单元中使用A级布线,进行服务器到叶节点的布线,使用点对点跳线或束状跳线组件。这将需要每个可扩展单元256个独立的8芯跳线(长度可变),或者仅需8个每个含256芯的束状跳线(长度可变)。

•  数据中心运营商可以使用B级布线,进行叶节点到脊节点的布线,采用结构化布线。这将需要安装单根跳线或束状跳线、适配器面板、配线架高芯数主干光缆作为主干布线。通过这种主干布线,我们可以轻松使用512条干线(每个叶节点16条干线,每条144芯),这将替代点对点连接中的单根跳线和束状跳线。这种方法允许使用备用端口,更好地管理复杂性,并提高数据中心中的通道空间。

•  如果部署核心交换机,数据中心运营商可以使用C级布线,进行脊节点到核心的布线,使用点对点跳线、束状跳线组件或DAC(直连铜缆)。


2.6.5 连接64个可扩展

单元(SU)集群/POD的布线

在图23中,将64个SU POD与2,048台服务器、512台叶节点交换机、512台脊节点交换机和256台核心交换机进行布线需要:

• 16,384个从节点到叶节点的连接

• 16,384个从叶节点到脊节点的连接

• 16,384个从脊节点到核心的连接


图23. 包含A级、B级、C级布线的64个可扩展单元(SU)集群/POD


通过应用我们已探讨的不同布线层级,可以得出以下结论:

•  数据中心运营商可以在可扩展单元中使用A级布线,进行服务器到叶节点的布线,使用点对点跳线或束状跳线组件。这将需要每个可扩展单元256个独立的8芯跳线(长度可变),或者仅需8个每个含256芯的束状跳线(长度可变)。

•  数据中心运营商可以使用B级布线,进行叶节点到脊节点的布线,采用结构化布线。这将需要安装单根跳线或束状跳线、适配器面板、配线架高芯数主干光缆作为主干布线。通过这种主干布线,我们可以轻松使用1,024条干线(每个叶节点16条干线,每条144芯),这将替代点对点连接中的单根跳线和束状跳线。这种方法允许使用备用端口,更好地管理复杂性,并提高数据中心中的通道空间。

•  如果部署核心交换机,数据中心运营商可以使用C级布线,进行脊节点到核心的布线,使用点对点跳线、束状跳线组件或DAC(直连铜缆)。


2.7 结论

总之,了解每个级别(A、B和C)的详细布线要求对于优化DGX SuperPOD的部署至关重要。此外,在可能的情况下实施结构化布线可以提高可管理性和效率,特别是在大规模设置中。

在设计阶段与康宁工程团队合作,确保布线策略与特定的数据中心布局和客户要求保持一致。


附件1 -高密度配线架

EDGE8®HD配线架安装在19英寸机架或机柜中,与EDGE8模块、面板、线束、中继器和跳线结合使用时,可提供业界领先的超高密度连接。

由于每个客户和项目都有特定的需求,请在BOM中添加最适合您需求的配线架:


表11. 高密度配线架


附件2 -极性图纸

极性图,通常被称为光纤极性图,在使用光纤布线设计和实施数据中心链路时是必不可少的。它们在确保不同网络组件之间的适当连接、信号完整性和兼容性方面发挥着至关重要的作用。

本节将介绍适用于前面描述的每种场景的特定极性图。


场景1—800G和400G—服务器到交换机应用

MPO-8/12 APC到MPO-8/12 APC使用点对点布线

用例A:

图24. 场景1-800G和400G-交换机到服务器本地 - 用例A

用例B:

图25. 场景1-800G和400G-交换机到服务器本地 - 用例B

用例C:

图26. 场景1 - 800G和400G -交换机到服务器本地  - 用例C


场景2 - 800G和400G -交换机到交换机应用

MPO-8/12 APC到MPO-8/12 APC通过主干结构化布线跨数据中心连接

用例A:

图27. 场景2 - 800G和400G -交换机到交换机通过主干跨数据中心连接 - 用例A

用例B:

图28. 场景2 - 800G和400G -交换机到交换机通过主干跨数据中心连接 - 用例 B

用例C:

图 29. 场景2 - 800G和400G -交换机到交换机通过主干跨数据中心连接 - 用例C


场景3 - 800G和200G -服务器到交换机应用

MPO-8/12 APC到MPO-8/12 APC采用点对点布线

用例A:

图30. 场景3 - 800G和 200G -交换机到服务器本地-用例A

用例B:

图31. 场景3 - 800G和200G -交换机到服务器本地-用例B


场景4—800G和200G—交换机到交换机应用

MPO-8/12 APC到MPO-8/12 APC,使用结构化布线跨数据中心连接

用例A:

图32. 场景4 - 800G和200G -交换机到交换机通过主干跨数据中心连接 - 用例A

用例B:

图33. 场景4 - 800G和200G -交换机到交换机通过主干跨数据中心连接 - 用例B


情景 5 - 800G 和 400G - 交换机到交换机应用 LC-双工到 LC-双工使用点对点布线

用例A:

图34. 场景5 - 800G和400G -交换机到交换机本地-用例A

用例B:

图35. 场景5 - 800G和400G -交换机到交换机本地-用例B


场景6 - 800G和400G -交换机到交换机应用

LC-双工UPC到LC  -双工UPC使用结构化布线通过数据中心的主干连接

用例A:

图36. 场景6 - 800G和400G -交换机到交换机通过主干跨数据中心连接 - 用例A

用例B:

图37. 场景6 - 800G和400G -交换机到交换机通过主干跨数据中心连接 - 用例B


附件3 -参考文献和联系人

本节包含NVIDIA概述白皮书的部分参考列表。有关NVIDIA产品的更多详细信息,请访问https://docs.nvidia.com/

 

收发器:

• MMS4X00-NM 800Gbps Twin-port OSFP 2x400Gb/s Single Mode 2xDR4, 500m 

https://docs.nvidia.com/networking/display/mms4x00nm800g500m/application+overview

• MMS4X00-NS 800Gbps Twin-port OSFP 2x400Gb/s Single Mode 2xDR4, 100m 

https://docs.nvidia.com/networking/display/800gmms4x00ns/overview

• MMA4Z00-NS 800Gb/s Twin-port OSFP, 2x400Gb/s Multimode 2xSR4, 50m 

https://docs.nvidia.com/networking/display/800gmma4z00ns/overview

• MMS4X50-NM 800Gb/s Twin-port OSFP, 2x400Gb/s Single Mode 2xFR4, 2km 

https://docs.nvidia.com/networking/display/mms4x50nm800g2kmpub

 

英伟达光缆:

• MFP7E30-Nxxx,单模直交叉光纤线缆

https://docs.nvidia.com/networking/display/mfp7e30nxxxpub/specifications

• MFP7E40-Nxxx,单模分路交叉光纤线缆

https://docs.nvidia.com/networking/display/mfp7e40nxxxpub/specifications

• MFP7E10-Nxxx,多模直交叉光纤线缆

https://docs.nvidia.com/networking/display/mfp7e10nxxx/specifications

• MFP7E20-Nxxx,多模分路交叉光纤线缆 

https://docs.nvidia.com/networking/display/mfp7e20nxxx/specifications


DGX SuperPOD架构:

• DGX H100

https://docs. nvidia. com/dgx-superpod/reference-architecture-scalable-infrastructure- h100/latest/dgx-superpod-architecture.html

• DGX B200

https://docs. nvidia. com/dgx-superpod/reference-architecture-scalable-infrastructure- b200/latest/dgx-superpod-architecture.html

• DGX GB200

https://www.nvidia.com/en-us/data-center/dgx-superpod-gb200/


联系我们

请邮件回复lis44@corning.com提供您的姓名和组织名称,以及您在项目中遇到的问题和想要获得的支持。我们的专业服务团队成员将迅速作出回应。


往期回顾

原创NVIDIA英伟达 800G InfiniBand和以太网连接人工智能布线指南(四)

原创NVIDIA英伟达 800G InfiniBand和以太网连接人工智能布线指南(三)

原创NVIDIA英伟达 800G InfiniBand和以太网连接人工智能布线指南(二)

原创NVIDIA英伟达 800G InfiniBand和以太网连接人工智能布线指南(一)


【声明】内容源于网络
0
0
康宁光通信
我们的创新光学连接解决方案为企业、运营商以及无线市场带来了高质量宽带能力,同时扩展了消费电子设备的前沿领域。
内容 225
粉丝 0
康宁光通信 我们的创新光学连接解决方案为企业、运营商以及无线市场带来了高质量宽带能力,同时扩展了消费电子设备的前沿领域。
总阅读63
粉丝0
内容225