大数跨境

构建AI大算力底座 信维人工智能服务器H5800G4I

构建AI大算力底座 信维人工智能服务器H5800G4I 信维科技
2023-07-28
2


Artificial Intelligence

AI大模型迭出带来数据处理量指数级增长,带动AI云端算力需求快速拉升,服务器内部各种高速连接需求大幅增长,需承载更大的传输通道以作支撑。


CPU、GPU算力需求水涨船高的趋势下,信维 H5800G4I 服务器通过优化的企业级解决方案,可在应用环节支持更高的HPC和AI工作负载,作为GPU 和 CPU 的最佳组合可完全支持 AI、游戏、医疗和机器学习等数字时代现代企业的需求,特别是严重依赖人工智能和机器学习的企业。



近年来人工智能技术迅速成熟、产品井喷,落地场景多种多样,可以预见相关智能应用将在未来数年内持续保持高速发展态势。这一方面意味着对服务器计算力提出更加强劲的需求,同时也对服务器性能提出新的挑战。信维H5800G4I服务器具备两大优势:一是GPU高速互联,二是每个GPU有专属的网络设备和存储,保证数据交互和读取的高带宽低延迟

亮点一

其采用4U高密度设计,搭载两颗第三代Intel Xeon可扩展处理器平台,支持Intel Deep Learning Boost Technology,且针对分析、训练和推理工作负载进行了优化设计。

亮点二

通过PCIe配电盘,将NVIDIA Tensor Core GPU与PCIe G4完美结合,并且还能支持更多PCIe设备,如网卡和NVME SSD。
为增强性能,H5800G4I采用NVIDIA NVSwitch在8个GPU之间进行通信,并预留6个NVLINK端口以实现系统扩展,轻松获得高达400GB/s的GPU内部互联带宽。

亮点三

实现显存的叠加和性能扩展,从而最大限度满足AI计算工作负载的需求,可为用户提供高达2.5 PetaFLOPS的AI计算性能和超高速带宽,为各类AI应用场景提供强大的算力支撑。



亮点四

除了提供卓越的算力支撑外,H5800G4I还可为客户提供最佳的散热方案,设计了强力散热系统,散热系统是服务器中的重要功能,特别是对于 350W 以上的热设计功率 (TDP)。如果散热系统无法提供足够的散热来保护内部组件,整个系统将会无法运转。

因此,H5800G4I 服务器从设计到散热方案都有所革新,针对不同场景的需求提供风冷和液冷两套散热解决方案来满足不同行业、不同场景下的客户应用需求,使GPU在通常使用的温度控制在70℃以下, 更能显著提升整体冷却效果。

作为专业的异构服务器解决方案,H5800G4I专门设计用于AI推理服务,多媒体视频流转码,以及GPU加速的虚拟化业务。


亮点五

H5800G4I 整机采用模块化设计,独立的GPU和CPU热量分区设计确保系统在苛刻工作负载下性能和稳定新不受到影响。

同时板载集成BMC、支持通过RAID卡超级电容、支持 Aspeed AST2520 集成远程管理符合IPMI 2.0规定等,方便用户对AI算力设备的维护管理。

综上,信维AI加速计算服务器H5800G4I可提供多样性的AI算力,适用于 IT 核心业务、云计算、虚拟化、高性能计算、分布式存储、大数据处理、企业或电信业务应用及其它复杂工作负载应用场景,满足多种人工智能应用场景的算力需求。

作为算力基础设施服务商,信维股份将坚持面向不同算力场景打造相应的AI解决方案,推动千行百业朝着数智化升级的目标稳步迈进。

 

【声明】内容源于网络
0
0
信维科技
内容 0
粉丝 0
信维科技
总阅读0
粉丝0
内容0