
Cavium FastLinQ 产品系列是一款独一无二的NIC,它支持同时采用iWARP和RoCE技术,为客户提供了极大的灵活性 - 客户既可以部署自己选择的RDMA技术,也可以将使用RoCE适配器和iWARP适配器的Hyper-V主机连接到配置FastLinQ 41000 NIC的同一存储空间直通集群,从而发挥软件定义网络SDN以及Microsoft Azure Stack等Windows Server 2016云就绪技术的所有潜能。
Cavium FastLinQ QL45000/QL41000系列10/25GbE以太网NIC现已通过Microsoft Windows Server软件定义数据中心(SDDC)Premium认证,这是微软最高级别的SDDC认证。微软公司数据中心和云网络、Windows Server集团经理Ravi Rao指出:“软件定义网络、存储空间直通和Microsoft Azure Stack是微软软件定义混合云基础架构战略的核心。SDDC Premium认证可帮助数据中心经理和系统集成商部署Microsoft SDDC技术,利用Cavium以太网NIC的全面特性来构建高效而可靠的超融合数据中心。”

在本文中,我们将详细介绍通过Microsoft SDDC-Premium认证的Cavium FastLinQ 41000 RDMA适配器在微软存储技术团队的部署及实践过程。
以下文字内容节选于“Windows和Windows Server存储工程团队官方博客”,阅读英文原文“Storage Spaces Direct with Cavium FastLinQ 41000”,可访问页末“阅读原文” 。
我们使用一个4节点集群,每个节点配置有以下硬件:
DellEMC PowerEdge R730XD
2个英特尔®至强®E5-2697v4处理器(18个2.3 GHz内核)
128GiB DDR4 DRAM
4个800GB Dell Express Flash NVMe SM1715
8个800GB Toshiba PX04SHB080 SSD
Cavium FastLinQ® QL41262H 25GbE适配器(双端口)
BIOS配置
- BIOS性能配置文件
- 已禁用C States
- 已启用HT
Cavium FastLinQ 41000
我们通过以下项目部署了Windows Server 2016存储空间直通和VMFleet:
4个三向镜像CSV卷
为读取/写入操作配置的缓存
每个节点18个虚拟机
首先,我们配置VMFleet以测试吞吐量。每个VM运行DISKSPD,IO大小为512KB,100%读取操作,队列深度各异:

总吞吐量非常接近系统中的缓存设备可能实现的吞吐量。而且,无论是使用iWARP、RoCE还是同时使用这两种技术,总吞吐量都极为一致。在这些测试中,DCB配置为启用PFC以用于RoCE,但任何DCB配置都未启用iWARP。
接下来,我们重新配置VMFleet以测试IOPS。每个VM运行DISKSPD,IO大小为4KB,90%的读取操作和10%的写入操作,队列深度各异:

iWARP、RoCE或同时采用这两种技术时的IOPS速率和延时类似并保持一致。
有越来越多的网卡厂商开始提供RDMA网络适配器,但大多数厂商只单一支持iWARP或RoCE。Cavium FastLinQ 41000可同时支持这两种技术,意味着客户可以部署任意一种或同时部署这两种技术,甚至可根据需求做出更改。无论是使用iWARP、RoCE还是同时使用这两种技术,都取得了非常好的结果,且测试结果保持一致。


