* GPU算力与传统的集群相比对网络的要求更高 , 合理的网络设计才能让HPC的方案性能发挥的更好。

     *计算网络:计算网络肩负着GPU算力集群各节点之间高效通信的任务;对于大规模的计算任务,若要大幅度提高计算速度,网络的带宽和延迟都要求很高。

 

     *存储网络:为数据存储提供高速网络IO。

     *IB交换机: Infin iband SW , 高带宽、低延时 , GPU算力占据主流。(Mellanox)

 

     *以太网交换机:通常用作管理

 

     *FC交换机 :成熟的存储专用设备 ,低延时 , 最高32Gb ,不占据主流 。

*GPU卡之间通过片上PCIe接口及板载PCIe交换芯片实现多卡互联,服务器间通过以太交换机或IB交换机搭建基于超融合架构的底层硬件平台,从而为上层应用提供计算和存储服务

解决方案