人工智能毫无疑问是当前最热的商业话题之一,从上层的语音识别、翻译及机器学习,到python等适用于深度学习的语言以及各式算法,与人工智能相关的议题总不缺乏热度。人工智能潜力巨大,但是万丈高楼平地起,任何一个人工智能的算法或者系统都需要一个高效的底层平台进行支撑。
深度学习:算法是灵魂 基础架构是引擎
深度学习是人工智能最广泛的应用领域,它使用高性能计算机识别海量数据中的模式和关系。算法可以说是深度学习的灵魂,训练模型、处理数据的方式都由算法定义,而算法需要在基础架构驱动下才能高效运作,基础架构也是整个人工智能的引擎。
2018年4月28日,hpe apollo6 gen10服务器在全球发布,单台服务器最高支持8个nvidia tesla gpu,支持pcie与nvlink 2.0的双重选择,并具备高带宽和低延迟的网络。hpe apollo 6 gen10服务器由gen9系列迭代发展而来,不仅全面继承了hpe在服务器上多年的设计经验,并且软硬件都进行了全面的升级。
随着这一新品进入市场,基于gpu的主流服务器在算力等参数上将上升到一个全新的高度,各类深度学习的场景也将有一个更加高效、易用、成熟的服务器选择。
apollo6 gen10:
深度学习场景的最优引擎
业内领先的硬件配置与性能参数,加上hpe与英伟达在服务器及gpu领域的影响力,使得hpe apollo 6 gen10系统成为人工智能领域最高端的引擎。不仅是gpu与计算架构进行了升级,要使得整个系统的性能不留瓶颈,就需要计算、网络和存储都使用最高性能的方案,hpe apollo 6 gen10服务器在此三个方面有了诸多新的设计,所以可以从计算、网络和存储三个方面解读这一人工智能神器。
hpe apollo 6 gen10前视图
首先是最高8颗gpu的计算架构,并且支持nvlink2.0,这是相比上一代产品的一个重要升级。简单的说,nvlink是一个能够在gpu-gpu以及gpu-cpu之间实现高带宽直连通讯的快速互联机制。单个nvidia tesla v100 gpu 即可支持多达六条nvlink链路,总带宽为300gb/秒,这是pcie 3.0带宽的10倍。
基于nvlink 2.0的超立方网格拓扑架构
采用nvlink2.0的高效混合立方网格是目前最为高性能的解决方案,不同的gpu之间通信带宽已经接近极限。另一方面,用户也可以使用基于pcie的4:1或8:1的gpu:cpu连接。不同拓扑在高性能与易用性上各有优势,适用各种场景,用户可以根据业务模型灵活的选择。
网络层面,每台服务器支持多达4个高速适配器,除了以太网,还支持拥有更高速度的omni-path架构、infiniband edr结构以及未来的 infiniband hdr,满足深度学习场景高带宽的需求。
存储层面,hpe apollo 6 gen10支持nvme ssd,相比sas ssd,nvme ssd拥有更高的带宽和更低的延迟,能够保障上层系统应用产生的数据第一时间下刷到存储层,避免存储成为瓶颈。
除了打通从计算到网络再到存储的整个链条上所有环节之外,hpe apollo 6 gen10配备4个hpe 2200w白金电源(2+2冗余),并且每个服务器有5个热插拔风扇模块,提供坚实的供电、散热等保障。
hpe apollo 6 gen10模块化设计
先进的核心计算架构、从计算到网络再到存储的高效模块化设计和精心设计的电源及散热系统,使得hpe apollo 6 gen10不仅能够满足各类深度学习应用场景需求。高度易用性和灵活性,充分降低了构建高性能人工智能系统的门槛,企业可以在hpe apollo 6 gen10构建的坚实基础架构上以最短的时间完成对各类算法的训练。
来源:网络
以上是网络信息转载,信息真实性自行斟酌。












)







