"/> "/>
NVIDIA A100是首个采用弹性设计,且将培训、推理、HPC和分析融为一体的多示例GPU。使配备全新NVIDIA A100? Tensor Core GPU的第三代NVIDIA HGX?技术得以全面提升,同时还为公司品类多样的1U、2U、4U和10U GPU服务器产品组合提供全方位支持。
Supermicro公司表示:
“通过扩展行业领先的GPU系统和NVIDIA HGX-2系统技术产品组合,Supermicro将推出一个全新2U系统。此系统应用新款NVIDIA HGX? A100 4 GPU主板(之前的代码名称为Redstone)以及一个全新4U系统。
该系统基于新款具有5 PetaFLOPS AI性能水平的 NVIDIA HGX A100 8 GPU 主板(之前的代码名称为Delta)。
采用GPU加速的计算在革新,并将继续用于数据中心的转型,Supermicro由此将为客户带来具有前沿技术水平的系统进步。
帮助其实现各种计算规模的加速最大化,并同时对GPU应用进行优化。这些新系统将显著提升所有用于HPC、数据分析、深度学习和深度学习推理的加速工作负荷。”
作为HPC和AI应用的平衡数据平台,Supermicro全新2U系统搭载4个采用PCI-E 4.0的直连式NVIDIA A100 Tensor Core GPU,以实现性能最大化。
以及用于GPU到GPU互联的NVIDIA NVLink?技术,最高速度可达600GB每秒,从而提升了NVIDIA HGX A100 4 GPU主板性能。
这款设计先进的GPU系统,加速了计算、网络和存储性能,且支持单个PCI-E 4.0 x8;以及最多4个用于GPUDirect RDMA高速网卡和存储的PCI-E 4.0 x16扩展槽,例如可支持最大带宽200Gb每秒的InfiniBand? HDR?。
NVIDIA公司表示:
AI型号的复杂程度正呈现爆炸式增长趋势
“AI模型面临更高层次的挑战,如准确会话AI、深度推荐系统和个性化医疗等更高层面的技术难题。
Supermicro将NVIDIA HGX A100 平台用于其新款服务器,由此为客户带来强大的产品性能和可扩展性,从而研究人员可采用前所未有的速度为最复杂的Al网络进行培训。”
新款4U系统采用AI和机器学习应用优化,支持8个A100 Tensor Core GPU。采用8个GPU的4U规格,尤其适合需要随着其处理要求的提升而扩大其应用规模的客户。
还将搭载一块NVIDIA HGX A100 8 GPU主板,配备8个A100 GPU多对多连接至NVIDIA NVSwitch? ,实现 600GB 每秒的GPU到GPU最大带宽,以及8个用于 GPUDirect RDMA 高速网卡的扩展槽。
这款扩展平台尤其适合深度学习应用,数据中心可将其用于创建下一代AI,同时支持10个x16扩展槽,以最大化提升数据科研人员的生产效率。
通过配备新款NVIDIA A100 GPU,涵盖Supermicro品类众多的1U、2U、4U和10U多GPU服务器产品组合,其性能的显著提升,客户可拭目以待。
Supermicro全新推出的 A+GPU系统支持最多8个全高度双宽(或单宽)GPU,其中通过直插式PCI-E 4.0 x16连接CPU到GPU通道,无需采用任何PCI-E交换机,即能获得最低的时延性和最高的带宽,以实现最大化加速。
此系统还支持最多3个额外的高性能PCI-E 4.0扩展槽,用于多种用途,包括最高100G的高性能网络连接传输。附加的AIOM插槽支持 Supermicro AIOM卡或OCP 3.0夹层卡。
作为AI系统技术的领先者,Supermicro提供采用多GPU优化的散热设计,为AI、深度学习和HPC应用带来最高水准的性能和可靠性。
Supermicro采用1U、2U、4U和10U机架式GPU 系统;Utra、BigTwin?和支持嵌入式系统的GPU;以及用于我们8U SuperBlade? 的GPU Blade 模块,提供行业内最为全面、最具深度的各类GPU系统,以用于从边缘到云端的相关应用。
Supermicro计划将全新的EGX A100配置添加至其最先进的服务器产品组合,以最大化提升边缘安全性和超高性能水平。EGX A100集中式加速器结合了Mellanox SmartNIC,其中采用基于全新NVIDIA Ampere架构的GPU,使企业能够更为安全地运行边缘AI 。