新製品M6シリーズ

NF5488A5

AIトレーニングと推論のための4U8x A100 GPUサーバーかつAIワークロード用の多用途の8GPUサーバー

MLPerf 0.7のシングルサーバーパフォーマンスで第1位にランクされ、完全に相互接続された8つのNVLink 3.0 NVIDIA A100 TensorコアGPU、および4UスペースでPCIe4.0を可能にする2つのAMD®EPYC®Romeプロセッサをサポートし、NF5488A5は5ペタフロップスとウルトラの卓越したAIパフォーマンスを提供します-高いデータスループットにより、画像、ビデオ、音声処理、財務分析、仮想アシスタントなどのAIアプリケーションに最適です。

製品特徴

記録的なAIパフォーマンス

MLPerf v0.7ベンチマークで最高のシングルサーバーパフォーマンス。18のパフォーマンスレコードを設定し、ResNet50推論タスクで毎秒549,000の推論を達成します。

詳細:プレスリリースブログ投稿MLPerfv0.7の公式結果


極端なハードウェア設計

8x完全に相互接続されたNVLink3.0 NVIDIA A100 GPU、2x AMD EPYC Romeプロセッサが4UでPCIe4.0を実現し、5ペタフロップスと高いデータスループットを提供します。


AIトレーニングの加速

HBM2eで最新のA10080G GPUをサポートし、前モデルのメモリ容量を2倍にし、単一ノードでGPUメモリ帯域幅を30%増加させ、数百億のパラメーターを使用するAIモデルトレーニングタスクで15%のパフォーマンス向上を実現します。

InspurのNF5488A5の内部を覗いて、この4U 8x A100 GPU サーバーが、 AIトレーニングおよび推論アプリケーションに最先端の記録的な5ペタフロップスのパフォーマンスをどのように提供するかを確認してください。

Serve The HomeでNF5488A5に飛び込み、8x A100 GPUアセンブリ、最適化されたハードウェアデザイン、MLperfチャートトッピングパフォーマンスなどの機能の詳細を共有します。

 

仕様
モデル NF5488A5
GPU 1* HGX  A100 8GPU
プロセッサー 2* AMD® EPYC® Rome Processor (Up to 225W TDP)
パフォーマンス 5 petaFLOPS
メモリ 32* DDR4 2933MT/s RDIMMs//LRDIMM, up to 4 TB
ストレージ 8* 2.5” SAS/SATA (or 4*NVMe+4* SATA/SAS), 4* NVMe M.2, 2* SATA M.2
PCIe 4* built-in low profile PCIe x16
Front I/O 2* USB 3.0 port, 1* VGA port, 1* RJ45 management port
イーサネットカード 10G Ethernet Optical Interface
管理 Built-in Aspeed2500 BMC module, support IPMI, SOL, KVM Over IP, VM, etc.
RAID Support 3508 Raid Card (NVMe Raid with Raid Key)
OS Red Hat Enterprise 7.8 64bit, CentOS 7.8; Ubuntu 18.04
冷却 N+1 Redundant hot swap fans
PSU 3+1 Redundant PSUs
シャーシ 4U, 448mm W x 175.5mm H x 850mm D
動作環境 5℃~35℃ ※ただし、結露しないこと

 

関連商品一覧