NF5488A5
AIトレーニングと推論のための4U8x A100 GPUサーバーかつAIワークロード用の多用途の8GPUサーバー
MLPerf 0.7のシングルサーバーパフォーマンスで第1位にランクされ、完全に相互接続された8つのNVLink 3.0 NVIDIA A100 TensorコアGPU、および4UスペースでPCIe4.0を可能にする2つのAMD®EPYC®Romeプロセッサをサポートし、NF5488A5は5ペタフロップスとウルトラの卓越したAIパフォーマンスを提供します-高いデータスループットにより、画像、ビデオ、音声処理、財務分析、仮想アシスタントなどのAIアプリケーションに最適です。
製品特徴 |
記録的なAIパフォーマンスMLPerf v0.7ベンチマークで最高のシングルサーバーパフォーマンス。18のパフォーマンスレコードを設定し、ResNet50推論タスクで毎秒549,000の推論を達成します。 詳細:プレスリリース| ブログ投稿| MLPerfv0.7の公式結果 |
|
|
|
極端なハードウェア設計8x完全に相互接続されたNVLink3.0 NVIDIA A100 GPU、2x AMD EPYC Romeプロセッサが4UでPCIe4.0を実現し、5ペタフロップスと高いデータスループットを提供します。 |
|
|
|
AIトレーニングの加速HBM2eで最新のA10080G GPUをサポートし、前モデルのメモリ容量を2倍にし、単一ノードでGPUメモリ帯域幅を30%増加させ、数百億のパラメーターを使用するAIモデルトレーニングタスクで15%のパフォーマンス向上を実現します。 |
InspurのNF5488A5の内部を覗いて、この4U 8x A100 GPU サーバーが、 AIトレーニングおよび推論アプリケーションに最先端の記録的な5ペタフロップスのパフォーマンスをどのように提供するかを確認してください。
Serve The HomeでNF5488A5に飛び込み、8x A100 GPUアセンブリ、最適化されたハードウェアデザイン、MLperfチャートトッピングパフォーマンスなどの機能の詳細を共有します。
仕様 |
モデル | NF5488A5 |
GPU | 1* HGX A100 8GPU |
プロセッサー | 2* AMD® EPYC® Rome Processor (Up to 225W TDP) |
パフォーマンス | 5 petaFLOPS |
メモリ | 32* DDR4 2933MT/s RDIMMs//LRDIMM, up to 4 TB |
ストレージ | 8* 2.5” SAS/SATA (or 4*NVMe+4* SATA/SAS), 4* NVMe M.2, 2* SATA M.2 |
PCIe | 4* built-in low profile PCIe x16 |
Front I/O | 2* USB 3.0 port, 1* VGA port, 1* RJ45 management port |
イーサネットカード | 10G Ethernet Optical Interface |
管理 | Built-in Aspeed2500 BMC module, support IPMI, SOL, KVM Over IP, VM, etc. |
RAID | Support 3508 Raid Card (NVMe Raid with Raid Key) |
OS | Red Hat Enterprise 7.8 64bit, CentOS 7.8; Ubuntu 18.04 |
冷却 | N+1 Redundant hot swap fans |
PSU | 3+1 Redundant PSUs |
シャーシ | 4U, 448mm W x 175.5mm H x 850mm D |
動作環境 | 5℃~35℃ ※ただし、結露しないこと |