次世代AI・HPC向けGPUとして注目される NVIDIA H100 NVL / H200 NVL / RTX PRO 6000 Server Edition の主要仕様を比較しました。 倍精度演算性能やメモリ帯域、CUDA/Tensorコア構成も含めた拡張情報を掲載しています。
| 項目 | H100 NVL | H200 NVL | RTX PRO 6000 Server |
|---|---|---|---|
| アーキテクチャ | Hopper | Hopper+ | Blackwell |
| CUDAコア数 | 約 14,592 | 約 14,592 | 約 18,176 |
| Tensorコア数 | 第4世代 Tensor コア | 第4世代 Tensor コア (拡張) | 第5世代 Tensor コア |
| RTコア数 | 非搭載 | 非搭載 | 第3世代 RT コア |
| GPUメモリ (VRAM) | 94 GB HBM3 |
141 GB HBM3 |
96 GB GDDR7 |
| メモリ帯域幅 | 約 3.35 TB/s |
約 4.8 TB/s |
約 1.6 TB/s |
| FP64性能 | 約 30 TFLOPS |
約 30 TFLOPS |
非公表 (推定 1.8 TFLOPS) |
| FP32性能 | 約 60 TFLOPS |
約 60 TFLOPS |
約 117 TFLOPS |
| FP8性能 (Dense / Sparse) |
約 2 / 4 PFLOPS |
約 2.5 / 5 PFLOPS |
推定 4〜5 / 8〜10 PFLOPS |
| FP4性能 (Dense / Sparse) |
― | ― | 約 3.7 / 7〜8 PFLOPS |
| TDP | 約 700 W | 約 1,000 W | 約 400–600 W |
| NVLink | 対応 | 対応 | 非対応 (PCIeのみ) |
| 用途 | 最適GPU | 理由 |
|---|---|---|
| AI学習(大規模LLM) | H200 NVL | 大容量HBM3と高帯域で巨大モデル処理に最適 |
| HPC・科学技術計算 | H100 / H200 NVL | 高FP64性能とNVLinkによるスケーラビリティ |
| AI推論・生成AI | RTX PRO 6000 Server | FP4対応と低消費電力で推論特化の高効率運用 |
HPCや科学技術計算分野では、数値精度が重要なためFP64(倍精度演算)の性能がシステム全体の性能に直結します。 H100/H200 NVLは約30TFLOPSのFP64性能を備え、研究開発・解析系の用途に適しています。 一方、RTX PRO 6000はワークステーションクラスのためFP64は限定的で、AI推論など精度要求の低い処理に特化しています。