GPU比較:H100 / H200 / RTX PRO 6000 Server Edition

次世代AI・HPC向けGPUとして注目される NVIDIA H100 NVL / H200 NVL / RTX PRO 6000 Server Edition の主要仕様を比較しました。 倍精度演算性能やメモリ帯域、CUDA/Tensorコア構成も含めた拡張情報を掲載しています。

1. 製品仕様比較(Dense / Sparse)

項目 H100 NVL H200 NVL RTX PRO 6000 Server
アーキテクチャ Hopper Hopper+ Blackwell
CUDAコア数 約 14,592 約 14,592 約 18,176
Tensorコア数 第4世代 Tensor コア 第4世代 Tensor コア (拡張) 第5世代 Tensor コア
RTコア数 非搭載 非搭載 第3世代 RT コア
GPUメモリ (VRAM) 94 GB
HBM3
141 GB
HBM3
96 GB
GDDR7
メモリ帯域幅 約 3.35
TB/s
約 4.8
TB/s
約 1.6
TB/s
FP64性能 約 30
TFLOPS
約 30
TFLOPS
非公表
(推定 1.8 TFLOPS)
FP32性能 約 60
TFLOPS
約 60
TFLOPS
約 117
TFLOPS
FP8性能
(Dense / Sparse)
約 2 / 4
PFLOPS
約 2.5 / 5
PFLOPS
推定 4〜5 / 8〜10
PFLOPS
FP4性能
(Dense / Sparse)
約 3.7 / 7〜8
PFLOPS
TDP 約 700 W 約 1,000 W 約 400–600 W
NVLink 対応 対応 非対応
(PCIeのみ)

2. 主な利用用途

3. 製品選定のヒント

用途 最適GPU 理由
AI学習(大規模LLM) H200 NVL 大容量HBM3と高帯域で巨大モデル処理に最適
HPC・科学技術計算 H100 / H200 NVL 高FP64性能とNVLinkによるスケーラビリティ
AI推論・生成AI RTX PRO 6000 Server FP4対応と低消費電力で推論特化の高効率運用

4. 倍精度演算(FP64)の重要性

HPCや科学技術計算分野では、数値精度が重要なためFP64(倍精度演算)の性能がシステム全体の性能に直結します。 H100/H200 NVLは約30TFLOPSのFP64性能を備え、研究開発・解析系の用途に適しています。 一方、RTX PRO 6000はワークステーションクラスのためFP64は限定的で、AI推論など精度要求の低い処理に特化しています。