[アップデート] NVIDIA B200 Tensor Core GPU を搭載した Amazon EC2 P6-B200 インスタンスの一般提供が開始されました
はじめに
2025 年 5 月 15 日、NVIDIA B200 Tensor Core GPU を搭載した Amazon EC2 P6-B200 インスタンスの一般提供開始を発表しました。P6-B200 インスタンスは、特に AI トレーニングと推論ワークロードに向けの最新の GPU インスタンスです。
3行まとめ
- NVIDIA B200 GPU を 8 基搭載した Amazon EC2 P6-B200 インスタンスが一般提供開始
- 現在は米国西部(オレゴン)リージョンの EC2 Capacity Blocks for ML でのみ利用可能
- 前世代の P5en インスタンスと比較して生成 AI のトレーニングと推論で最大 2 倍のパフォーマンスを提供
インスタンスタイプ名に GPU の名称が加わった
NVIDIA B200 Tensor Core GPU を搭載した GPU インスタンスで、インスタンスタイプ名に
GPU 名が表記されるようになりました。今回はp6-b200.48xlarge
という表記になります。
前世代のP5
ファミリーまでは一般的な命名規則でした。それ故に同じファミリー内で搭載する GPU の違いはe
を付与することで違いを表していたのですが、ぱっと見では違いがわかりませんでした。
p5
は H100 Tensor Core GPU を搭載p5en
は H200 Tnsor Core GPU を搭載(パワーアップ版)
今回からはインスタンスタイプ名に大胆にも GPU の名前が入り、見分けがつきやすくなりました。それだけなんの GPU を搭載しているのかが重要視されているのでしょうね。
P6-B200 インスタンスのスペック
2024 年末に一般提供開始された P5en インスタンスは NVIDIA H200 Tensor Core GPU を搭載していました。
今回の P6-B200 インスタンスは後継世代の NVIDIA Blackwell アーキテクチャを採用した NVIDIA B200 Tensor Core GPU を搭載しています。生成 AI 向けに力をいれた Blackwell アーキテクチャですので、大規模言語モデル(LLM)のトレーニング、リアルタイム推論ワークロードなどのユースケースに向いています。
基本スペック
項目 | 仕様 |
---|---|
インスタンスサイズ | p6-b200.48xlarge 1種類のみ |
GPU | 8 基の NVIDIA B200 Tensor Core GPU |
GPU メモリ | 1,440 GB の高帯域幅 HBM3e |
CPU | 第 5 世代 Intel Xeon プロセッサ(Emerald Rapids) |
vCPU 数 | 192 |
メモリ | 2 TiB |
インスタンスストア | 30 TB の NVMe SSD (8 x 3.84 TB) |
ネットワーク帯域幅 | 8 x 400 Gbps |
EBS帯域幅 | 100 Gbps |
GPU間接続 | 1800 GB/s の NVLink |
EC2 UltraClusters | サポート |
Amazon EC2 UltraClusters とは
Amazon EC2 UltraClusters は、ML/AI や高性能コンピューティング向けに設計された、数千の高性能 GPU を集約したクラスター環境です。P5en、P5e、P5、P4d、Trn2、Trn1 などのインスタンスが含まれ、P6-B200 もこの環境でサポートされます。
- 特定のアベイラビリティーゾーンに共同配置された数千の GPU インスタンス
- Elastic Fabric Adapter (EFA) による高速な EC2 間の相互接続
- FSx for Lustre へ低レイテンシーかつ高スループット接続を提供
P6-B200 インスタンスは UltraClusters 内でデプロイされ、第 4 世代 EFA (EFAv4) による 3.2 TB/s のネットワーク性能を提供します。これにより複数台 GPU インスタンスでの大規模な AI/ML トレーニングや推論を効率的に実行できます。
料金と利用条件
現在、P6-B200 インスタンスは p6-b200.48xlarge サイズの一種類のみで EC2 Capacity Blocks for ML を通じて提供されています。
オンデマンド起動、スポットインスタンス起動はサポートしていないため、利用には予約が必要です。この提供方式は以前の p5e.48xlarge と同じですす。後に追加された p5en.48xlarge ではオンデマンド起動も可能でした。
オレゴンリージョンでのEC2インスタンスタイプ一覧
提供リージョンは現時点ではオレゴンのみです。※ 日本リージョン(東京・大阪)での提供開始は未定です。
料金確認
利用費は時価のため、現時点の価格を確認してみました。
予約価格確認時、サービスクォータによる制限が表示されました。
サービスクォータを確認すると、P6 の Capacity Blocks の項目が見つかりませんでした。この項目が追加され許可されるまで、私のアカウントでは予約価格の確認もできない状況でした。
オンデマンド起動の確認
オンデマンド起動の可否を確認したところ、インスタンスタイプの選択は可能ですが、
キャパシティブロックの予約を促すエラーメッセージが表示されました。
AWS の ML / HPC サービスの対応状況
Amazon SageMaker HyperPod
生成 AI のトレーニングと推論向きの特化サービスである HyperPod は、P6-B200 を近日中にサポート予定です。
HyperPodは、EC2 Capacity Blocks for ML ではなく、Flexible Training Plans から予約する形式になります。提供形式は異なりますが、バックエンドでは同様の EC2 Capacity Blocks for ML が使用されると考えられますので対応を待ちましょう。
AWS ParallelCluster
ParallelCluster は EC2 Capacity Blocks for ML をサポートしているため、コンピュートノードで P6-B200 の利用が可能です。
AWS Batch
AWS Batch も EC2 Capacity Blocks for ML をサポートしているため、コンピュートノードで P6-B200 の利用が可能です。
まとめ
NVIDIA B200 Tensor Core GPU を搭載した P6-B200 インスタンスの一般提供開始されました。P5en と比較して最大 2 倍のパフォーマンスを期待できるため、特に生成 AI ワークロードを向けにオススメしたい GPU インスタンスです。
現時点では EC2 Capacity Blocks for ML を通じた予約利用のみで、オレゴンリージョン限定という制約がありますが、今後のリージョン拡大に期待しましょう。
おわりに
ParallelCluster で動作確認しようと計画していたのですが、EC2 Capacity Blocks for ML で予約必須だっため、起動することすら予算的な問題もありできませんでした。
参考までに P5en.48xlarge の価格です。検証のためにあえて数時間しか起動できない予約枠を買っても$199 するため GPU はなかなか良い金額がします。
参考
- Amazon EC2 P6-B200 instances powered by NVIDIA B200 GPUs now generally available
- Amazon EC2 P6 instances
- NVIDIA H200 Tensor Core GPU を搭載した EC2 インスタンスが東京リージョンに初登場 P5en インスタンス一般提供開始されました
- GPUが搭載されたEC2インスタンスのスペックと利用可能なAZを整理してみた | DevelopersIO
- 生成AIのパフォーマンスが大幅アップ!? NVIDIA B200の性能|GPUならNTTPC|NVIDIAエリートパートナー