新しい GPU インスタンス G7e インスタンスが一般提供されたので GPU を確認してみた
はじめに
2026 年 1 月 20 日、Amazon EC2 G7e インスタンスが一般提供(GA)されました。GPU は NVIDIA RTX PRO 6000 Blackwell Server Edition を搭載しています。
NVIDIA RTX PRO 6000 Blackwell Server Edition とは
NVIDIA Blackwell アーキテクチャの GPU ですので、生成 AI 向けのワークロードに強い GPU となっています。気になる GPU 1台あたりのメモリは 96GB です。 単一 GPU で最大 70B パラメーターの中規模モデルを FP8 精度で実行可能とのことです。1 つの目安になるのではないでしょうか。
同じアーキテクチャですと、Nvidia GB300 や、B300 の仲間です。2026 年 1 月時点のフラグシップモデルの GB300 は、AWS からも利用可能です。
G7e インスタンスとしての特徴
単一インスタンス内の GPU 間の通信と、複数の GPU インスタンス間の通信の強化が今回のポイントです。
GPU メモリ
GPU 1 台で 96GB の GPU メモリです。一世代前の Hopper アーキテクチャのハイエンド GPU を搭載した P5(H100)、P5e(H200)があります。直接的な性能比較は難しいですが、GPU のメモリ搭載量の勝負なら、H100 < RTX PRO 6000 < H200 となりました。
マルチ GPU 対応
G7e インスタンスは PCIe 経由の NVIDIA GPUDirect P2P をサポートしています。マルチ GPU ワークロードのレイテンシーが低減されます。一番大きな g7e.48xlarge では GPU を 8 台搭載しており、GPU メモリは 768 GB を持った単一のインスタンスとして起動可能です。
マルチノードでの GPU を使う場合
さらにEFA 経由の NVIDIA GPUDirect RDMA をサポートしています。複数ノードワークロードの GPU 間通信のレイテンシーを低減されます。
インスタンスサイズと主要スペック
G7e インスタンスは 6 つのサイズが用意されています。最近の GPU インスタンスはインスタンスストアのサイズがかなり大きいですよね。
| インスタンス名 | GPU 数 | GPU メモリ | vCPU | メモリ | インスタンスストア | EBS 帯域幅 | ネットワーク |
|---|---|---|---|---|---|---|---|
| g7e.2xlarge | 1 | 96 GB | 8 | 64 GiB | 1.9 TB | 最大 5 Gbps | 50 Gbps |
| g7e.4xlarge | 1 | 96 GB | 16 | 128 GiB | 1.9 TB | 8 Gbps | 50 Gbps |
| g7e.8xlarge | 1 | 96 GB | 32 | 256 GiB | 1.9 TB | 16 Gbps | 100 Gbps |
| g7e.12xlarge | 2 | 192 GB | 48 | 512 GiB | 3.8 TB | 25 Gbps | 400 Gbps |
| g7e.24xlarge | 4 | 384 GB | 96 | 1,024 GiB | 7.6 TB | 50 Gbps | 800 Gbps |
| g7e.48xlarge | 8 | 768 GB | 192 | 2,048 GiB | 15.2 TB | 100 Gbps | 1,600 Gbps |
利用可能リージョンと購入オプション
GA 時点では G7e インスタンスは以下の条件で利用可能です。
| 項目 | 内容 |
|---|---|
| 利用可能リージョン | 米国東部(バージニア北部)、米国東部(オハイオ) |
| 購入オプション | オンデマンド、Savings Plan、スポット、ハードウェア専有インスタンス、専有ホスト |
Capacity Blocks for ML には対応していません。数カ月の利用予定があり、キャパシティの予約と、割引を効かせたいとなると選択肢がありません。P 系のインスタンスから選定してください。
割引だけならスポット利用と言いたいのですが、昨今の GPU 需要ですとスポット起動がまず難しいはずです。
確認してみた
G7e インスタンスを起動してスペックを実際に確認してみます。
検証環境
以下の環境で G7e インスタンスを起動しました。
| 項目 | 値 |
|---|---|
| リージョン | us-east-1 |
| インスタンスタイプ | g7e.2xlarge |
| AMI | Deep Learning OSS Nvidia Driver AMI GPU PyTorch 2.9 (Ubuntu 24.04) 20251217 |
| AMI ID | ami-0000f0cf91a6ed38c |
GPU 情報の確認
nvidia-smi コマンドで GPU 情報を確認しました。見切れていますが、NVIDIA RTX PRO 6000 Blackwell Server Edition が認識されています。GPU メモリは 97887 MiB(約 96 GB)です。
$ nvidia-smi
Mon Jan 26 08:10:19 2026
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 580.105.08 Driver Version: 580.105.08 CUDA Version: 13.0 |
+-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA RTX PRO 6000 Blac... On | 00000000:2B:00.0 Off | 0 |
| N/A 27C P8 28W / 600W | 0MiB / 97887MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| No running processes found |
+-----------------------------------------------------------------------------------------+
詳細情報
nvidia-smi -q コマンドで詳細情報を確認しました。主要な情報を抜粋します。公開されているスペック通りでした。
Product Name : NVIDIA RTX PRO 6000 Blackwell Server Edition
Product Brand : NVIDIA
Product Architecture : Blackwell
Driver Version : 580.105.08
CUDA Version : 13.0
FB Memory Usage
Total : 97887 MiB
Reserved : 637 MiB
Used : 0 MiB
Free : 97251 MiB
ECC Mode
Current : Enabled
Pending : Enabled
PCI
PCIe Generation
Max : 5
Current : 1
GPU Power Readings
Current Power Limit : 600.00 W
Default Power Limit : 600.00 W
Max Power Limit : 600.00 W
CPU 情報の確認
Intel Emerald Rapids プロセッサが搭載とスペックに書いてあったので一応確認しておきます。cat /proc/cpuinfo コマンドで CPU 情報を確認しました。主要な情報を抜粋します。
processor : 0
vendor_id : GenuineIntel
model name : Intel(R) Xeon(R) Platinum 8559C
cpu MHz : 3705.290
cache size : 327680 KB
siblings : 8
cpu cores : 4
flags : ... avx512f avx512dq ... avx512_bf16 ... amx_bf16 avx512_fp16 amx_tile amx_int8 ...
CPU の主要スペックをまとめます。
| 項目 | 値 |
|---|---|
| CPU 名 | Intel Xeon Platinum 8559C(Emerald Rapids) |
| vCPU 数 | 8(4 コア × 2 スレッド) |
| キャッシュサイズ | 327680 KB |
| 対応命令セット | AVX-512、AMX |
GPU での計算処理が主でしょうけど、CPU は AVX-512 や AMX(Advanced Matrix Extensions)に対応しています。
まとめ
EC2 G7e インスタンスを起動して GPU と CPU の情報を確認しました。
G7e インスタンスは Blackwell アーキテクチャの NVIDIA RTX PRO 6000 GPU を搭載しています。単一インスタンス内でのマルチ GPU のレイテンシ低減、複数の GPU インスタンス間でもレイテンシ低減をする技術をサポートしています。
おわりに
現在はバージニアと、オハイオリージョンのみの提供です。GPU 難ですので今後のリージョン拡大に期待しましょう。








