新しい GPU インスタンス G7e インスタンスが一般提供されたので GPU を確認してみた

新しい GPU インスタンス G7e インスタンスが一般提供されたので GPU を確認してみた

2026.01.28

はじめに

2026 年 1 月 20 日、Amazon EC2 G7e インスタンスが一般提供(GA)されました。GPU は NVIDIA RTX PRO 6000 Blackwell Server Edition を搭載しています。

https://aws.amazon.com/jp/blogs/news/announcing-amazon-ec2-g7e-instances-accelerated-by-nvidia-rtx-pro-6000-blackwell-server-edition-gpus/

NVIDIA RTX PRO 6000 Blackwell Server Edition とは

NVIDIA Blackwell アーキテクチャの GPU ですので、生成 AI 向けのワークロードに強い GPU となっています。気になる GPU 1台あたりのメモリは 96GB です。 単一 GPU で最大 70B パラメーターの中規模モデルを FP8 精度で実行可能とのことです。1 つの目安になるのではないでしょうか。

https://www.nvidia.com/ja-jp/data-center/rtx-pro-6000-blackwell-server-edition/

同じアーキテクチャですと、Nvidia GB300 や、B300 の仲間です。2026 年 1 月時点のフラグシップモデルの GB300 は、AWS からも利用可能です。

https://dev.classmethod.jp/articles/amazon-ec2-p6e-gb300-ultraservers-nvidia-gb300-nvl72-generally-available/

G7e インスタンスとしての特徴

単一インスタンス内の GPU 間の通信と、複数の GPU インスタンス間の通信の強化が今回のポイントです。

GPU メモリ

GPU 1 台で 96GB の GPU メモリです。一世代前の Hopper アーキテクチャのハイエンド GPU を搭載した P5(H100)、P5e(H200)があります。直接的な性能比較は難しいですが、GPU のメモリ搭載量の勝負なら、H100 < RTX PRO 6000 < H200 となりました。

マルチ GPU 対応

G7e インスタンスは PCIe 経由の NVIDIA GPUDirect P2P をサポートしています。マルチ GPU ワークロードのレイテンシーが低減されます。一番大きな g7e.48xlarge では GPU を 8 台搭載しており、GPU メモリは 768 GB を持った単一のインスタンスとして起動可能です。

マルチノードでの GPU を使う場合

さらにEFA 経由の NVIDIA GPUDirect RDMA をサポートしています。複数ノードワークロードの GPU 間通信のレイテンシーを低減されます。

インスタンスサイズと主要スペック

G7e インスタンスは 6 つのサイズが用意されています。最近の GPU インスタンスはインスタンスストアのサイズがかなり大きいですよね。

インスタンス名 GPU 数 GPU メモリ vCPU メモリ インスタンスストア EBS 帯域幅 ネットワーク
g7e.2xlarge 1 96 GB 8 64 GiB 1.9 TB 最大 5 Gbps 50 Gbps
g7e.4xlarge 1 96 GB 16 128 GiB 1.9 TB 8 Gbps 50 Gbps
g7e.8xlarge 1 96 GB 32 256 GiB 1.9 TB 16 Gbps 100 Gbps
g7e.12xlarge 2 192 GB 48 512 GiB 3.8 TB 25 Gbps 400 Gbps
g7e.24xlarge 4 384 GB 96 1,024 GiB 7.6 TB 50 Gbps 800 Gbps
g7e.48xlarge 8 768 GB 192 2,048 GiB 15.2 TB 100 Gbps 1,600 Gbps

利用可能リージョンと購入オプション

GA 時点では G7e インスタンスは以下の条件で利用可能です。

項目 内容
利用可能リージョン 米国東部(バージニア北部)、米国東部(オハイオ)
購入オプション オンデマンド、Savings Plan、スポット、ハードウェア専有インスタンス、専有ホスト

Capacity Blocks for ML には対応していません。数カ月の利用予定があり、キャパシティの予約と、割引を効かせたいとなると選択肢がありません。P 系のインスタンスから選定してください。

割引だけならスポット利用と言いたいのですが、昨今の GPU 需要ですとスポット起動がまず難しいはずです。

確認してみた

G7e インスタンスを起動してスペックを実際に確認してみます。

検証環境

以下の環境で G7e インスタンスを起動しました。

項目
リージョン us-east-1
インスタンスタイプ g7e.2xlarge
AMI Deep Learning OSS Nvidia Driver AMI GPU PyTorch 2.9 (Ubuntu 24.04) 20251217
AMI ID ami-0000f0cf91a6ed38c

GPU 情報の確認

nvidia-smi コマンドで GPU 情報を確認しました。見切れていますが、NVIDIA RTX PRO 6000 Blackwell Server Edition が認識されています。GPU メモリは 97887 MiB(約 96 GB)です。

$ nvidia-smi
Mon Jan 26 08:10:19 2026
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 580.105.08             Driver Version: 580.105.08     CUDA Version: 13.0     |
+-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA RTX PRO 6000 Blac...    On  |   00000000:2B:00.0 Off |                    0 |
| N/A   27C    P8             28W /  600W |       0MiB /  97887MiB |      0%      Default |
|                                         |                        |             Disabled |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|  No running processes found                                                             |
+-----------------------------------------------------------------------------------------+

詳細情報

nvidia-smi -q コマンドで詳細情報を確認しました。主要な情報を抜粋します。公開されているスペック通りでした。

Product Name                          : NVIDIA RTX PRO 6000 Blackwell Server Edition
Product Brand                         : NVIDIA
Product Architecture                  : Blackwell

Driver Version                        : 580.105.08
CUDA Version                          : 13.0

FB Memory Usage
    Total                             : 97887 MiB
    Reserved                          : 637 MiB
    Used                              : 0 MiB
    Free                              : 97251 MiB

ECC Mode
    Current                           : Enabled
    Pending                           : Enabled

PCI
    PCIe Generation
        Max                           : 5
        Current                       : 1

GPU Power Readings
    Current Power Limit               : 600.00 W
    Default Power Limit               : 600.00 W
    Max Power Limit                   : 600.00 W

CPU 情報の確認

Intel Emerald Rapids プロセッサが搭載とスペックに書いてあったので一応確認しておきます。cat /proc/cpuinfo コマンドで CPU 情報を確認しました。主要な情報を抜粋します。

processor       : 0
vendor_id       : GenuineIntel
model name      : Intel(R) Xeon(R) Platinum 8559C
cpu MHz         : 3705.290
cache size      : 327680 KB
siblings        : 8
cpu cores       : 4
flags           : ... avx512f avx512dq ... avx512_bf16 ... amx_bf16 avx512_fp16 amx_tile amx_int8 ...

CPU の主要スペックをまとめます。

項目
CPU 名 Intel Xeon Platinum 8559C(Emerald Rapids)
vCPU 数 8(4 コア × 2 スレッド)
キャッシュサイズ 327680 KB
対応命令セット AVX-512、AMX

GPU での計算処理が主でしょうけど、CPU は AVX-512 や AMX(Advanced Matrix Extensions)に対応しています。

まとめ

EC2 G7e インスタンスを起動して GPU と CPU の情報を確認しました。

G7e インスタンスは Blackwell アーキテクチャの NVIDIA RTX PRO 6000 GPU を搭載しています。単一インスタンス内でのマルチ GPU のレイテンシ低減、複数の GPU インスタンス間でもレイテンシ低減をする技術をサポートしています。

おわりに

現在はバージニアと、オハイオリージョンのみの提供です。GPU 難ですので今後のリージョン拡大に期待しましょう。

この記事をシェアする

FacebookHatena blogX

関連記事