[速報] 機械学習のトレーニングに最適化されたAWS Traniumチップを搭載したEC2 Trn1インスタンスが発表されました! #reinvent
AWS re:Invent 2021のAWS CEO Adam Selipsky さんのキーノートで、機械学習のトレーニングに最適化されたAWS Traniumチップを搭載したEC2 Trn1インスタンスが発表されました!
Trn1インスタンスは、自然言語処理、物体検出、画像認識、レコメンデーションエンジン、インテリジェント検索など、様々な機械学習モデルのトレーニングに対してベストなコストパフォーマンスを提供します。主な特徴は以下のとおりです。
- 最大で16のAWS Traniumアクセラレータをサポート
- 最大800GbpsのEFAネットワーキングスループット(GPUインスタンスの2倍の帯域幅)
- 従来のEC2 UltraClustersよりも2.5倍の規模の新しいEC2 UltraClustersへデプロイされる
ざっくりいうと、機械学習のトレーニングに最適化されたスパコンをオンデマンドで利用できるようになる、ということだと思います。
AWS Traniumアクセラレータとは、AWS Inferentiaに続き、Amazonが開発した2つめのカスタム機械学習チップです。Inferentiaが機械学習の推論ワークロードに最適化されたチップなのに対し、Traniumはその名前から推測できるように、機械学習のトレーニングワークロードに最適化されたチップです。
こちらの記事のように、Inf1インスタンスを使いこなすと、機械学習の推論ワークロードのコストパフォーマンスがGPUインスタンスよりもグッと良くなりますので、Trn1インスタンスでもこれと同様に、機械学習のトレーニングのコスパがGPUよりも良くなることが期待できそうです。
プレビューのリクエスト
2021年12月1日現在、Trn1はまだアーリーアクセス段階です。いち早く試したい方はプレビュー申請をしましょう!
AWS Trainiumでは、AWS Inferentia と同じように AWS Neuron SDKを使用するそうです。Traniumを使用できるようになるまで、まずはInferentiaを使用してみてNeuron SDKに慣れておくとよいかもしれません。