[廃止] Amazon Elastic Inferenceがサービス終了していました
しばたです。
いつも通りAWS CLIの更新履歴を調べていたところ、先月末リリースのVer.2.24.11において「Amazon Elastic Inferenceのサービス終了にともないコマンドを削除する」旨の記述を見つけました。
- api-change:
elastic-inference
: The elastic-inference client has been removed following the deprecation of the service.
私は以前から各種AWSサービスの終了を調査しており「どうやらAmazon Elastic Inferenceが終了しているらしい。」という事自体は把握していたのですが、具体的な時期などが不明だったので改めて調査してみました。
Amazon Elastic Inference (EI)とは?
Amazon Elastic Inference(EI)は2018年のre:Inventで発表・リリースされたサービスで、EC2やSagemakerインスタンスに推論のためのGPUをアタッチすることができます。
- https://aws.amazon.com/machine-learning/elastic-inference/
- 現在はAmazon SageMakerにリダイレクト
Amazon Elastic Inferenceはいつサービス終了したのか?
本日時点で各種ドキュメントは削除済みですが、Internet Archiveに残っていた情報によれば2023年4月15日より新規利用を停止していました。
Starting April 15, 2023, AWS will not onboard new customers to Amazon Elastic Inference (EI), and will help current customers migrate their workloads to options that offer better price and performance. After April 15, 2023, new customers will not be able to launch instances with Amazon EI accelerators in Amazon SageMaker, Amazon ECS, or Amazon EC2. However, customers who have used Amazon EI at least once during the past 30-day period are considered current customers and will be able to continue using the service.
新規利用停止の理由はシンプルでより高性能でコストメリットのあるAWS Inferentiaを搭載したインスタンスが登場しGPUを別途アタッチするメリットが薄れたためです。
. In 2019, AWS launched AWS Inferentia, Amazon's first custom silicon designed to accelerate deep learning workloads by providing high performance inference in the cloud.
Amazon EC2 Inf1 instances based on AWS Inferentia chips deliver up 2.3x higher throughput and up to 70% lower cost per inference than comparable current generation GPU-based Amazon EC2 instances.
With the availability of new accelerated compute options such as AWS Inferentia and Amazon EC2 G5 instances, the benefit of attaching a fractional GPU to a CPU host instance using Amazon EI has diminished.
For example, customers hosting models on Amazon EI who move to ml.inf1.xlarge instances can get up to 56% in cost savings and 2x performance improvement.
その後のサービス終了の時期に関しては具体的に明記されたドキュメントや通知を見つけることができませんでした。
しかしながら、インターネット上の公開情報および社内に残された記録等を調べた限りでは2024年4月~2024年6月中旬に終了した様で、2024年10月末には完全に終了していました。
たとえばTerraform AWS ProviderのIssueでは2024年4月に終了している旨の記述がありました。
Elastic Inference has been deprecated on April, 2024.
このコメントを裏付ける公開情報を見つけることはできなかったのですが、Issueを投稿しているのがElastic InferenceやElastic Graphicsを開発していたAWS社員であることと、最近のAWSは新規利用停止から1年後にサービス終了するケースが多いので十分信頼できそうです。
加えて弊社社内の記録を調査した結果によると、2024年4月の時点でも一部利用可能な環境があった様で最終的に2024年6月中旬に終了する旨の記録がありました。
ただ、こちらはサービス全体の話ではなく特定環境に閉じた話である可能性があります。
こちらについて今から裏どりすることは不可能ですが、2024年4月に完全終了していなかった(できなかった?)ことだけは確かだと思います。
最後に2024年10月にリリースされたAWS CLI v2.18.4(およびBotocore 1.35.38)のCHENGELOGにEIが利用不可になった旨のドキュメント更新が含まれているのに加え、
- api-change:
elastic-inference
: Elastic Inference - Documentation update to add service shutdown notice.- api-change:
ecs
: This is a documentation only release that updates to documentation to let customers know that Amazon Elastic Inference is no longer available.
Note
Amazon Elastic Inference is no longer available.
- 2024年11月5日時点のbotocoreのドキュメントより (2024年9月時点ではこの記述は無かった)
AWS Machine Learning BlogにおけるEI関連の記事にも「Note: Amazon Elastic Inference is no longer available.」の注釈が増えたのが2024年10月25日[1]となっている点から2024年10月末にはサービスが完全終了していたと思われます。
ここまでの内容をまとめると、
- [確定] 2023年4月15日より新規利用を停止
- [予想] 2024年4月が予定されたサービス終了日である可能性が高い
- [予想] ただし2024年4月を超えても一部環境は生き残っており6月まで延長された可能性がある
- [確定] 2024年10月末にはサービスが完全終了している
と言えそうです。
余談 : APIエンドポイント自体はまだ存在していた
今回の様なサービス終了に伴うCLIやSDKの変更が入る場合はドキュメントだけでなくエンドポイントも消失していることが多かったのですが、現時点においてもまだエンドポイントは存在していました。
# APIエンドポイント自体はまだ生きていた
$ dig api.elastic-inference.ap-northeast-1.amazonaws.com +short
35.76.61.19
57.180.135.204
52.69.37.5
そして古いバージョンのAWS CLIを使って適当なコマンドを試してみると普通に動作してしまいました...
# 参照系のCLIコマンドがまだ使えてしまう...
$ aws elastic-inference describe-accelerator-types --region ap-northeast-1
{
"acceleratorTypes": [
{
"acceleratorTypeName": "eia1.medium",
"memoryInfo": {
"sizeInMiB": 1024
},
"throughputInfo": [
{
"key": "TFLOPS16bit",
"value": 8
},
{
"key": "TFLOPS32bit",
"value": 1
}
]
},
{
"acceleratorTypeName": "eia1.large",
"memoryInfo": {
"sizeInMiB": 2048
},
"throughputInfo": [
{
"key": "TFLOPS16bit",
"value": 16
},
{
"key": "TFLOPS32bit",
"value": 2
}
]
},
{
"acceleratorTypeName": "eia1.xlarge",
"memoryInfo": {
"sizeInMiB": 4096
},
"throughputInfo": [
{
"key": "TFLOPS16bit",
"value": 32
},
{
"key": "TFLOPS32bit",
"value": 4
}
]
},
{
"acceleratorTypeName": "eia2.medium",
"memoryInfo": {
"sizeInMiB": 2048
},
"throughputInfo": [
{
"key": "TFLOPS16bit",
"value": 8
},
{
"key": "TFLOPS32bit",
"value": 1
}
]
},
{
"acceleratorTypeName": "eia2.large",
"memoryInfo": {
"sizeInMiB": 4096
},
"throughputInfo": [
{
"key": "TFLOPS16bit",
"value": 16
},
{
"key": "TFLOPS32bit",
"value": 2
}
]
},
{
"acceleratorTypeName": "eia2.xlarge",
"memoryInfo": {
"sizeInMiB": 8192
},
"throughputInfo": [
{
"key": "TFLOPS16bit",
"value": 32
},
{
"key": "TFLOPS32bit",
"value": 4
}
]
}
]
}
$ aws elastic-inference describe-accelerator-offerings --location-type region --region ap-northeast-1
{
"acceleratorTypeOfferings": [
{
"acceleratorType": "eia1.medium",
"locationType": "region",
"location": "ap-northeast-1"
},
{
"acceleratorType": "eia1.large",
"locationType": "region",
"location": "ap-northeast-1"
},
{
"acceleratorType": "eia1.xlarge",
"locationType": "region",
"location": "ap-northeast-1"
},
{
"acceleratorType": "eia2.medium",
"locationType": "region",
"location": "ap-northeast-1"
},
{
"acceleratorType": "eia2.large",
"locationType": "region",
"location": "ap-northeast-1"
},
{
"acceleratorType": "eia2.xlarge",
"locationType": "region",
"location": "ap-northeast-1"
}
]
}
若干「Amazon Elastic Inference is no longer available.とは一体何だったのか?」という気持ちになりましたが、実際にEIのインスタンスが利用できるわけでは無いのであまり気にしない事にします。
最後に
以上となります。
もともと公開情報が少ないのに加え、既にほとんどのドキュメントも消失してしまっているため情報収集に非常に苦労しました。
残念ながら具体的なサービス終了日を断定することはできませんでしたが、現在Amazon Elastic Inferenceが終了済みであることは確かですのでこの点だけでも認識いただければと思います。
Internet Archiveの履歴および各記事の article:modified_time ヘッダの値から判断 ↩︎