[アップデート] Meta の Llama 4 が Amazon Bedrock のサーバレスモデルで利用可能になりました
こんにちは!クラウド事業本部コンサルティング部のたかくに(@takakuni_)です。
Meta の Llama 4 が Amazon Bedrock のサーバレスモデルで利用可能になりました。
発表に合わせ、AWS や Amazon から Blog も公開されています。
つい先日、SageMaker JumpStart 経由で実行可能になったアップデートがありましたが、Amazon Bedrock でも利用可能になりましたね。
Llama 4
Llama 4 は Meta 社が開発したマルチモーダルな LLM です。アーキテクチャに Mixture-of-Experts が採用され、以下の種類があります。
- Llama 4 Scout
- Llama 4 Maverick
- Llama 4 Behemoth
今回、Amazon Bedrock でサポートしたのは Llama 4 Scout と Llama 4 Maverick です。
Llama 4 Scout
Llama 4 Scout は、16 のエキスパート、170 億個のアクティブパラメータ、合計 1090 億個のパラメータを備えた汎用的なマルチモーダルモデルです。
Meta 社側のブログでは、 NVIDIA の H100 GPU 1枚に乗り切るほど、軽量なモデルとして紹介されています。
Llama 4 Scout, a 17 billion active parameter model with 16 experts, is the best multimodal model in the world in its class and is more powerful than all previous generation Llama models, while fitting in a single NVIDIA H100 GPU. Additionally, Llama 4 Scout offers an industry-leading context window of 10M and delivers better results than Gemma 3, Gemini 2.0 Flash-Lite, and Mistral 3.1 across a broad range of widely reported benchmarks.
The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation
入力コンテキストウィンドウは最大 1000 万トークンまで実現可能です。
一方、Amazon Bedrock では、執筆時点で 350万トークンのコンテキストウィンドウをサポートしており、将来的に拡張が予定されています。
Amazon Bedrock currently supports a 3.5 million token context window for Llama 4 Scout, with plans to expand in the near future.
Llama 4 models from Meta now available in Amazon Bedrock serverless
Llama 4 Maverick
対して、Llama 4 Maverick は 128 のエキスパート、170 億のアクティブパラメータ、合計 4000 億のパラメータを備えたネイティブマルチモーダルモデルです。画像とテキストの理解に優れており、多用途のアシスタントやチャットアプリケーションに最適と紹介されています。コンテキストウィンドウは 100 万トークンまでサポートしています。
言語
Amazon Bedrock のページから対応言語を見てみましょう。
日本語はサポートしていないようでした。また、画像に関しては英語のみサポートしているようです。
- テキスト
- 英語
- フランス語
- ドイツ語
- ヒンディー語
- イタリア語
- ポルトガル語
- スペイン語
- タイ語
- アラビア語
- インドネシア語
- タガログ語
- ベトナム語
- 画像
- 英語
English, French, German, Hindi, Italian, Portuguese, Spanish, Thai, Arabic, Indonesian, Tagalog, and Vietnamese; [image] English only
Amazon Bedrock との統合
続いて、 Amazon Bedrock との統合に触れていきます。
リージョンはバージニア北部、オハイオ、オレゴンから推論プロファイル経由でクロスリージョン推論を行うタイプでサポートされています。
モダリティはテキスト、画像を受け取り、テキストまたはチャット形式での変換でした。
Supported models and model features を見ると、執筆時点では Llama 4 の存在が確認できませんでした。
AWS Blog では Converse API で実装されているため、Converse API および Invoke API はサポートされていそうです。
The Llama 4 models can be easily integrated into your applications using the Amazon Bedrock Converse API, which provides a unified interface for conversational AI interactions.
Llama 4 models from Meta now available in Amazon Bedrock serverless | AWS News Blog
機能別
Model support by feature から、Amazon Bedrock Agents、 Application inference profiles 以外との統合は未サポートのようでした。
コスト
最後にコストです。オンデマンドで次の価格帯でした。
比較用に Llama 3.1, 3.2 を載せてみましたが、H100 1 枚であっても出力トークンは Llama 3.2 Instruct (11B) より少し高い結果でした。
オレゴンリージョン
モデル名 | 1,000 入力トークン | 1,000 出力トークン |
---|---|---|
Llama 4 Maverick 17B | $0.00024 | $0.00097 |
Llama 4 Scout 17B | $0.00017 | $0.00066 |
Llama 3.2 Instruct (11B) | $0.00016 | $0.00016 |
Llama 3.2 Instruct (90B) | $0.00072 | $0.00072 |
Llama 3.3 Instruct (70B) | $0.00072 | $0.00072 |
やってみる
それでは Llama 4 をマネジメントコンソール上で動かしてみます。まずは、モデルの有効化から行います。
Chat から少しだけ会話してみました。短い文章なので大差があるわけではないですが、<|eot_id|>
が文末に出てきており、Meta さを感じますね。
まとめ
以上、「Meta の Llama 4 が Amazon Bedrock のサーバレスモデルで利用可能になりました。」でした。
Amazon Bedrock へのモデル反映が、ここ最近で加速してきており非常に体験が良いですね。
クラウド事業本部コンサルティング部のたかくに(@takakuni_)でした!