【速報】AWSの生成AIサービスであるAmazon Bedrock がリリースされたので朝イチで触ってみた

【速報】AWSの生成AIサービスであるAmazon Bedrock がリリースされたので朝イチで触ってみた

AWSにおける生成AIサービスであるAmazon Bedrockがリリースされました。生まれたばかりのAmazon Bedrockを実際に触って、どんな機能があるのか検証してみたいと思います。
Clock Icon2023.09.29

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

はじめに

おはようございます、おのやんです。

みなさん、Amazon Bedrockをご存知ですか?

Amazon Bedrockは、AWS内で使用可能な生成AIサービスです。私が朝5時に起床したタイミングでリリースされていました。

ということで、今回はいち早くAmazon Bedrockを触ってみたいと思います!

なお、機械学習に関しては門外漢であるため、技術的に不十分な説明になる可能性があります。またリリース直後の情報であるため、今後変更の可能性が十分にあります。そこはご了承くださいm(_ _)m

Amazon Bedrockとは?

こちらがAmazon Bedrockの公式ドキュメントです

Amazon Bedrock は、Amazon や主要な AI スタートアップ企業が提供する基盤モデル (FM) を API を通じて利用できるようにする完全マネージド型サービスです。そのため、さまざまな FM から選択して、ユースケースに最も適したモデルを見つけることができます。

生成AIの基盤モデル (FM)を、AWSから簡単に使えるよ、というのがBedrockの概要です。ついに生成AIに関するAWSサービスが登場しましたね〜

触ってみる

それでは実際に Amazon Bedrockを触ってみましょう。

2023年9月29日現在、AWS内でBedrockは東京リージョン(ap-northeast-1)では使えません。そのため、今回は米国東部(バージニア北部: us-east-1)のリージョンで触ってみます。

こちらが、米国東部リージョンでのAmazon Bedrock画面です。AWSサービスではよくみられる初期画面ですね。

左側のサイドバーを見てみると、多くの項目が確認できます。

  • Foundation models
    • Base models
    • Custom models
    • Providers
  • Playgrounds
    • Chat
    • Text
    • Image
  • Deployment
    • Provisioned throughput
  • Model access
  • Settings
  • User guide
  • Bedrock Service Terms

なお、Foundation models(基盤モデル - FM)は、最初はアクセス権を持っていないようです。選択できるモデルを全て選択してダウンロードしてみましょう。

こちらがBase models画面になります。生成AIの基盤モデルを使用して、生成AIアプリケーションの構築・拡張が可能とのことです。

こちらがCustom models画面です。先ほどの事前学習済み基盤モデルを拡張できるとのことです。

タブの方には、ModelsとTraining Jobsの項目が見られますね。ここで基盤モデルを選択して、追加で学習を回せるみたいですね。

こちらがModel providers画面です。5つのプロバイダが基盤モデルを提供するようです。

こちらがPlaygroundsのChat画面です。ここでモデルを選択していろいろお試しでききます。しっかり会話できてますね!

日本語も対応しています。精度はもうひと頑張り!といったところでしょうか。

Text playgroundも触れます。先ほどのモデルを、チャット形式とは別にテキスト形式でお試しできます。

日本語も対応していますね。

Imageのplaygroundも使用できます。なかなかの精度で画像を出力できました。

こちらがProvisioned throughputの画面です。

こちらは、AWSマネジメントコンソール上の説明を引用します。

プロビジョニングされたスループットは、モデルに割り当てられた所定の固定処理レートを提供する。この割り当てにより、ワークロードを処理するための一貫したレベルのパフォーマンスとキャパシティが保証されます。(DeepLにて翻訳)

こちらの画面で、モデルの実行環境に関するスペック設定が可能とのことです。オンデマンドでモデルを実行する場合には、リクエストは毎分60個、出力トークンは毎分10000個が限界のようです。これは、例えばアプリケーションに組み込んでモデルを利用する場合にはパフォーマンス低下につながる場合があります。これを超えるスペックを使用するには、お金で買ってね、ということですね。

オンデマンドの料金はこちらに記載があります。

こちらがprovisioned throughputの購入(purchase)画面になります。モデルを選択できるほか、モデルのユニット数や購入期間を選択することができるようです。

Settings画面では、モデルを実行した際のログ出力を有効化できます。他のAWSサービスと同様に、ログ出力先としてS3, CloudWatchLogs、または両方を選択できました。

こちらはしっかり設定できるようです!

さいごに

まだ産声を上げたばかりのAmazon Bedrock検証記事でした。

いよいよAWSの生成AIサービスを組み込んだアプリケーション開発・基盤構築が可能になりますね。非常にワクワクします!

では!

Share this article

facebook logohatena logotwitter logo

© Classmethod, Inc. All rights reserved.