![[速報]Google Cloud Next '25 2日目!Developer Keynote の AI エージェント構築のデモが凄かったのでレポートします](https://images.ctfassets.net/ct0aopd36mqt/mfvnpH15PsVPOaNIwYZ33/4e17c25441441bdd9f44672815983fd3/eyechatch_googlecloudnext25.png)
[速報]Google Cloud Next '25 2日目!Developer Keynote の AI エージェント構築のデモが凄かったのでレポートします
はじめに
2025/4/9-11 の 3日間の日程で Google Cloud Next '25 がラスベガスで開催されています!
2日目の Developer Keynote に参加してきましたので、早速現地よりレポートをお届けします。
Developer Keynote 前半は AI エージェント構築の一連のプロセスを新しく発表されたサービスやフレームワークを利用して、流れるようなデモを披露していました。各サービスの役割やユースケース、開発イメージが湧くような素晴らしく濃密なデモだったので、 セッション前半のデモ部分のみを抜粋してレポート したいと思います。
なお、セッションは以下動画で視聴可能です。
デモの流れ
Google Cloud の様々なサービスを活用し、どのようなユースケースでどういったサービスが利用できるか、以下の流れでデモを披露していました。
- Vertex AI Studio を利用し、AI エージェントに指示を与えるための詳細なプロンプトを作成
↓ - Vertex AI x Agent Development Kit(ADK) を利用し、AI エージェントを開発
↓ - ADK x Vertex AI Agent Engine を利用し、マルチエージェントシステムの開発とデプロイ
↓ - Google Agentspace でマルチエージェントシステムを実際にユーザが利用
↓ - コードにバグが発覚し、Gemini Cloud Assist を利用してデバッグと修正
1. Vertex AI Studio によるプロンプト作成デモ
- ロングコンテキストウインドウと双方向のマルチモーダル機能を提供する最新の Gemini 2.5 Pro を含む最新モデルを Google Cloud の Vertex AI Studio で試すことができる。
- Vertex AI Studio の UI が新しくなった。
- Gemini 試験運用版モデルをはじめ 3rd パーティーモデルを UI から選択できるように。
- モデルの上にマウスオーバーすると、モデルの推奨デバイス、得意とするユースケース、ナレッジカットオフ、レイテンシ、価格などの情報が確認できるように。
- グラウンディングに Google Maps が追加。
- 画像生成や画像編集機能をネイティブに搭載。
- Gemini を利用したアプリケーションを Vertex AI Studio で構築するデモ。(以下はデモの内容)
- キッチンのリノベーションの課題を解決するアイデアがほしい。
- リノベーションの計画をプロンプトで短い質問し、詳細な計画がレスポンスとして出力される。
- レスポンスの内容をコピーし、手書きの間取り図、キッチンの写真と合わせてプロンプトに入力。モデルは Gemini 2.5 Pro を利用。
- Gemini 2.5 Pro は思考モデルであり、長文の解析や出力に最適。
- 思考のプロセスは UI 上の Thinking Box から確認できる。 このケースではリノベーションを完結させるために必要なプロセスを全て思考する。
- Google 検索のグラウンディングにより、最深の材料コストや地域ごとの規制などの情報も収集し思考している。
- これらから得られたレスポンスの中から、キッチンのデザインに関わる詳細な出力をコピーして、今度は Gemini 2.0 Flash をモデルとして利用し、再度プロンプトに入力。
- 数秒で、現在のキッチンの写真を踏まえたリノベーション後のキッチンの画像が生成された。しかし、画像の中に照明も配置したい。
- 照明の配置を依頼すると、数秒で照明が追加された画像が生成された。
- Vertex AI Studio で構成したプロンプトを踏まえたアプリケーションは Vertex AI に容易にスケールアウトできる。
2. Vertex AI x ADK による AI エージェント開発デモ
- Vertex AI と ADK を利用して、建築基準法の確認や許可証の検索などのタスクを処理して請負業者を支援し最終的にPDF提案書を生成するエージェントを作成するデモ。
- Vertex AI は AI アプリケーションとエージェントの構築と管理、モデルのトレーニングやデプロイを行うプラットフォーム。
- ADK はエージェント開発のためのオープンソースフレームワークで Model Context Protocol(MCP) をサポート。Python SDK。
- Vertex AI の Gemini を利用して ADK でエージェントを構築するには Instruction, Tools, Model が必要。
- Instruction: エージェントのゴールを定義。
- Tools: 関数や API を呼び出しし、LLM を超えたアクションを実行。
- Model: LLM タスクを処理し、Tools の呼び出しを行う。
- ADK は MCP をサポートしており、RAG 用の Tools を容易に呼び出しできる。
- 以下はデモの内容。
- エージェントを定義する前に、Vertex AI の Gemini に接続する準備が必要。
.env
ファイルで Google Cloud プロジェクトの構成を行うか、API キーを設定する。 - ADK を利用したエージェントのコードを書いていく。
- instruction に今回のタスクのゴールを自然言語で定義。このケースでは顧客のリクエストを受け取り、PDF提案書を作成することに重点を置いている。
- tools を指定する。ここでは、PDFを作成する関数や、地域の建築基準に関するプライベートデータにアクセスして RAG を実行する関数を指定。
- tools で呼び出すそれぞれの関数が何を実行するのかを LLM が判断できるよう、何を実行する関数なのかを docstrings に自然言語で説明を記載。これにより LLM は関数が何を実行するか、いつ呼び出すかを認識できる。
- RAG を実行する関数は外部データソースにアクセスする必要がある。ここでは、オープンソースにコントリビュートされた Google データベース用 MCP ツールボックスの MCP サーバを利用。
- model に Vertex AI の AI モデルを指定する。ここでは Gemini 2.5 Pro を指定。 ADK はモデルに依存しないため、Llama や Claude などのモデルも使用できる。
- 実際にエージェントを実行する。ADK には ローカル開発用の Dev UI が付属しており、マルチモーダル入力に対応する。ここで、先ほどのキッチンのデモで生成した要件と見取り図をプロンプトに入力する。なお、 Dev UI は 2025年後半には Gemini Code Assist 及びサポートされている IDE に統合される予定。
- 最終的に PDF 提案書が生成された。
- エージェントを定義する前に、Vertex AI の Gemini に接続する準備が必要。
※なお、ADK を実際に試してみたブログもありますのでご覧ください。
3. Vertex AI Agent Engine によるマルチエージェントシステム構築デモ
- Agent Engine は エージェントのビルドとデプロイを容易にする。エンタープライズレベルのセキュリティ、コントロール、監視、ログ記録を提供。評価や品質のフレームワークも提供される。
- クライアントへの建設提案エージェント(Proposal)は前のデモで作成済。これに、許可/コンプライアンス用エージェント(Permits)、資材の発注/配送用エージェント(Ordering)の2つを追加するデモ。(以下はデモの内容)
- いずれのエージェントも Gemini と ADK で構築。
- これらのエージェントがシームレスに連携する必要がある。
- まずは root エージェントを作成する。root エージェントは目標に応じて1つ以上のサブエージェントを呼び出す。
- root エージェントにも interaction を設定するが、マルチエージェントシステムでは、すべてのサブエージェントに対してどのように使用されるかを自然言語で定義し、すべてのサブエージェントにルーティングできるようにする必要がある。
- 3つのエージェントをサブエージェントとして定義する。
- エージェントの開発ができたら、ADK から Vertex AI Agent Engine に直接デプロイできる。
4. Google Agentspace によるマルチエージェントシステム利用デモ
- Google Agentspace は会社全体のエージェントのインタフェース機能を提供。
- ユーザは Google Agentspace を介してエージェントを利用、自然言語でノーコードエージェントを構築したり、ADK で開発したエージェントを登録できる。
- 開発者が登録したエージェントは社内で共有。
- 開発したエージェントを Cloud Marketplace で他企業に共有することもできる。
- 3rd パーティーのモデルとエージェントをサポート。
- デプロイしたマルチエージェントシステムは Google Agentspace で利用できる。 ここでは実際にユーザが利用するデモを行う。(以下はデモの内容)
- Agentspace の UI の左側ペインからデプロイしたエージェントを選択。
- 前回のデモで生成した PDF 提案書をアップロードし、建設許可をプロンプトに指示。
- マルチエージェントシステムは適切なサブエージェントにルーティングし、許可のチェックリストが作成される。
- 次に注文の状況をプロンプトに質問。ここでエージェントのコードにバグがあることが発覚。次のデモへ。
5. Gemini Cloud Assist を利用したデバッグデモ
- 前回のデモでエージェントのコードにバグが発覚。デバッグのデモを行う。(以下はデモの内容)
- Cloud Logging のエラーログを検索し、「Investigate」ボタンをクリックし、Create Investigation を実行。これは Gemini Cloud Assist の Cloud Investigations という新しい機能。インフラやコードの問題の診断に役立てられる。
- 生成されたレポートから複数の observations が確認でき、その中から POST SQLクエリがコード上に存在しないことが特定。
- レポートからコードに直接移動できる。Gemini による修正の推奨も確認可能。
- Cloud Run の UI に移動し、ソースコードの横並びビューから間違っているコードを確認、直接修正が可能。そのまま保存して再デプロイ。
おわりに
AI エージェントの一連の構築サイクルを、登壇者たちのキャッチーでわかりやすいデモで魅せてくれました。
本記事では一生懸命デモの内容を文字で起こしてみたものの、やはり魅力は伝わりづらいと感じています。。
しかし、発表のあったサービスはいずれも容易に導入できるものになっているかと思いますので、できれば皆様にも触っていただきサービスの魅力を感じていただけたら幸いです。
Google Cloud Next に現地参加する弊社メンバーも引き続きセッションに参加して情報収集し、これらのサービスを触ってどんどん発信して参ります。