Claude Opus 4.7 が Amazon Bedrock で利用可能になりました

Claude Opus 4.7 が Amazon Bedrock で利用可能になりました

Anthropicの最新フラッグシップモデル「Claude Opus 4.7」がAmazon Bedrockで提供開始。コーディング性能・ビジョン能力が大幅に向上しました。本記事では、主な特徴と東京リージョンでの利用方法、移行時の注意点を紹介します。
2026.04.17

Opus 4.6 のリリースからわずか 2 ヶ月。2026年4月16日、Anthropic の最新モデル Claude Opus 4.7 が Amazon Bedrock で利用可能になりました。コーディングベンチマーク(SWE-bench Pro)では GPT-5.4 や Gemini 3.1 Pro を抜いてトップに立ち、ビジョン能力も従来の 3 倍以上の解像度に対応するなど、実務に直結する強化が目立ちます。

https://www.anthropic.com/news/claude-opus-4-7

AWS 公式ブログ によると、Opus 4.7 は Bedrock の次世代推論エンジン上で動作し、動的なキャパシティ割り当てによる可用性向上と、ゼロオペレーターアクセス(プロンプト・レスポンスが AWS や Anthropic のオペレーターに一切見えない)によるデータプライバシーが確保されています。

Claude Opus 4.7 の主な特徴

Anthropic 公式発表 から主な特徴をまとめます。

  • コーディング性能の大幅向上: SWE-bench Pro で Opus 4.6 比 +10.9pt(64.3%)を記録。これまで GPT-5.4(57.7%)や Gemini 3.1 Pro(54.2%)がリードしていたエージェント型コーディングタスクで、Opus が初めてトップスコアを獲得
  • 高解像度画像サポート: 長辺最大 2,576px(約 3.75 メガピクセル)に対応し、従来の 3 倍以上。XBOW の視覚精度ベンチマークでは 54.5% → 98.5% と劇的に改善し、computer use の実用性が一段階上がった
  • Instruction following の厳密化: 以前のモデルが緩く解釈していた指示を文字通り忠実に実行。既存プロンプトの再調整が必要になる場合あり
  • 自己検証能力: 出力を報告する前に自ら検証方法を考案する新しい振る舞い
  • ファイルシステムベースのメモリ改善: マルチセッションの長時間作業で重要なメモを記憶し、次タスクの前提コンテキストを削減
  • 新 effort レベル xhigh: highmax の間に追加。Claude Code ではデフォルトが xhigh
  • サイバーセキュリティ safeguards: Project Glasswing に基づき、高リスクなサイバーセキュリティ用途を自動検出・ブロック。正当な用途には Cyber Verification Program を提供

安全性評価の詳細は Claude Opus 4.7 System Card を参照してください。

ベンチマーク結果

Anthropic 公式の発表にベンチマーク比較表が掲載されています。

https://x.com/i/status/2044785261393977612

詳細は Anthropic 公式発表 を参照してください。

Amazon Bedrock での利用方法

Inference Profile と モデル ID

Opus 4.7 は推論プロファイル(Inference Profile)経由で利用します。ベースモデル ID を直接指定するのではなく、Cross-Region Inference 用のプロファイル ID を modelId に指定します。

# ベースモデル ID
anthropic.claude-opus-4-7

# Inference Profile ID(JP)
jp.anthropic.claude-opus-4-7

以下のコマンドで利用可能なプロファイルを確認できます。

aws bedrock list-inference-profiles --region us-east-1 \
  --query "inferenceProfileSummaries[?contains(inferenceProfileId, 'opus-4-7')]"
スコープ Inference Profile ID ルーティング先
US us.anthropic.claude-opus-4-7 us-east-1, us-east-2, us-west-2
JP jp.anthropic.claude-opus-4-7 ap-northeast-1, ap-northeast-3
EU eu.anthropic.claude-opus-4-7 eu-west-1, eu-north-1
Global global.anthropic.claude-opus-4-7 グローバル

AWS 公式ブログでは、利用可能リージョンとして US East (N. Virginia)、Asia Pacific (Tokyo)、Europe (Ireland)、Europe (Stockholm) が挙げられています。東京リージョンでもリリース初日からサポートされており、JP プロファイルは東京と大阪にルーティングされるため、国内リージョンに制限をかけているプロジェクトでも導入しやすい構成です。

なお、Bedrock の新しい推論エンジンでは、アカウントあたりリージョンあたり最大 10,000 RPM が即時利用可能です。高需要時にはリクエストが拒否されるのではなくキューイングされる仕組みになっています。

IAM 権限

Inference Profile 経由の呼び出しでは、IAM ポリシーの Resource にプロファイルの ARN を指定します。

{
    "Effect": "Allow",
    "Action": "bedrock:InvokeModel",
    "Resource": "arn:aws:bedrock:ap-northeast-1:*:inference-profile/jp.anthropic.claude-opus-4-7"
}

Python SDK サンプルコード

東京リージョンの JP プロファイルで動作確認しました。

AWS 公式ブログでは anthropic[bedrock] パッケージの新しい AnthropicBedrockMantle クライアントが紹介されていますが、ここでは従来の boto3 を使った方法を示します。

import boto3
import json

bedrock = boto3.client('bedrock-runtime', region_name='ap-northeast-1')

response = bedrock.invoke_model(
    modelId='jp.anthropic.claude-opus-4-7',
    body=json.dumps({
        "anthropic_version": "bedrock-2023-05-31",
        "max_tokens": 1024,
        "messages": [
            {"role": "user", "content": "Amazon Bedrockとは何ですか?3行で説明してください。"}
        ]
    })
)

body = json.loads(response['body'].read())
print(body['content'][0]['text'])

レスポンス例:

Amazon Bedrockは、AWSが提供するフルマネージド型の生成AIサービスです。
Anthropic、Meta、Amazonなど複数の企業が開発した基盤モデル(FM)をAPI経由で簡単に利用できます。
インフラ管理不要で、チャットボットやコンテンツ生成などの生成AIアプリケーションを迅速に構築・デプロイできます。

model フィールドに claude-opus-4-7 が返却されていることを確認できました。

{
  "model": "claude-opus-4-7",
  "id": "msg_bdrk_32jak6mhltmczu3lsb7xqimwtbsb6sc7xx2rmhz7d42o7xugtusq",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Amazon Bedrockは、AWSが提供するフルマネージド型の生成AIサービスです。..."
    }
  ],
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 35,
    "output_tokens": 141,
    "service_tier": "standard"
  }
}

検証アカウントでの確認結果(参考情報)

検証アカウント(us-east-1)で確認できた情報を参考として共有します。

モデルカタログの有効化日時

get-foundation-model API で確認したところ、startOfLifeTime2026-04-16T14:30:00+00:00(日本時間 23:30)でした。

aws bedrock get-foundation-model --model-identifier anthropic.claude-opus-4-7 --region us-east-1
"modelLifecycle": {
    "status": "ACTIVE",
    "startOfLifeTime": "2026-04-16T14:30:00+00:00"
}

疎通確認

モデルカタログ有効化(14:30 UTC)から約 20 分後の 14:50〜14:55 UTC に初回の疎通を試みたところ、InternalServerException が返却され、CloudTrail にもエラーが記録されていました。有効化から約 35 分後の 15:05 UTC に JP プロファイル経由で正常なレスポンスを確認できました。モデルカタログに登録済みでも、初回利用時にはタイムラグの影響を受ける場合があるため、新しいモデルの利用時は事前に動作確認を試みることをおすすめします。

サービスクォータ(us-east-1 デフォルト値)

クォータ Opus 4.7 Opus 4.6 Opus 4.5
Cross-region tokens/min 15,000,000 3,000,000 2,000,000
Global cross-region tokens/min 15,000,000 3,000,000 2,000,000

Opus 4.6 比で トークン/分のデフォルトクォータが 5 倍 に引き上げられています。AWS 公式ブログで言及されている「新しい推論エンジンによるスケーリング改善」がクォータにも反映された形です。なお、東京リージョン(ap-northeast-1)には本記事執筆時点で Opus 4.7 固有のクォータはまだ登録されていませんでした。

Opus 4.6 からの移行時の注意点

Opus 4.7 は Opus 4.6 の直接的なアップグレードですが、以下の変更がトークン使用量やプロンプトの挙動に影響します。

変更点 内容 対策
トークナイザー更新 同じ入力で約 1.0〜1.35 倍のトークン数に 実トラフィックで計測
思考量の増加 高 effort レベルで出力トークンが増加 effort パラメータやタスクバジェットで制御
Instruction following の厳密化 指示を文字通りに解釈 プロンプトの再チューニング
高解像度画像 画像のトークン消費が増加 不要なら事前にダウンサンプル

移行の詳細は Anthropic 公式移行ガイド を参照してください。

料金

トークン単価は Opus 4.6 と同じです。

入力 (per 1M tokens) 出力 (per 1M tokens)
Opus 4.7 $5.00 $25.00
Opus 4.6 $5.00 $25.00
Sonnet 4.6 $3.00 $15.00

ただし、前述のトークナイザー変更により同じ入力でもトークン数が最大 1.35 倍に増える可能性があります。単価は据え置きでも、実質的なコストは最大 35% 増になりうる点に注意してください。既存の予算管理やしきい値アラートの見直しを推奨します。

コスト最適化の手段としては、effort 設定の調整(Hex 社のテストでは「low-effort の Opus 4.7 ≒ medium-effort の Opus 4.6」との報告あり)やバッチ推論(オンデマンド比 50% 割引)が有効です。

まとめ

Claude Opus 4.7 は、東京リージョンでも即日利用可能です。Inference Profile ID を jp.anthropic.claude-opus-4-7 に変更し、IAM ポリシーの Resource を更新すれば利用を開始できます。

コーディング性能ではついに GPT-5.4・Gemini 3.1 Pro を上回り、ビジョン能力も解像度 3 倍以上と実用性が大きく向上しています。一方で、トークナイザー変更による実質コスト増や instruction following の厳密化など、移行時に検証すべきポイントもあります。本番移行の前に、実トラフィックでのトークン消費量とプロンプトの挙動を必ず確認してください。

参考リンク

この記事をシェアする

関連記事