Claude Sonnet 4.6 が Amazon Bedrock で利用可能になりました

Claude Sonnet 4.6 が Amazon Bedrock で利用可能になりました

Anthropic最高性能の「Claude Sonnet 4.6」がAmazon Bedrockで提供開始。価格は旧モデルのまま、コーディング性能等が飛躍的に向上しました。本記事では、東京リージョンですぐに使えるJPプロファイルを用いたPython実装例や、長文脈を自動要約する新機能「Context Compaction」の仕様などを紹介します。
2026.02.18

2026年2月17日、Anthropic の最新モデル Claude Sonnet 4.6 が Amazon Bedrock で利用可能になりました。本記事では、主な特徴と Bedrock での利用方法、新機能「Context Compaction」の検証結果を紹介します。

https://www.aboutamazon.com/news/aws/anthropic-claude-4-opus-sonnet-amazon-bedrock?

Claude Sonnet 4.6 の主な特徴

  • Anthropic 最高の computer use モデル: OSWorld ベンチマークで歴代 Sonnet 最高スコアを記録
  • コーディング性能の大幅向上: SWE-bench Verified で 79.6%。Claude Code での早期テストでは Sonnet 4.5 より 70%、Opus 4.5 に対しても 59% の確率で好まれた
  • 1M トークンコンテキストウィンドウ(ベータ)
  • adaptive thinking / extended thinking 対応
  • プロンプトインジェクション耐性の大幅改善

ベンチマーク結果の詳細は Anthropic 公式発表 を参照してください。

Amazon Bedrock での利用方法

Inference Profile と モデル ID

Sonnet 4.6 は 推論プロファイル(Inference Profile)経由で利用します。従来のベースモデル ID を直接指定するのではなく、Cross-Region Inference 用のプロファイル ID を modelId に指定します。既存コードでベースモデル ID を使っている場合は置き換えが必要です。

また、Sonnet 4.6 から命名規則が変更され、日付・バージョン番号が省略されました。

# 従来(Sonnet 4.5)
anthropic.claude-sonnet-4-5-20250929-v1:0

# Sonnet 4.6
anthropic.claude-sonnet-4-6

以下のコマンドで利用可能なプロファイルを確認できました。

aws bedrock list-inference-profiles --region us-west-2
スコープ Inference Profile ID ルーティング先
US us.anthropic.claude-sonnet-4-6 us-east-1, us-east-2, us-west-2
JP jp.anthropic.claude-sonnet-4-6 ap-northeast-1, ap-northeast-3
Global global.anthropic.claude-sonnet-4-6 グローバル

東京リージョンでもリリース初日からサポートされていました。JP プロファイルは東京と大阪にルーティングされるため、国内リージョンに制限をかけているプロジェクトでも導入しやすい構成です。

IAM 権限

Inference Profile 経由の呼び出しでは、IAM ポリシーの Resource にプロファイルの ARN を指定します。従来のベースモデル ARN とは異なるため、既存ポリシーの確認が必要です。

{
    "Effect": "Allow",
    "Action": "bedrock:InvokeModel",
    "Resource": "arn:aws:bedrock:ap-northeast-1:*:inference-profile/jp.anthropic.claude-sonnet-4-6"
}

Python SDK サンプルコード

東京リージョンの JP プロファイルで動作を確認しました。

import boto3
import json

bedrock = boto3.client('bedrock-runtime', region_name='ap-northeast-1')

response = bedrock.invoke_model(
    modelId='jp.anthropic.claude-sonnet-4-6',
    body=json.dumps({
        "anthropic_version": "bedrock-2023-05-31",
        "max_tokens": 1024,
        "messages": [
            {"role": "user", "content": "こんにちは!あなたのモデル名とバージョンを教えてください。"}
        ]
    })
)

body = json.loads(response['body'].read())
print(body['content'][0]['text'])

「Context Compaction」(ベータ)を Bedrock で検証する

「Context Compaction」は、長い会話のコンテキストを自動要約し、実質的なコンテキスト長を拡張する機能です。Anthropic の API ドキュメントでは対応モデルとして Opus 4.6 のみが記載されていますが、Sonnet 4.6 の発表記事では対応と明記されています。Bedrock 上で実際に動作するか検証しました。

検証コード

約 58,000 トークン分のダミーテキストを送信し、閾値 50,000 トークンでコンパクションが発動するか確認しました。

import boto3
import json

bedrock = boto3.client('bedrock-runtime', region_name='us-west-2')

base_text = (
    'Amazon Bedrock is a fully managed service that offers a choice of '
    'high-performing foundation models from leading AI companies like '
    'Anthropic Meta Mistral AI and Amazon through a single API. '
    'It provides serverless experience so you can get started quickly '
    'privately customize foundation models with your own data and easily '
    'integrate and deploy them into your applications using AWS tools '
    'and capabilities. '
)

messages = [
    {"role": "user", "content": base_text * 800},
    {"role": "assistant", "content": "I see a large amount of text about Amazon Bedrock."},
    {"role": "user", "content": "Summarize our conversation."}
]

response = bedrock.invoke_model(
    modelId='us.anthropic.claude-sonnet-4-6',
    body=json.dumps({
        "anthropic_version": "bedrock-2023-05-31",
        "anthropic_beta": ["compact-2026-01-12"],
        "max_tokens": 4096,
        "messages": messages,
        "context_management": {
            "edits": [{
                "type": "compact_20260112",
                "trigger": {"type": "input_tokens", "value": 50000}
            }]
        }
    })
)

body = json.loads(response['body'].read())

for block in body['content']:
    print(f"type: {block['type']}")
    if block['type'] == 'compaction':
        print(f"summary: {block['content'][:200]}...")
    elif block['type'] == 'text':
        print(f"text: {block['text'][:200]}...")

print(f"\nusage.iterations: {json.dumps(body['usage']['iterations'], indent=2)}")

検証結果

Sonnet 4.6 でコンパクションの発動を確認できました。レスポンスの content 配列先頭に type: compaction ブロックが返され、会話の要約が自動生成されました。

usage.iterations の記録:

  1. compaction: 入力 58,601 トークン → 389 トークンの要約を生成
  2. message: 要約後 479 トークンのコンテキストから最終応答を生成

58,601 トークンが 479 トークンまで圧縮されており、意図通りに機能していました。コンパクションの要約生成は追加のトークン消費が発生するため、コスト計算では usage.iterations 全体を集計する必要があります。

料金

Sonnet 4.5 と同価格(入力 $3.00 / 出力 $15.00 per 1M トークン)で、価格据え置きのまま性能が大幅に向上しています。

コスト最適化のヒント:

  • adaptive thinking の effort 設定でコストと品質のバランスを調整可能
  • バッチ推論でオンデマンド価格から 50% 割引

まとめ

Claude Sonnet 4.6 は、東京リージョンでも即日利用可能です。既存のコードベースのモデル ID を Inference Profile(jp.anthropic.claude-sonnet-4-6)に差し替えるだけで、すぐに新しいモデルの恩恵を受けられます。

旧モデルと同価格でありながら、コーディング性能やエージェント機能が飛躍的に向上しており、コンパクション機能の実装も確認できました。同コストでこれだけの性能向上が見込めるため、現在 Sonnet 4.5 を利用しているシステムがあれば、積極的に検証・移行を進めることをおすすめします。

参考リンク

この記事をシェアする

FacebookHatena blogX

関連記事