[2026年4月29日号]個人的に気になったModern Data Stack情報まとめ
さがらです。
Modern Data Stack関連のコンサルタントをしている私ですが、Modern Data Stack界隈は日々多くの情報が発信されております。
そんな多くの情報が発信されている中、この2週間ほどの間で私が気になったModern Data Stack関連の情報を本記事でまとめてみます。
※注意事項:記述している製品のすべての最新情報を網羅しているわけではありません。私の独断と偏見で気になった情報のみ記載しております。
Data Warehouse/Data Lakehouse
Snowflake
Cortex AI GuardrailsがGA
Cortex AIのガードレール機能が一般提供(GA)となりました。LLMを活用した処理において、出力内容の安全性を担保するための機能です。
Adaptive Warehouseがパブリックプレビュー
ウェアハウスのサイズ・マルチクラスタ設定・サスペンド/レジューム操作などの手動管理を不要にするAdaptive Warehouseがパブリックプレビューで利用可能となりました(現時点では特定のAWSリージョンのみ)。
- 自動スケーリング:クエリに応じてコンピュートのサイズと数を自動調整
- 既存ウェアハウスからの移行:ダウンタイムなしで変換可能
従来のウェアハウス管理ではサイズの調整がワークロードごとに必要でしたが、このAdaptive Warehouseにより運用コストの削減につながりそうです。
私も試してブログを書いていますので、ぜひ併せてご覧ください。
BigQuery
Google Cloud Next '26が開催、「Agentic Data Cloud」を発表
2026年4月22〜25日(現地時間)にラスベガスで開催されたGoogle Cloud Next '26にて、GoogleがデータプラットフォームをAIネイティブアーキテクチャへ刷新する「Agentic Data Cloud」を発表しました。
主な発表内容は以下の通りです。
- Knowledge Catalog(旧Dataplex Universal Catalog):Palantir・Salesforce・SAP・ServiceNow等の外部ソースからのコンテキストを統合するユニバーサルコンテキストエンジン
- Data Agent Kit:Data Engineering AgentとData Science AgentがGA、Database Observability AgentとConversational Analytics(BigQuery・Cloud SQL・Looker等対応)がプレビュー
- Apache Iceberg REST Catalog双方向フェデレーション(プレビュー)
- MCP対応:BigQuery・Spanner・AlloyDB・Cloud SQL・LookerがMCP対応。IAMポリシー・VPC Service Controlsによるセキュリティ管理
弊社でもイベントのレポートブログなど書いていますので、ぜひご覧ください。
データ関連サービスが一斉にリブランド
Google Cloud Next '26に合わせて、Google CloudのBigQuery周辺サービスが一斉にリブランドされました。
- Dataplex Universal Catalog → Knowledge Catalog
- BigLake → Google Cloud Lakehouse
- Dataproc → Managed Service for Apache Spark
- Composer → Managed Service for Apache Airflow
- Looker Studio → データポータル ※グローバルでは「Data Studio」、日本のみ商標の関係で「データポータル」
BigQuery GraphをAIエージェントのコンテキストエンジンとして活用する方法が公開
BigQuery GraphをAIデータエージェントのコンテキストエンジンとして活用する記事が公開されました。
顧客・製品・ブランドをノードに、購入・閲覧・供給関係をエッジとして定義することで、LLMが複数テーブルにまたがる複雑なJOINを自動生成する際のハルシネーション率を低減できると解説しています。テーブル作成→プロパティグラフ定義→BigQueryエージェント設定→マルチホップクエリテストの実装ステップも紹介されており、実践的な参考になります。
Databricks
Lakeflow Designerがパブリックプレビュー
Databricksがビジュアルなコードなしのデータパイプライン設計ツール「Lakeflow Designer」のパブリックプレビューを発表しました。
コードを書かずにパイプラインを設計・運用できる機能として、データエンジニアリングへの参入障壁を下げることが期待されます。
弊社でもブログを書いています。
MotherDuck / DuckLake
DuckLake 1.0がMotherDuckで利用可能に
MotherDuckがオープンソースのLakehouseフォーマット「DuckLake 1.0」のMotherDuck対応を発表しました。
DuckLakeはIcebergやDelta Lakeと異なり、メタデータ管理をDuckDBやPostgreSQLのデータベースで担うオープンテーブルフォーマットの1種です。今後のエコシステムの広がりが楽しみです!
MotherDuck Agent Skillsを公開
AIエージェント向けのオープンソーススキルカタログ「MotherDuck Skills」が公開されました。スキーマ探索・DuckDB SQL・REST APIを活用するAIエージェント向けのスキルセットで、GitHub上でオープンに提供されています。
MCP対応のデータスタックが広がる中で、OSS側からもAIエージェントとの統合を進める動きが加速しています。
Data Transform
dbt
データエージェントベンチマーク「ADE bench」を公開
dbt Labsがdbtプロジェクトとデータベース環境を組み合わせた実践的なAIエージェントベンチマーク「ADE bench」をOSSとして公開しました。
コードの品質だけでなく、「ビジネスコンテキストの理解」を評価対象とし、バグ修正・モデル更新・リファクタリングなど複数タスクで多面的にエージェントを評価する設計のようです。
Business Intelligence
Omni
シリーズC $120Mの資金調達を発表(評価額$1.5B)
OmniがシリーズCとして$120Mの資金調達を行い、評価額$1.5Bとなったことを発表しました。Omniはまだ創業4年ですので、かなり勢いを感じます!
Omni Slack Agentを発表
Slack上でOmniのデータを直接クエリ・分析できる「Omni Slack Agent」が発表されました。ビジネスユーザーがSlackを離れずにデータドリブンな意思決定ができるようになります。
実際に私も試してブログにしています、セットアップも非常に簡単でした!
Omni CLIを発表
コマンドラインからOmniの操作・自動化が可能になる「Omni CLI」が正式発表されました。CI/CDパイプラインへの組み込みやAIエージェントを用いた自動化フローでの活用が期待できます。
Looker
VS Code拡張機能がプレビュー
LookerのVS Code拡張機能がプレビュー提供となりました。Looker 26.6以上が前提で、ローカルデスクトップ環境でのLookML開発、LookerインスタンスとのファイルのBidirectional同期、構文ハイライトなどが利用できます。
Sigma Computing
「Ask Sigma」が「Sigma Assistant」にリブランド、MCP Serverも導入
2026年4月17日のChangelogで、Sigmaの自然言語クエリ機能「Ask Sigma」が「Sigma Assistant」にリブランドされました。
また同日のアップデートで、Sigma MCP Serverが導入され、AIエージェントからSigmaを操作するための標準インターフェースが提供されています。あわせてデータモデルへのAIコンテキスト追加機能(Beta)も提供開始されました。
Hex
Context Suggestionsを発表
2026年4月23日のChangelogで、HexのReview Agentがスレッドのインタラクションを分析してコンテキスト不足箇所を自動検出・提案する「Context Suggestions」機能がリリースされました。Hex CLIとも統合されており、既存のメタデータ管理ワークフローへの組み込みが可能です。
AIエージェントが「コンテキストが足りない」と感じるポイントをチームに可視化してフィードバックしてくれる機能は、エージェントの品質向上サイクルを回す上で実践的な価値があります。
Data Quality・Data Observability
Soda
Soda Cleanseを発表
Sodaがデータ品質の検出から修復までを自動化する新機能「Soda Cleanse」を発表しました。
- AI駆動の修復提案:失敗したレコードを検出し、エンティティ正規化・データ補完・重複排除・調整照合の4つのアプローチで修正を提案
- ガバナンス重視の設計:修復前にデータスチュワードの承認が必須
- 完全な監査証跡:すべての判断と変更履歴をシステムに保存
- データはユーザー環境内で処理:外部に送出しない設計
「データ品質の検出」から「修復の実行」まで一気通貫で対応しようとする方向性が興味深いです。承認フローを必須とすることでガバナンスとのバランスを取っている点も好感が持てます。





