[2026年4月1日号]個人的に気になったModern Data Stack情報まとめ

[2026年4月1日号]個人的に気になったModern Data Stack情報まとめ

2026.04.01

さがらです。

Modern Data Stack関連のコンサルタントをしている私ですが、Modern Data Stack界隈は日々多くの情報が発信されております。

そんな多くの情報が発信されている中、この2週間ほどの間で私が気になったModern Data Stack関連の情報を本記事でまとめてみます。

※注意事項:記述している製品のすべての最新情報を網羅しているわけではありません。私の独断と偏見で気になった情報のみ記載しております。

Modern Data Stack全般

Future Casting the Modern Data Stack

2026年3月23日に、MotherDuck社のJordan Tigani氏がAI時代におけるMDSの将来像を論じた記事を公開しました。

記事ではまず、どれだけ技術が進んでも変わらない4つの原則を整理しています。「データの目的は洞察を届けること」「データは常に変化し続けること」「組織固有の文脈情報(ARRの計算方法やテーブル同士の結合ルールなど)はLLMが推論できないため、明示的に与える必要があること」「分析には依然として計算コストがかかること」の4点です。

そのうえで、AI時代に大きな変化を起こす推進力として「あらゆるものの構築コストがゼロに近づくこと」「LLMの波は津波のように避けられないこと」「ツールが増えすぎた顧客が統合を求めていること」「LLMが学習し改善し続けるフィードバックループの力」を挙げています。

MDS各レイヤーへの影響も具体的に予測しています。

  • ETL/オーケストレーションでは、AI Agentがスキーマ変更を検知して自動対応するようになるとしています。
  • BI領域では、LLMがカスタムビジュアライゼーションを自在に生成できるため「既存のBIツールは今の形のままでは生き残れない」と明言、セマンティックモデルを文脈として活用できるツールだけが生き残ると予測しています。
  • DWHについては、インフラ領域なのでAI適応が最も難しいものの、Icebergなどのオープンフォーマットへのシフトにより特定ベンダーへの依存度は下がるとしています。
  • セマンティックレイヤーについては、MetricFlowやLookMLのような専用の構造化言語よりも、自然言語で書かれたドキュメントのほうがLLMにとっては扱いやすいため、文脈の記述方法が変わっていくと述べています。

データエンジニアの役割も大きく変わると述べています。SQLを書く仕事から「データの変化を管理し、複数のAI Agentを調整する」役割へシフトし、AI生成コードの正しさを検証するevals(ユニットテストのような検証評価)を設計するスキルが重要になるとしています。

さらに、著者は実際にClaude+MCPサーバーを使って実験し、過去のチャット履歴からメトリクス定義のドキュメントを自動生成できたと報告しています。このフィードバックループが回ることで、LLMが出す次のクエリがより正確になり、人手を介さず文脈が自然に育っていくと論じています。

https://motherduck.com/blog/future-casting-the-modern-data-stack/

AI Is Here, But The Hard Parts Haven't Changed

2026年3月28日に、Joe Reis氏が194名のデータ専門家を対象とした「March 2026 Practical Data Pulse Survey」の結果を公開しました。

まずAIツールの利用状況ですが、回答者194名中193名(99.5%)がAIツールを使用しており、もはや「AIを使うかどうか」は議論の対象ではなくなっています。ツール別のシェアではClaudeが49%で圧倒的な1位。GitHub Copilot(16%)、ChatGPT(15%)、Gemini等(12%)、Cursor(7%)と続いています。コード作成のスピードについては57%が「大幅に速くなった」と回答していますが、著者は「コードを速く書けることと、本番環境で実際に価値を生むことは別の話だ」と釘を刺しています。

特に注目したいのが「2027年に向けた優先事項」の調査結果です。データモデリング・セマンティックレイヤーが49%で最も高い優先度となりました。著者は「AI時代にデータモデリングは不要」という一部の主張に強く反対しています。AIはルールやパターンは理解できても、「自社の『売上』はどのテーブルのどのカラムで、どういう条件で集計するのか」といった組織固有のビジネス概念とデータの紐付けは、まだAIだけでは実現できない領域だと指摘しています。裏付けとなるデータも示されており、正規化されたモデルやセマンティックモデルをきちんと整備している組織では、障害対応に追われる割合が19%に留まるのに対し、場当たり的にモデリングを行っている組織では38%と約2倍に達しています。

また、組織が抱えるボトルネックとして「レガシーシステムや技術的負債」(25%)、「リーダーシップの方向性が定まらない」(21%)、「要件が不明確・上流工程の課題」(19%)が挙げられています。いずれもツールではなく人や組織の問題であり、「AI has changed everything except the hard parts(AIは全てを変えたが、難しい部分は変わっていない)」という記事タイトルのメッセージが改めて印象に残ります。

https://joereis.substack.com/p/ai-is-here-but-the-hard-parts-havent

PinterestがMCPエコシステムの本番運用事例を公開

2026年3月19日に、PinterestのエンジニアリングブログにてMCPエコシステムの構築事例が公開されました。

Pinterestでは、MCPを実験的に導入するフェーズを経て、現在は本番環境で動作する複数のMCPサーバーを運用しています。Presto向け(エージェントがダッシュボードを切り替えることなく直接データを取得)、Spark向け(ジョブ失敗の診断とログ分析)、Airflow向けなど、用途別に特化したサーバーを中央レジストリで一元管理し、IDE・チャットツール・AIエージェントから利用できる体制を構築しています。

成果としては、月間66,000回のAPI呼び出し、844人の月間アクティブユーザー、推定月間7,000時間の時間短縮を達成しています。

エンタープライズ規模でMCPを運用する際に避けて通れないのが認証・認可の設計ですが、Pinterestでは2層認証(エンドユーザーのJWTトークン+サービスメッシュのアイデンティティ)とビジネスグループベースのアクセス制御を組み合わせて対応しています。MCPの活用を社内に広げる際の、認証設計の具体的な参考事例になると思います。

https://medium.com/pinterest-engineering/building-an-mcp-ecosystem-at-pinterest-d881eb4c16f1

デジタル庁がダッシュボードデザイン実践ガイドブックを公開

2026年3月31日に、デジタル庁が「ダッシュボードデザイン実践ガイドブック」を公開しました。行政・公共機関の職員から民間事業者まで、データ活用を推進したい方を対象に、意思決定を促すためのダッシュボード設計のDo's/Dont'sをまとめたガイドブックと、Power BI用のデザインテンプレートで構成されています。

Japan Dashboardや政策データダッシュボードの開発経験、行政職員・民間有識者の意見を統合して作成されたとのことです。日本の行政機関からこうしたデータ可視化のガイドラインをオープンに公開してもらえるのは、とてもありがたいですね…!

https://www.digital.go.jp/resources/dashboard-guidebook

Data Extract/Load

Fivetran

データ領域に関するベンチマークレポートを公開

2026年3月26日に、Fivetranが500人以上のデータ技術に関わるリーダーへの調査に基づくベンチマークレポートを公開しました。

レポートによると、企業はデータプログラムに年間平均2,930万ドルを費やしており、そのうちの220万ドルがパイプラインの維持管理に充てられています。エンジニアリング時間の53%がメンテナンスに費やされ、レガシーやDIYのパイプラインは管理型と比べて30〜47%も高い頻度で障害が発生しているとのことです。ダウンタイム1時間あたりのビジネス影響は約49,600ドルと試算されています。

https://www.fivetran.com/blog/the-enterprise-data-infrastructure-benchmark-report-2026

https://cdn.prod.website-files.com/6130fa1501794ed4d11867ba/69c4157cc54caf5ae0441aea_2026-enterprise-data-ifrastructure-benchmark-report.pdf

Omnata

Google Sheetsプラグインがマルチファイル同期に対応

2026年3月25日に、OmnataのGoogle Sheetsプラグインがマルチファイル同期に対応しました。これまでは1つのGoogle Sheetを個別にSnowflakeテーブルへ同期する形でしたが、今回のアップデートでGoogle Driveフォルダを指定し、ファイル名パターンにマッチするすべてのシートを一括で取り込めるようになりました。

Snowflakeマーケットプレイスから利用でき、プラグイン自体は無料(かかるのはウェアハウスのコンピュート料金のみ)です。

https://omnata.com/blog-detail/mutli-file-syncs-for-google-sheets

Data Warehouse/Data Lakehouse

Snowflake

ビジネスユーザー向けのAIクライアントアプリケーション「Project SnowWork」を発表

2026年3月18日に、SnowflakeがProject SnowWorkをResearch Previewとして発表しました。ビジネスユーザー向けのAIクライアントアプリケーションとなります。

例えば「取締役会向けの予測レポートを作って」「解約リスクのある顧客を洗い出して」「サプライチェーンのボトルネックを調べて」といったプロンプトを投げると、必要なデータの取得からレポートの生成まで、複雑なマルチステップのワークフローをエンドツーエンドで自律的に実行します。

Finance、Sales、Marketing、Operationsなど、ビジネスロールごとに事前構成されたAIペルソナが用意されており、各ロールに適したワークフロー・用語・KPIを理解した上でタスクを実行する設計です。汎用的なAIエージェントとは異なり、ガバナンスされたメトリクスや共有ビジネス定義、セキュリティ・監査の仕組みがSnowflakeのデータ基盤の上に組み込まれている点が特徴です。

https://www.snowflake.com/en/news/press-releases/snowflake-launches-project-snowwork-bringing-outcome-driven-ai-to-every-business-user/

https://www.snowflake.com/en/blog/agentic-enterprise-control-plane/

SnowflakeネイティブのIaC機能「DCM Projects」がプレビュー

2026年3月20日に、SnowflakeネイティブのInfrastructure as Code機能であるDCM Projects(Database Change Management Projects)がプレビューとして提供されました。

DCM Projectsでは、DEFINE文を使ってSnowflakeオブジェクト(データベース、スキーマ、テーブル、Dynamic Table、ロールなど)の望ましい状態をSQLファイルで宣言的に定義します。Jinja2テンプレートを使えば、DEV/STG/PRODといった環境ごとにパラメータを切り替えることが可能です。変更を反映する際はPlan(変更内容のプレビュー)→Deploy(実行)という安全なワークフローが用意されています。

管理インターフェースとしてSnowsight UI、Snowflake CLI、SQL、Cortex Code CLIに対応しており、定義ファイルはSnowflake Workspaces、リモートGitリポジトリ、ローカルディレクトリに保存できます。

https://docs.snowflake.com/en/release-notes/2026/other/2026-03-20-dcm-projects

私も試してみました。1つのDCM project folderで複数のターゲットを定義し、同一アカウント内にDEV/PROD環境を構築する手順をブログにまとめています。

https://dev.classmethod.jp/articles/snowflake-dcm-projects-preview/

図表を含むPDFとテーブルの横断的な分析が可能に

3月5日に、AI_COMPLETE関数でステージ上のPDFファイルを直接クエリできるようになった機能が追加されています。

https://docs.snowflake.com/en/release-notes/2026/other/2026-03-05-ai-complete-document-intelligence

この機能を使うことで、テキスト抽出の前処理なしに、図表を含むPDFをLLMに直接渡してテーブルデータと横断的に分析できるようになりました。私も試してみましたので、よろしければご覧ください。

https://dev.classmethod.jp/articles/snowflake-multi-modal-analytics-with-cortex-agent/

ClickHouse

ClickHouseが「Data Lake Ready」を宣言

2026年3月25日に、ClickHouseがIcebergおよびDelta Lake形式のデータを直接クエリできる機能を打ち出し、「Data Lake Ready」を宣言しました。

カタログとしてAWS Glue、Unity Catalog、REST Catalog、Polarisに対応しており、S3・GCS・Azure Blob Storage上のデータを移動せずにそのままクエリできます。クエリ結果をIcebergやDelta Lakeの形式で書き戻す機能も備えています。2年間の開発を経てParquetファイル処理を最適化した結果、ClickBenchで平均1.8倍の読み取り高速化を達成しているとのことです。

https://clickhouse.com/blog/clickhouse-is-data-lake-ready

MotherDuck

PostgreSQL互換のエンドポイントを提供開始

2026年3月31日に、MotherDuckがPostgreSQL互換のエンドポイントの提供を開始しました。

これにより、JDBC、rust-postgres、node-postgresなど既存のPostgres互換ドライバをそのまま使ってMotherDuckに接続できるようになります。DuckDBのライブラリをインストールする必要がないため、Cloudflare Workers、Vercel、AWS Lambdaといったサーバーレス環境からも手軽に分析クエリを実行できます。

https://motherduck.com/blog/motherduck-now-speaks-postgres/

Data Transform

dbt

Tristan Handy氏による「Agent Skills」の見解

2026年3月30日に、dbt Labs創設者のTristan Handy氏がAnalytics Engineering Roundupにて、AIエージェント向けの「Agent Skills」について論じた記事を公開しました。

Agent Skillsは、公式ドキュメントやMCPツールとは異なる位置づけの仕組みです。専門知識をマークダウンファイルにまとめ、AIエージェントに動的に読み込ませることで、「いつ、どのように使うべきか」という実践的な判断までエンコードできます。

記事ではTristan氏自身が、Claudeにmigrate-to-fusionスキルを装備させてdbt Core 1.10プロジェクト全体をサポートなしで移行完了させた実例も報告されています。

https://roundup.getdbt.com/p/agent-skills-disseminating-expertise

Business Intelligence

Looker

LookerメタデータのDataplex Universal Catalog統合がプレビュー

2026年3月30日のリリースにて、LookMLモデルやダッシュボードなどのLookerメタデータをGoogle Dataplex Universal Catalogに統合する機能がプレビューとして提供されました。エンドツーエンドのデータリネージにも対応しており、BigQueryのテーブルからLookerのダッシュボードまで、変更の影響範囲を一気通貫で把握できるようになります。

https://docs.cloud.google.com/looker/docs/release-notes

Sigma

Postgresデータベースへのデータ書き戻し機能「Input Tables for Postgres」を発表

2026年3月31日に、Sigma ComputingがPostgresデータベースへの直接的なデータ書き戻し機能「Input Tables for Postgres」を発表しました。ビジネスチームがスプレッドシート感覚でデータを入力・編集しつつ、その結果をガバナンスされた形でPostgresに書き込めます。書き込まれたデータはAI Appsの入力ソースとしても活用できるとしています。

https://www.sigmacomputing.com/blog/postgres-input-tables-data-writeback

Omni

Claude Desktop向けのコネクタとスキルを発表

2026年3月17日に、OmniがClaude Desktop向けのコネクタとスキルを発表しました。

Claude Connectorを使えば2クリックでClaudeデスクトップからOmniのアカウントに接続でき、Omniのセマンティックレイヤーを通じてデータを分析できます。すべての回答はセマンティックレイヤーのビジネスコンテキストとセキュリティルールに基づいているため、ガバナンスを保ったままAI駆動の分析が可能です。

再利用可能なClaude Skillsも複数提供されており、omni-model-explorer(モデルの検査)、omni-model-builder(YAMLでビュー・メジャーを作成)、omni-content-builder(ダッシュボードのプログラム管理)、omni-admin(ユーザー・権限管理)、omni-embed(外部アプリへの埋め込み)といった一連の操作をClaudeから行えます。

https://omni.co/blog/announcing-claude-connector-and-claude-skills

私も試しており、今回のOmni Claude Skillsを組み合わせて、ダッシュボードを自動生成する流れをブログにまとめています。

https://dev.classmethod.jp/articles/omni-try-claude-code-plugin-for-dashboard-create/

Steep

セマンティックモデルベースのAI分析機能「Steep AI」を発表

2026年3月31日に、BIツールのSteepがAIを活用した新しい分析機能「Steep AI」を発表しました。

セマンティックモデルに基づいて自然言語で質問でき、AIが返す回答にはメトリクスへのリンク、推論プロセスの展開が含まれるため、「AIが何を根拠に答えを出したのか」を確認できる設計になっています。

現在は有料プラン全体で追加費用なしで利用可能で、年内に使用量ベースの課金モデルへ移行予定とのことです。

https://steep.app/blog/introducing-steep-ai

Data Orchestration

Kestra

シリーズAで2,500万ドルを調達

2026年3月31日に、オーケストレーションプラットフォームのKestraがシリーズAで2,500万ドルの資金調達を発表しました。RTP Globalがリード投資家を務め、Alven、ISAI、Axeleoが参加しています。

Kestraはデータ、インフラ、AIワークフロー全体を統合する「オーケストレーション制御プレーン」を目指しており、2025年には20億以上のワークフローを実行しています(2024年は1億)。GitHub上で約30,000スターを獲得し、JPMorgan Chase、Apple、Toyota、BHPなど30,000以上の組織が利用しているとのことです。

今後はKestra 2.0(マルチリージョン展開対応)やKestra Cloud(フルマネージドの使用量ベースプラットフォーム)の提供を予定しており、オーケストレーション領域での存在感がさらに高まりそうです。

https://kestra.io/blogs/kestra-series-a

この記事をシェアする

関連記事