[レポート]大阪ガスが切り拓くデータ民主化2.0:生成AIとTROCCOで解き放つデータ活用の可能性 #pNdatasummit

[レポート]大阪ガスが切り拓くデータ民主化2.0:生成AIとTROCCOで解き放つデータ活用の可能性 #pNdatasummit

2025.11.27

さがらです。

2025年11月26日、primeNumber社が主催する「primeNumber DATA SUMMIT 2025」が開催されました。

https://primenumber.com/data-summit/2025

本記事はセッション「大阪ガスが切り拓くデータ民主化2.0:生成AIとTROCCOで解き放つデータ活用の可能性」のレポートブログとなります。

登壇者

  • 國政 秀太郎 氏
    • 大阪ガス株式会社 DX企画部 ビジネスアナリシスセンター 副課長

自己紹介・組織紹介

  • 自己紹介

    • 入社時からデータサイエンティスト/アーキテクトとして従事
    • IoTデータが数PBあり、設備の故障予知などを行ってきた
  • 組織紹介

    • 「関西で天然ガスを売っているだけではないか」と思われるかもしれないが、そうではない
    • 多角化が進んでおり、複数事業を展開
    • 再生可能エネルギー、海外エネルギー、不動産やSIなどの事業など、幅広く展開
  • 大阪ガスにおけるデータサイエンスとは?

    • すでに組織として立ち上げてから約20年が経過している
  • データ分析組織:ビジネスアナリシスセンター

    • 高度な分析力と専門性を武器に、社内にコンサルティングをしていく組織
    • システム開発、アプリケーション開発まで含めてワンストップで対応している
    • 約10名の体制で、年間30件以上のプロジェクトが動いている。事業の上流からエンドユーザーまで関わっている

大阪ガスの高負荷データ分析基盤とは

  • AI駆動型高負荷データ分析基盤とは
    • IoTデータ、画像などの非構造化データ、多様なデータを扱う必要がある
    • 内部でのクエストを起票するシステムにより、最適なスキルマッチングを実施
    • 本日は、DWH、ETL、開発環境にフォーカスしてお話しする

データ基盤のあり方

  • データ基盤を考える前にデータのライフサイクルを考える

    • どこからデータが発生し、転送・加工され、どのように分析されるか
    • また、データがいつ使えなくなるのかの棚卸もしっかりと行うことが重要。古いデータが残っているとAIも正しく動かなくなる
  • データ基盤においては、転送・加工・保存が最も運用負荷が高い

    • 転送:ネットワークの問題、事業部から来るデータに欠損値などが多いため品質を監視するなど
    • 加工:前月のデータをどう整えると使いやすいか、どのように実装するか、加工処理は誰が管理するか、など
    • 保存:ただ保存するだけでなく、データカタログ的な側面も考慮する必要がある
    • その他:インフラの構成管理・運用など(TROCCO導入前は Google Cloud 上で Kubernetes を運用していたが、とても負荷が高かった)
  • この転送・加工・保存の運用負荷を、TROCCOで解決した

    • デフォルトで対応していない機能も、カスタマイズすれば実現可能
    • primeNumber社の技術サポートの方も非常に親身に対応してくれた
  • TROCCOができること

    • GUIベースでユーザーフレンドリーなデザインにより、非エンジニアでも簡単にパイプラインを構築可能
    • 外部からのデータ転送、条件分岐によるエラー発生時の運用自動化、BigQuery上でのデータ整形、品質チェックなど、一連の流れをカバー

データ民主化 v2.0

  • 前置き:TROCCOが近年できるようになったこと

    • Terraform を使って TROCCO の設定をコードで定義し、IaC(インフラストラクチャー・アズ・コード)が可能に
    • コードで書けるということは、AIエージェントを使った開発ができる(これが GUI ベースだけだと非常に辛い)
  • AI 駆動でパイプラインを開発する

    1. GitHub Issue を起票:「S3 から CSV を取得してテーブルを作りたい」など
    2. AI によるコード生成・PR(プルリクエスト)生成 ※Issue を起票したら裏側で AI エージェントが動く仕様。レビューは人間が行う
    3. TROCCO へのデプロイ
  • AI 駆動でデータパイプラインのライフサイクルも自動化する

    • TROCCO でエラーが発生したとき、Issue を自動起票し、AI エージェントがプルリクエストを作成。レビューは人間が行い、その後自動でデプロイして復旧できる
    • 約 800 個のパイプラインを運用していると、ほぼ必ずエラーが発生。Slack でエラー通知が来たら、Issue 起票から PR の自動起票までを自動化し、この一連の流れに要する時間は約 10 分
  • AI エージェントの活用で分析も自動化

    • Gemini を用いたデータ分析エージェントも活用しており、分析業務も自動化している
  • 自動化された世界で人が果たす役割

    • 「AIの上司」として、AI に対する適切な指示とレビューを行い、責任を持つこと
    • 「責任を取る」と言うとネガティブに聞こえるかもしれないが、AIが失敗したときにフォローアップするということ
    • Human in the loop の時代は近づいている
    • これまで数ヶ月かかっていた開発が数週間で終わるようになってきている

まとめ

  • 今日から始められること

    • TROCCO を導入しよう!
  • TROCCO導入ステップ

    1. TROCCO で安定したデータ集約
    2. Terraform で IaC 化
    3. AIエージェントを導入し、AI 駆動型の開発・運用へ

所感

TROCCOを核に据えたデータ基盤の刷新と運用の自動化を目指している点が印象的でした。特にTerraformによるIaC化でTROCCOの設定をコードで管理できるようになったことで、AIエージェントを用いて自動PR作成~自動デプロイのワークフローを実現していることが素晴らしかったです。人は「AIの上司」として指示とレビュー、そして成果物の責任を担うというスタイルは、今後の開発スタイルの1つとして定着していくのだろうという未来を感じるセッションでした。

この記事をシェアする

FacebookHatena blogX