【レポート】視聴体験を向上するメディアデータ分析・機械学習 事例 #AWSSummit

千葉は幕張メッセで行われていましたAWS Summit Tokyo 2019、2日目に行われたセッション「視聴体験を向上するメディアデータ分析・機械学習 事例」についてレポートします。
2019.06.21

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

はじめに

清水です。千葉は幕張メッセで行われていましたAWS Summit Tokyo 2019、2日目に行われたセッション「視聴体験を向上するメディアデータ分析・機械学習 事例」についてレポートします。

本セッションですがアマゾン ウェブ サービス ジャパン 株式会社 金目 健二氏(アマゾン ウェブ サービス ジャパン 株式会社 技術統括本部 マスメディアソリューション部 ソリューションアーキテクト)が司会を務め、メディアデータ分析・機械学習について、TBSラジオ様、電通様の「リスナー動向のリアルタイム可視化基盤」、テレビ朝日様の「AWSで実現するテレビ視聴データ分析のデータワークフロー」、2つの事例紹介からなるセッションでした。

セッション情報は下記となります。

昨今 メディア業界においてデータの分析や機械学習の活用に多くの注目が集まっていますが、本セッションではAWSでメディア業界向けの分析・機械学習サービスのご紹介とTBSラジオ様、電通様、テレビ朝日様から最新事例をご紹介いたします。
ご紹介事例:
TBSラジオ様、電通様「リスナー動向のリアルタイム可視化基盤」
テレビ朝日様「AWSで実現するテレビ視聴データ分析のデータワークフロー」

レポート

はじめに

まずはじめに、AWSJ金目氏から本セッションのアジェンダ紹介がありました。

  • メディア業界は大規模な変化を遂げている
    • 視聴習慣の変化
    • 視聴体験の向上
    • コンテンツ及び龍月業の大規模M&A
    • メディアワークフローの変化
  • ディズニーのCEO
    • デジタル技術によって消費者第一主義へ
  • 消費者へのリーチがより大事になってきた
    • データ分析が必要
  • 消費者へリーチするアプローチの最新事例を紹介
  • 4つのメディアワークロード
    • 制作&ポスプロ
    • ワークフロー管理
    • コンテンツ配信&送出
    • 機械学習&データ分析
      • 本セッションではここの事例を紹介

TBSラジオ様、電通様「リスナー動向のリアルタイム可視化基盤」

続いて株式会社TBSラジオ 萩原 慶太郎氏(株式会社TBSラジオ メディア推進局 インターネット事業推進部 部長)、株式会社電通 福留 賢二氏(株式会社電通 データ・テクノロジーセンター DMP開発1部 シニア・ITストラテジストデータ・テクノロジーセンター DMP開発1部 シニア・ITストラテジスト)から事例の紹介です。まずは萩原氏からアジェンダとラジオ業界の聴取率の課題についての説明です。

  • アジェンダ
    • ラジオ業界の聴取率の課題(ビジネス面)
    • 取り組みと、付加価値、実現方法(技術面)
    • 効果や価値、課題(ビジネス面、技術面)

ラジオ業界の聴取率の課題(ビジネス面)

  • ラジオ業界ではなぜ聴取率が課題とされていたか
  • 地上波ラジオの現状
    • 日本では聴取率微減。radikoの登場
    • 米国は、ポッドキャストの流行
    • EYES FREE メディアのビジネスの可能性を見つめ直す
  • これまでのラジオのリスナー調査
    • ビデオリサーチの「ラジオ個人聴取率調査」
    • 手帳ベースで申告のデータ。3000サンプル。2ヶ月に1どしかとれない
      • (スペシャルウイークはこの期間)
    • もっと細かく見たい、今どうなっているかが見たい。
    • Twitterハッシュタグを追ったりとか…
  • 地上波ラジオはデジタルメディアへ
    • 2010年 radiko、サイマル放送を実現
    • ラジコプレミアム、タイムシフト、シェアラジオ、などの機能
    • 人によって異なるCMを流すことが可能なradikoオーディオアド機能(昨年から)
  • radikoのログデータは宝物(radikoアクセスログデータ)
    • どう活用すればよいか?
    • ダッシュボード「リスナーファインダー」の開発

取り組みと、付加価値、実現方法(技術面)

ここから福留氏に交代し、リスナーファインダーによる課題に対する取り組みと、電通ならではの付加価値、どのように実現しているかをご紹介いただきました。

  • 電通としての取組状況
    • TV向けのダッシュボード基盤を構築
      • STADIA
  • radikoデータの収集と効果検証の実施
    • Radio Dots
    • ラジオ広告を中心とした分析ツール
    • リアルタイム可視化をやる必要性!
  • 初期構成
    • TV視聴版
    • Amazon S3, Amazon EC2, Amazon Aurora
  • データエンジニアとしての取り組み
    • TV視聴可視化、番組分析ダッシュボードの自動化
    • ラジオ領域にも展開
  • リアルタイム構成+複製(リスナーファインダー)
    • TVの複製(日次処理)
    • リアルタイム処理
      • Amazno S3, AWS Lambda, Amazon Aurora, Tableau, Amazon CloudFront
  • 取り組み
    • radikoリアルタイムダッシュボードの構築
    • クラスメソッドと一緒に構築
    • ラジオ業界としては初の取り組み、アワードなど受賞
    • TBSラジオ様局内に、常にデータを見れる環境を届けることができた
  • 実際にリスナーファインダーを使用しているようす
    • スタジオサブの中に、Tableauの画面を表示するモニタを設置。リアルタイムに聴取状況を見ることができる
  • SNSシェアの数値など。分単位で可視化
    • スタジオの空気感とシンクロできる
  • プロトタイプはクイックな構成、リアルタイムはアドオンして構築
    • 全体最適化に向けて
      • 日次処理をサーバ/DBレスにしてパフォーマンス向上とメンテンナス負荷低減など
  • AWSサービスの選定
    • マネージドサービスへの統廃合
    • リアルタイム用のDBをAuroraにした理由
      • リアルタイム性を出すにはRDBじゃないと厳しい…
    • 新サービスAWS Lake Formationのリリース後にAWS Glueなどなどを含めて再検討
  • 外部ツールの利用
    • TableauとCDNを用いてリアルタイム表示
    • Amazon S3にデータを置いて、Amazon CloudFrontで配信。Tableauでデータを参照
  • 外部ツール利用
    • ビッグデータ転送SaaS "trocco"
    • データ転送の工数を削減して、分析業務に注力した

実際に使用して感じる効果や価値、課題(ビジネス面、技術面)

最後に萩原氏、福留氏の双方からそれぞれ、ビジネス面、技術面の効果や価値、課題について紹介いただきました。

ビジネス面
  • 社内の意識変革を行いたかった
  • 日本で唯一、リアルタイム視聴データがサブで表示できる
    • それまでは2ヶ月に1回状態
    • さまざまな議論が生まれる
  • 社内でこんな事できないか?と質問が来るようになった意識の変化につながった。
システム面
  • まずは作ってみる、すばやく実現する
  • 思った以上に反響が多かった
  • アプリのバージョンアップやクレンジング対応などに苦戦
  • インフラの統廃合は苦労している
  • 今後に向けて
    • 基本部分の整備/安定化
    • 機能/画面追加
      • レポーティング画面の開発

テレビ朝日様「AWSで実現するテレビ視聴データ分析のデータワークフロー」

続いて株式会社テレビ朝日 松下 剛氏(株式会社テレビ朝日技術局設備センターサイバーメディアシステムG 兼 インターネット・オブ・テレビジョンセンター(IoTvセンター))から事例の紹介です。

  • 放送局のテレビ視聴データとは?
  • テレビ視聴データ
    • 放送局がデータ放送を活用して収集する視聴データ
    • dボタンを押さなくても収集できる
    • テレビメーカーの視聴データとは異なる
    • 個人を特定するデータではない(非特定視聴履歴)
  • テレビの課題
    • データ不足により詳細な視聴者プロフィールを把握できない
  • データ活用
    • より具体的な視聴者プロフィールの把握
  • 分析データはインターネット経由のデータも含まれる
  • データレイク
    • 1時間番組で1億レコード超え
    • Amazon S3を利用
  • データワークフロー
    • リアルタイム、バッチ、アドホック、機械学習
  • リアルタイム
    • ストリームデータをリアルタイムにグラフで可視化
    • 視聴データの収集増減の把握やデータ監視に活用
  • バッチ
    • 事前にスケジューリングされたETLやデータ送受信をバッチにて処理
    • ダッシュボードはTableauで
  • アドホック
    • データエンジニアがアドホックで直接クエリを実行できる環境
  • 機械学習
    • Amazon SageMaker利用
    • テレビ視聴データから得られる情報
    • データクラスタリングやプロフィール予測

まとめ

最後に、時間も押していたので簡単ではありましたが、AWSJ金目氏からセッションのまとめがありました。4つのメディアワークロードの中で、機械学習とデータ分析を扱ったこと、そして「データを集め、データを活かす」ことが大事である、ということで締めくくりました。

感想

今回のAWS Summit Tokyoのメディア系のセッション、いろいろなところでメディア業界の変化、また消費者へのリーチが重要になっているということが言われていたかと思います。視聴データの分析は特にこの消費者を考える上で重要になると思いました。またデータ処理後の表示部分に2つの事例ともTableauを使っていたことも印象でした。