AWS Cloud Storage Day 取材レポート(3).[基調講演] テレビ朝日がAWS上で作るセカンドスクリーンサービス ~構築から運用、今後の戦略まで~

2013.09.25

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

基調講演3本目は国内事例。テレビ朝日で展開された『セカンドスクリーン』サービスとAWSの関連性、AWS利用背景を、実際に行われたキャンペーン等を通じて紹介する内容となりました。

当イベントのその他のセッションレポートはこちら:

講師・概要紹介

講師

松下 剛氏 (株式会社テレビ朝日 コンテンツビジネス局 コンテンツビジネスセンター 通信技術班チーフ)

概要

「サッカー ブラジルW杯アジア最終予選」において、テレビ朝日がスマートフォンやPCで展開をしたセカンドスクリーンサービスの「いくぞブラジル!絶対突破大作戦!」。
サービスをAWSにて構築した背景から、その運用メリット、更に Amazon S3 のクラウドストレージや Amazon Elastic MapReduce を活用した今後のセカンドスクリーン戦略についてご紹介します。

セッション内容レポート

こういうセミナーで情報発信をする事が無く、苦手ではありますが今回このような良い機会を頂きました。今回のプレゼンの中で、『セカンドスクリーン』サービスをどのように実現、運用させていったかをお話したいと思います。

matsushita

(松下剛氏)

皆さんは『テスト・ザ・ネイション 全国一斉IQテスト』という番組をご存知でしょうか?地デジ移行完了前、まだデータ放送の結線率が低く、FacebookやTwitter等のSNSも普及していない頃に、ガラケーの表現力で番組を制作、クロスメディアを展開して来ていました。

testthenation_

そして現在。視聴者の環境は大幅に変わって来ました。スマホやタブレット端末の普及、SNSサービスの拡大、地デジ化。これら変化に伴い、視聴者の一般的なITリテラシーが向上したと言うのも大きい変化となっています。我々も、そのような状況の変化が起こっていく中で、どういうサービスを提供して行くか考えていく必要が出て来ました。よりインタラクティブに/SNSとの連動性強化/O2O2O(オフラインtoオンラインtoオフライン)等など。APIの解放等も検討課題に入ってくるようになりました。

尚、本日の事例は『ファーストスクリーン=テレビ、セカンドスクリーン=スマートフォン、タブレット』という前提でお話をさせて頂ければと思います。マルチスクリーンで何が出来るか?という前提です。そして、本日は『セカンドスクリーン展開の3つの論点』と題しまして、以下3つの論点に沿ってお話を進めて行きたいと思います。

csd2013-k03-101

サービス基盤の構築 - セカンドスクリーン サービス基盤

テレビ朝日では、昨年度末から『テレ朝Link』というセカンドスクリーンサービスを展開して来ました。名称に関しては割とスムーズに決まりまして、視聴者と放送、視聴者同士、またクライアント・パートナー企業とのビジネスでの"つながり"をイメージさせる名前としてこの名称に決まりました。

システム環境構築にあたっては自社開発or協業どちらを採るか思案しましたが、テレビ朝日ではTV局では珍しく、社内にちょっとしたITベンチャー位の開発体制を持っておりました。10数名のプログラマが在籍しています。そういう状況もあり、自社開発という選択肢でも行けるだろう、という考えで選択しました。

構築したシステムは『LINK:s(リンクス)』となります。高負荷アクセス機能、リアルタイム番組連動機能等、高負荷な番組連動を捌くための仕組み・機能を有しています。

csd2013-k03-102

LINK:sのシステムをAWS上で構築する際に、幾つか課題が出て来ていました。順を追って説明していきます。

(1).トラフィック対策

TV番組では、番組連動時には想像を遥かに超える、通常の数百倍のトラフィックが発生します。これらの場合通常一時間、その間だけサーバをドカンと増強させたいような状況が多く、事前にインフラを用意するのはコスト効率が悪かったりします。そこで、時間単位でコスト計算が出来るEC2をフル活用する事にしました。クラウドサービスでは瞬間的な、針を指すような対応が行えるという点が魅力的でした。

また、ELBの暖気運転という対策も行いました。瞬間的に増加するトラフィックにはELBのスケールアウトでは間に合わず、AWSに申請の上、事前に必要なスケール分用意してもらう事に致しました。その結果、(一例を挙げますと)サッカーブラジルW杯最終予選では、ELBに対して最大で20万アクセス/秒のベンチマークを実施する事が出来ました。

(2).インスタンスキャパシティ

番組連動当日に、果たして必要なインスタンスを用意しておく事が出来るか?というのも課題として挙がっていました。インスタンス確保のために数日前から数百台のインスタンスを起動させておく事は明らかにコストの無駄になってしまいます。この点、キャパシティについても、AWSは最も信頼が高かった点がありました。(だからといって100%確保出来る保証は無いのですが)

(3).リアルタイム処理

当初、リアルタイム処理に関してはDynamoDBを検討していたのですが、課金体系が読み書きのユニットあたりの単価だったため、想定よりもコストが掛かってしまい断念致しました。解決策としては、集計負荷が高いデータについてはAmazon Simple Queue Service(SQS)でキューにまとめてファイル管理を行う事でコスト負担を大幅に削減。同時にフロントとバックエンドを分離させる事で可用性も高める事が出来ました。

csd2013-k03-103

(写真:インフラ構成図)

視聴者を集める - コンテンツ企画・開発

セカンドスクリーンの基本サービスとして、どうすれば視聴者を引き付ける・集める事が出来るのか?という点を考えた時、私達は『面白さ』『便利さ』『お得さ』の3点に集約されるのでは、中でも、『面白さ』が第一というように考えました。

先日行われましたサッカーブラジルW杯最終予選にちなんだ『いくぞブラジル!絶対突破大作戦!』では、アプリの『突破!』ボタンを押してもらって参加を促す事で、こういったサービスを提供した際にどれほどアクセスしてくれるものなのか、という試みを行いました。結果(3/26実施分)は参加者数10万人、タップ数:3億7千万超え、突破数:5億突破超えという、この数億超えというのも良くわからない数字ですが(笑)、視聴者を集めるという意味では上々の結果を得る事が出来ました。

csd2013-k03-105

また、バラエティ番組『よゐこの無人島0円生活 5時間SP』では、面白さにこだわった番組連動企画を実施しました。Webアプリでの番組チェックインを実現させ、ゲームとしての仕組みに組み込む事によって作業を楽しさに変える企画内容となっています。

csd2013-k03-107

こちらも結果としては参加者数:28万人、番組チェックイン数:160万回超え(1人あたり5.7回のチェックイン)を達成致しました。新聞・雑誌の取材や他企業からの問合せも多数、頂きました。

これらセカンドスクリーンコンテンツの企画・開発を通じて言える事は、"番組をより面白く"を前提に、便利さ・お得さを提供して行く事、面白い番組作りこそが大切である、という点です。セカンドスクリーンサービスは番組企画との連動性が重要であり、番組をより面白く楽しんでもらえる企画を作り上げる事が大切です。これらと併せて、便利さ・お得さ〜これらは関連ビジネスを創出しやすい要素なのですが〜をどのように組み合わせてお得なサービスとしていくかは今後の課題でもあります。

視聴者を知る - 視聴情報ビッグデータ

WebサイトのログとTVのログ、どちらがより視聴者の意思・趣味嗜好を反映しているものなのでしょうか?私はスポーツの結果、例えば野球等はTVでは見ないが、Webで結果は良く観ます。この場合TVとWeb、どちらが私の意向・趣味嗜好を反映しているでしょうか。この場合、TVとなります。

視聴情報と属性情報・メタデータは異なるものです。ここでの視聴情報とは、視聴者がいつどの番組を視聴したのか、という情報になります。視聴習慣や視聴傾向のビッグデータとなる訳です。サッカーを観た人は水泳も観るのか、『アメトーーク!』を観た人は朝何を観ているのか。こういった情報はセカンドスクリーン等によって蓄積されていくものだと思っています。テレビの視聴情報は宝の山なのです。

csd2013-k03-301

視聴情報の収集管理やシステム導入方針については、我々はまず第一に、集計や解析の切り口が重要だと考えます。一方で、初期導入の段階ではデータウェアハウスやBIツールはまだ必要ない、と考えます。方程式が分かっていれば導入も検討しましたが、集めたデータをどういうふうに集計、集約、収集管理して行くのかは、実際やってみない事には分かりませんでした。小さく始めて大きく育てる構成を取る事にしたのです。

では、その小さく始めるための構成とはどのようなものなのか。ストレージにはAmazon S3、hadoopにAmazon Elastic MapReduce(EMR)+Hiveを使い、必要最小限の構成で、必要なデータを必要な切り口で集計し、スピードや汎用性を重視させました。実際には私を含めた2名のエンジニアで、短期間で小さく運用を始め、スピーディーな運用構築を実現出来ました。1日でS3 BucketとEMRのセットアップ、1週間でHiveの取得(これに関しては、基本的なSQLの知識があれば難しくありません)、1〜2日で集計作業を実施…という流れです。集めたデータは、自社のマーケティング(番組の企画制作の参考情報、TVCM営業の基礎情報等)に活用しています。

最後にまとめを。セカンドスクリーンに於いても、PDCAサイクルはとても重要であり、テレビ番組の面白さを前提とした便利さやお得さへの広がりを意識する事もまた重要なポイントとなっています。ビッグデータを分析する事で"視聴者を知る"という事はまだこれから、小さく始まったばかりです。共にチャレンジ出来るパートナー様は是非ご一緒させて頂ければと思います。本日はありがとうございました。

csd2013-k03-302