【レポート】AWS Summit Tokyo 2017:Day4 特別講演 #AWSSummit

aws-summit-tokyo-2017-longlogo

2017年05月30日(火)〜2017年06月02日(金)の計4日間に渡り、グランドプリンスホテル新高輪 品川プリンスホテル アネックスタワーで行われた『AWS Summit Tokyo 2017』。

当エントリでは2017年06月02日に行われた『Day4 特別講演』に関する内容をレポートしたいと思います。

今回はしんやがカメラマンとしてこれまで同様『PRESS(プレス)』での参戦、せーのがレポート担当として初のPRESS参戦となりました。現地開催会場の雰囲気を捉えた写真と併せてご紹介します。

press-seat-on-aws-summit-tokyo-2017

目次

 

セッション概要

当セッションの登壇者・スピーカーは以下の通り。

  • スピーカー: 茂木 健一郎氏(脳科学者)
  • スピーカー: Andy Pollock氏(Software Development Manager, Robotic Integration & Optimization Amazon Robotics)
  • スピーカー: Jeff Blankenburg氏(Alexa Evangelist, Alexa Amazon.com)
  • スピーカー: Kris Davies氏(Sr. Manager, Product Management Amazon Dash Replenishment Service)

 

セッションレポート

 

シンギュラリティはもう既に起きている

会場ナレーションにつづいて脳科学者の茂木健一郎氏が登場。昨今人工知能について話題の「シンギュラリティ」について茂木氏は「シンギュラリティはもう起こっている」と語ります。

「シンギュラリティ」とは「技術的特異点」の事を指し、人工知能の世界で言うシンギュラリティとは「AIが人間の脳を超える」「人間がAIの力を直接的に取り込み限界点を超える」「AIがAIを作る」というような現象に至るまで人工知能が進化する事を言います。そのシンギュラリティが起こるのは2045年と言われていているのですが、それが「既に起こっている」とはどういうことでしょう。

awssummitkeynoteday4-1

囲碁や将棋の世界で今人工知能が人間に勝った、というニュースがよく聞かれます。みなさんちょっと考えて頂きたいのですが、囲碁や将棋などのボードゲームの前提になっていることは何でしょうか。人間の脳の判断です。私は人間の脳の研究を初めて24年になります。人間の意識(consciousness)について研究することをライフワークとしているのですが、人間の脳というのは基本的に非常に狭いボトルネックを持つ構造をしています。
M.チクセントミハイという、「フロー」という概念を提唱したことで非常に有名な心理学者の方が「人間の意識のデータレイクは128bit/秒くらいである」という論文を出しています。会話をするとそのうちの半分くらいが使われます。

awssummitkeynoteday4-2

皆さん今このAmazonのカンファレンスに参加しているわけですが、この会議にいる間はこの会議のことしか考えられないですよね。私も今は自分が話していることに意識の全てを使っています。我々の脳のアーキテクチャはそういうものなんです。
レイ・カーツワイルというGoogleのR&Dの責任者の方が言っています、このシンギュラリティの議論について僕が根本的におかしいと思っているのは「どうして人間の脳"ごとき"と比べるのか」ということです。脳の研究をしている人間が言う事ではないのかもしれませんが。人間の脳って大したことないですよ(笑)。
もちろんモーツァルトのシンフォニーは素晴らしいです。田中さんのDJ(編集注: 公演前に会場ではFPMの田中氏によるDJプレイが行われていました)も素晴らしい。このようなイノベーションを起こしているのは我々の脳ですから、その点に関しては素晴らしいです。でも我々のキャリアストラクチャは一つのことをずっとやらなくては大成しません。チェスのチャンピオンになったカスパロフは一生をチェスに捧げてチェスのチャンピオンになりました。我々の人生は随分モノカルチャーなんです。ゼロから人工知能を立ち上げて、チェスの棋譜を読ませて、カスパロフに勝てるものを作るのに、皆さんの技術力ならどれくらいの時間がかかるでしょうか。

awssummitkeynoteday4-3

そもそも人工知能の特徴は何でしょう。まさにユビキタスで、「同時並列に色々なことをする」ということです。我々人間は一つのことにしか集中できないようなアーキテクチャになっています。
自動運転を例にすると、例えばアメリカで1000台の車が自動運転で動くとしますと、1000台それぞれの車が判断、経験した危険回避や効率的な運転のノウハウを共有出来る所が人工知能のすごい所です。一方皆さんの運転の経験時間はどれくらいでしょう? 皆さんと同じ道を走っても人工知能はその1000倍の経験をすることになります。
皆さんは雪道走行の経験はありますか? 私は雪道を走ったことがないのですが、人工知能であれば雪道の経験をするには仙台で走った車のデータを集めてくればいいんです。
このような世界が来ているのに人工知能を人間の脳と比べてシンギュラリティの議論をするのはナンセンスだと僕は思うんです。

awssummitkeynoteday4-4

ただ自動運転は、「我々が車を運転する」という事象の延長線上にあるメタファーにしか過ぎません。

認知システムに対するアプローチは大きく分けると2つあります。1つは「Cognitive Science」、よく「認知科学」と言われますけど、計算というメタファーを元に構築されているものです。アラン・チューリングが「チューリングマシン」というものを作って、あるアルゴリズムに基づいて計算を行う。Representation(表現)は脳の中にあって、数字やイメージなどの方法によって大体の事が表現されています。この表現に計算を当てはめることによって何らかの行動をおこします。Travelling salesmanとか(編集注: 巡回セールスマン問題。いくつかの都市を移動コストを元に全ての都市を回って出発地に戻ってくる最小順路を総当りによる計算で導き出す問題)はそのようなアプローチに基づいています。
今言われているシンギュラリティなどはそっちのイメージなんです。人間の判断能力を超えるAI、というのは「比較的模範的な人間が模範的な判断能力に基づき判断する量と比較して、AIがどのくらい優れた判断能力を示せるか」という定義です。

awssummitkeynoteday4-6

一方、認知科学には全く違うアプローチがあります。これは亜流なのですが、ギブソンという人が提案していた「Ecological Approach(生態学的アプローチ)」というものです。ギブソンは、極端に言うと「脳は何の計算もしなくても良い」と言っています。情報は環境の中にあります。

「アフォーダンス」という言葉を聞いたことがあるでしょうか。アフォーダンスとは、ギブソンが提案していた「環境の中に様々な情報がある。我々の脳はそれをただ認識しているだけだ」という概念です。
例えば鳩は飛んでいる時に障害物をどう避けるか。障害物の大きさや絶対的な距離はわからないじゃないですか。ところが、その障害物の変化量を計算すると「衝突までの距離」はわかるんです。鳩の脳には衝突の1秒前になると活動する神経細胞がある、ということが実際にわかっています。これがアフォーダンスです。鳩の中には賢い脳があるわけではありませんが、実際に環境との相互作用によってそのような処理が可能となる。ハイスペックな計算やRepresentationは必要ない、というのが生態学的アプローチの考え方です。私が今日皆さんと共有したいのは、みなさんが現在行っているAmazonのAIサービスに対するアプローチは、むしろこの生態学的アプローチのほうが捉えられるだろう、ということです。

awssummitkeynoteday4-7

Amazon Echoのスキルを見せてもらったのですが、まだ人工知能の能力の発展の一里塚にも行っていない気がします。まだ我々の脳の表現を前提としたスキルしか出てないんですね。ただ注文やUberの配車が出来ても、この大した事ない脳の指示待ちをしているんですよね。私が面白いと思ったのは、ネコがいるとネコ語で話しかけてくれる、というスキルです。

MITのメディアラボで子供が生まれてから3歳になるまでの全ての音声を記録した人がいます。子供がいつどこで"Water"と言ったか、などのログは頭の中にはとどめておけません。それを使うとどのような処理が可能となるのでしょう。我々の記憶は大したことがありません。2日前に食べた夕飯も怪しいくらいですから(会場笑)。

プライバシーに配慮しつつ、それらのログの収集が可能だとしたら何ができると思います? ここからは皆さんの想像力です。よっぽど発想を変えないと難しいと思います。僕も答えを持ってません。

awssummitkeynoteday4-8

僕がこんなことに興味を持つきっかけになったのはライダーシステム(編集注: LiDAR-Light Detection and Ranging。車からレーザー光を発して対象物を3Dで検知するシステム)です。デビットマーという方が書いた「ビジョン」という本はものすごく大きな影響を脳科学者に与えました。この本では視覚から脳が行っていることは「2次元の情報から3次元の情報を再構築することだ」としています。ライダーではデータとしての立体構造が得られるので、再構築する必要はありません。つまり脳は要らない、ということになります。
これが人工知能の能力なんです。私はエンジニアの方には「人間の脳はもう気にしなくていいので、突っ走ってほしい」と思うんです。

人間に合わせる人工知能はマーケット的にはすごく大事です。ただそこには「革新」が無いような気がしてならないんですよ。

awssummitkeynoteday4-9

人間の脳にも素晴らしい能力があります。例えば感情。人間の感情の数理的モデルはまだ実在しません。パーソナリティ(個性)もそうです。人工知能の発展にはパーソナリティが非常に重要な要素だと思っています。パーソナリティはある種の多様性であり、多様性を活かせる組織は強い。パーソナリティとはConscientiousness(誠実性)、 Extraversion(外向性)、Openness(開放性)、Agreeableness(協調性)、Neuroticism(神経症傾向)という「Big5モデル」というのが5大要素と言われています。これらは言語的な記述に基づく認知分析を通した統計的な量としてあるだけであって、所謂ソースコードがあるわけではないので、このパーソナリティを人工知能にimprementation(実装)することは現時点では不可能です。

人工知能が今進んでいる方向性の先に見えているのは人間の脳とは違うものだと思います。僕はこれが素晴らしいと思っています。人工知能が発展していく方向は、おそらく我々の脳が長い進化の過程で生物としての繁殖などを最適化するために発展してきた方向とは違う、と。僕の予想では感情やパーソナリティと言った人間の要素はおそらく人工知能ではこの10年では再現できないと思います。ではAWSのサービスのようなものはどういう方向に進化していけばいいか。人間が幸せになる方向に進化していけばいいと思っています。

今のシステムは人間のAttention(注意、関心)を要求しすぎだと思います。人間が最も幸せな状態とはどういうものでしょう。Six Sences(編集注: タイ、モルディブを中心に展開しているリゾートグループ)が提唱しているビジョンは「No News, No Shoes」というものです。靴を脱ぎ、ニュースを聞かずにゆったりとワインでも飲みながらリラックスする。いいですよね。
これが人間の最も幸せな形だとしたら、どうしてリゾートに行かないと得られないのでしょうか。

ジェームズ・フリンというニュージーランドの学者は「人類の平均IQは1930年代から上昇し続けている」と言っています。遺伝子は変わっていないのになぜ平均IQが上がり続けているのか。一説には我々がより多くの情報を処理するようになっているから、と言われています。そのことによって我々の脳はつねにエンゲージして大量の情報を処理するのに脳を使っています。ではそれで我々は幸せになっているのか。我々の脳はムーアの法則は続けられません。持続可能なのでしょうか。

awssummitkeynoteday4-10

どこかで「我々のAttentionを要求するような人工知能はもう勘弁してくれ」となります。どうやって我々は「let go(解放される)」できるのか、というのがこれからのキーになると思います。
例えば私はAmazonの売上に相当貢献しているヘビーユーザーなのですが、「マルコム・グラッドウェルの本が出たら買う」ともう決めているわけです。勝手に買っておいてほしいんですよね、いちいち聞かなくても(笑)。すごく微妙な問題を言っているのはわかってますよ。

色んなストレスフルなことがあるじゃないですか、スケジューリングとか、いつどこで何を買わなくちゃいけない、とか。これ全部もうやってくれないですかね。
ただこれにはプライバシーの問題とか色々あると思います。それを含めて解決するのがエンジニアリングじゃないですか。

脳科学的には子供の脳が最高だと思っています。遊んでいる時の人間が一番クリエイティブです。先程田中さんのDJの最中にスクリーンでユーザからのメッセージが出てましたね。あれは多分Twitterから拾っているんだと思うんですけど、Amazonのような先進的な企業の特徴だと思います。いい意味で全力で遊んでいる、という。もっと人間が幸せになるためにはルーティーンで行うことをいかに減らしていくか、という事が必要です。子供にはルーティーンはありません。大人が生きるために必要なルーティーンを色々やってくれますから。ですので子供は安心して遊んでられるんです。これは我々の言葉で「安全基地」と言うんですが。

Amazonの生まれたアメリカにはよくカンファレンスなどで行くのですが、アメリカが人類に最も貢献したことは「遊ぶように仕事をする」というモードを生み出したことだと思います。今日は結構真面目な格好をしている方が多いですね。TED等はかなりカジュアルな格好でみんな歩いています。PCにステッカーいっぱい貼ってね。(PRESS席のしんやを指差し)あ、ちょうどこんな感じで。プレスの方ですか、いい感じで書いてくださいね。ネットの評判は重要ですから(会場笑)。

定型的なこと、ルーティーンなこと、大量な情報を人間に代わって処理することはAIが行う、それは人間的なアプローチとは全く違うアプローチで。Amazonが行おうとしていることはその1日目、と考えています。

人間の目的は幸せになることです。子供時代に遊んでいた時ほど幸せなことはありません。全時間とは言いませんがある程度の時間、そういった遊ぶことに費やせるようにする。これからの人工知能やテクノロジーは進んでいくのだと思います。
世界には色々な問題がまだあります。ただスティーブン・ピンカーも「識字率の向上、議会制民主主義の体制の元に住んでいる人の割合、幼児の死亡率。様々なメジャーを取ると、我々は一貫して進歩を続けている」ツイートしていましたが、私もそういう意味では人類の未来は明るいと思っています。

awssummitkeynoteday4-11

50分という長時間に渡り、人工知能の未来、人間の脳の特徴、人間が幸せになるためにテクノロジーが目指すべき場所など、多岐にわたってお話してくれた茂木氏。最後は「是非皆さんはこれからの時代を作るヒーローとして、限られた人間の脳のことなど気にせずに、しかし1人の「人間」として、自分の個性や創造性、遊び心を大切に活動して戴けたら嬉しいな、と思います」と会場にいるエンジニアに賛辞と激励の言葉を残して、講演を締めました。

 

Amazon Dash Replenishment Service: Kris Davies氏

茂木氏の特別講演に続いては現在のAmazonの最もホットなサービスの紹介に移ります。まずはAmazon Dash Replenishment Service。AWSジャパンの長崎社長から紹介されたKris氏は「IoTはパラダイムシフトが起こっており、モデルが変わってきている」と現在のIoTにおけるアプローチの変化について語り始めました。

awssummitkeynoteday4-12

現在のIoTはクリックやタップからトークやチャットによるモデルに変わってきています。バックエンドはモノリシックなものからクラウドによる抽象化になってきました。スマートホームのイノベーションにおいて大事なのは「使えるものを作ること」です。
お客様中心のプロダクトを作るにはどうしたらいいか。フィードバックを聞いて「使うごとに良くなる製品」を作ることです。使っている間にますますスマートになっていかなくてはいけません。

awssummitkeynoteday4-13 

様々なチャネルがある中、お客様をゼロクリックの体験に導くことが必要です。「そもそも買い物をしない」という体験です。

awssummitkeynoteday4-14

楽しいことをスライドに出しています。どのような経験をお客様はしているか、というリストを出しています。
何かを忘れている、という瞬間があります。スーパーから帰ってきた時に、それが「牛乳を買うこと」だと気づく。スーパーに戻る。こういう経験を皆さんもしたことがあるでしょう。
「歯ブラシを買い換えよう」と思い立つのは洗面所のシンクの前であり、スーパーではありません。「やってしまった」という瞬間にはもう遅いです。反対に「ああ、忘れていたけど洗剤を買って帰らなくては」と思ったが、家に帰ると7本も洗剤が並んでいた、という経験はないでしょうか。

これらはイノベーションのチャンスです。デバイスがIoTに接続してお客様に代わってこれらを体験します。それがAmazon DRS(Dash Replenishment Service)です。
優れたIoTには制御と監視機能があります。一歩進めてより利便性を高めていきましょう。足りないということがないように。買いすぎたということがないように。
Amazon DRSはお客様に代わって注文していきます。プリンターがトナーを監視し、足りなくなる頃を見極めてDRSが注文作業を行います。

awssummitkeynoteday4-15

掃除機を想像して下さい。IoT対応でネットにつながっていて、ゴミパックを、また周りの空気を監視しています。掃除機を使う度にクラウドにその事を連絡します。お客様はただ掃除機を使うだけです。パックの中身がいっぱいになることは気にしなくていいです。そこが満杯になってくると周りの空気が悪くなってきます。フィルターを通して掃除機から出ている空気が原因です。それらを監視し、満杯になる、というタイミングで発注をお客様に代わって行います。Amazonではそういうことが体験できます。お客様はAmazonから届いた荷物を受け取り、新しいフィルターパックを交換するだけです。

IoTを使って自ら判断をするわけです。開発者には標準的なAPIのセットを提供します。

awssummitkeynoteday4-16

現在、6億ものデバイスがスマートホーム向けに出荷される、と言われています。Kris氏は「スマートなデバイス端末がもっとスマートになるように。お客様に価値のあるものを提供していきたい」と話してセッションを締めくくりました。

 

Amazon Alexa: Jeff Blankenburg氏

続いてはアメリカではもはやスタンダードに近づいてきた音声認識プラットフォーム「Amazon Alexa」についてです。Jeff氏は「音声は色々な所に偏在します。サーモスタットに話す、車に話す、キッチンで、ベッドルームで、色々な所で話します。ボタンを押すのではない、言えばそれが実現する世界です」と話します。

awssummitkeynoteday4-17

ボイスサービスは皆さんのデバイスに組み込む事が出来ます。ラズパイがあれば30分くらいで組み込めます。オリジナルのトーストも作れます。
「フライトを確認して」「部屋の温度を変えて」「ガーディアン紙の見出しは何?」このような事を実現するのがASK(Amazon Skill Kit)です。今ある機能をAlexaを通して提供することができます。皆さんの事業やゲームと連携することができるのです。

awssummitkeynoteday4-18

作るにはいくつかプロセスがあります。まずユーザーが話します。音声をテキストに変換します。NLU(Natulral Language Understanding)に引き渡し、何を言ったかを咀嚼します。解釈する必要があるわけです。
レスポンスは2種類、音声とカードがあります。アプリの中で今後一週間の天気予報を全部言うのは大変です。核となる情報だけを話してあとはカードを見てね、とすると自然です。

awssummitkeynoteday4-19

VUI(Voice User Interface: 音声認識インターフェース)を作るには3つのフェーズに分かれています。まずはどのように音声体験をするかをデザインします。実際にデザインが終わったらコードを書き、テストを行います。モバイルアプリケーションと同じですね。

awssummitkeynoteday4-20

ユーザーはどんなことを言う可能性があるのか、を考えることが重要です。ここに書いてある情報は全て「天気情報が欲しい」と言っています。Alexaはこれを天気情報の取得と解釈します。

awssummitkeynoteday4-21

Javascriptのコードはそれぞれブロックに分かれていて、それぞれのステートメントがユーザーとコミュニケーションをするメカニズムとなっています。

「endpointに通信してただ待つ、という仕組みではなく、返事をしてユーザーの更なる会話を待つ、というお客様とのインタラクションをAlexaで実現します」と語るJeff氏。音声認識システムの具体的な作成方法に触れつつ、これからの音声インターフェースの描く未来のビデオを流してセッションは終了となりました。

 

Amazon Robotics: Andy Pollock氏

最後はAmazon Roboticsです。Andy氏は「Amazon.comのユーザーは注文したものを楽しみに待っています。それはクマのぬいぐるみかもしれませんし教科書かもしれません。それらの配達をロボットで行います」とAmazonで現在動いている8万台のロボットについて話しはじめました。

awssummitkeynoteday4-22

例えば図書館に行って「ハリー・ポッターと賢者の石」を借りるとします。検索システムでどこにその本が置いてあるかをレシートに出力し、それを見てエレベータで2階に行きます。通路を歩いて正しい棚を見つけ、その棚の中から目的の本を取り出します。地元の図書館であればこれで良いかもしれません。

Amazonは様々なモノが売っています。SDカードからカヤックまであります。それらを全て2日間で届けています。それはこの中から本を見つけるのと同じことです。

awssummitkeynoteday4-23

これはイノベーションの機会です。どういう状態が理想でしょうか。図書館の玄関に入ります。手をかざします。空から「ハリー・ポッターと賢者の石」が降ってきたらどうでしょう。このような体験をするにはロボットが必要です。

awssummitkeynoteday4-24

非常に賢く、Wi-Fi対応。Amazonの棚は図書館と同じような棚ですが固定されておらず、移動します。ロボットはその棚ごと持ち上げるほど力持ちです。人が棚まで行くのではなくロボットが棚を持って人のところに行きます。人は立っているだけです。

awssummitkeynoteday4-25

在庫が自ら歩いてくる。この動きを行うにはアルゴリズム的な問題をソフトウェアで解決する必要があります。
クマのぬいぐるみをピッキングします。クマは倉庫の至る所に在庫があります。実際にどのクマを取るか。この判断には「その棚には他に何があるのか」という事が重要になります。従業員は「他の注文もまとめてピックしたい」のです。

awssummitkeynoteday4-26

「ロボットは既に稼働出来る状態にあるのか」「優先順位はどうか」「バッテリーはどうか」「全ての能力がアクティブなのか」「最後に動いたのはいつか」これらの基準でロボットを選んでいきます。

次に人間とクマを結ぶルートを決定します。実世界においては色々な制約があります。一方向なのか双方向なのか、車線はどうか、渋滞していないか。色々な事を考えます。

awssummitkeynoteday4-27

実際のfulfillセンターはこの何倍もあります。何千人という人が働いていて何万台というロボットがいます。この規模を解決するにはAWSを使うのが良いです。

計算は複雑ですが時間はありません。5時にクマをトラックに載せなければ火曜日の発送に間に合わないからです。AWSは高可用性がありエンジニアはアップグレードについて心配する必要はありません。fulfillセンターにはダウンタイムもありません。

awssummitkeynoteday4-28

「明日ロボットが16万台必要だ、ということであればAWSのページを見て下さい。DynamoDBを使って16万台のロボットをお届けします。」と話すAndy氏。まだまだイノベーションは終わらない、まだ1日目だ、とAWSの合言葉で締めました。

 

まとめ

いかがでしたでしょうか。前半は茂木健一郎氏から人工知能の概念について、後半はそれを受けてAWSが提案する人工知能の具体的な使い方についてのセッションとなりました。とくにAmazon DRSは茂木氏の話す「人間のAttentionを減らしていく」サービスそのもので、AWSの向かう方向は人間を幸せにしていくのだ、それをエンジニアが作っていくのだ、という希望とワクワク感に満ちた90分でした。