Developers.IO 2017 in LAS VEGASを開催しました 後編 #reinvent
はじめに
前回の続きの記事となります。特記事項がない限り敬称略とさせていただいております。
※何度も言いますが、お酒の入った対談形式のため、その場のノリと勢いとパスタなドゥーチェ!ドゥーチェ!で発言しているところがございます。一部不確定な情報や誤った情報を流している可能性がありますが、大目に見ていただけましたら幸いです。
新デバイス DeepLensの登場
長谷川「聞いていいですか?AWSの中で基本ソフトウェアのアップデートが多いじゃないですか、新サービスとして。そんな中でハードウェアが出てきたなと。AWS DeepLens。ちょっと解説をしてほしいなと。」
大栗「これはもう、大瀧さんですね」
長谷川「これは我々小売業、絶対に使えるなーと思いながら。」
せーの「あれ?未発売なのになぜ手元にw」
大栗「なんで持ってるんだこの人ー!」
長谷川「深センから持ってきたのかこの人ー!」
大栗「発売は来年のはずー!」
長谷川「大丈夫?ちょっと見せ過ぎちゃう?(DeepLensをカメラに近づけて)」
里見「これは結局何が出来るって考えればいいですかね?大瀧さん」
大瀧「僕!?せーのさんにリダイレクトします(笑)」
せーの「簡単に言うと、画像とか動画の認識と、分析ができる。」
里見「スタンドアローンで何処まで出来るんですかね?」
せーの「僕まだワークショップ出てないんですけれど…」
大栗「出た人は?」
大瀧「実は今日ワークショップがあって参加者にこれ(DeepLens)が配布されたんで、別に裏ルートとか使ってないです(笑)。これ自体がLinuxボックスになっていて、上にカメラがついているようなものになります。で、カメラを使って映したものを、本体にディープラーニングの仕組み自体が内蔵されているので」
長谷川「またまた嘘でしょーw」
大瀧「そ、そうみたいなんです。」
里見「だから、GPUが入ってるってことなんですよね?」
大瀧「そうみたいなんですけれども、そこはちょっと今日の発表の中では、Intelのチップ使ったcl-DNNを使ったサポートの仕組みがあるよっていう話で…」
里見「分解してみますか(笑)」
長谷川「分解の儀、分解の儀(笑)」
河野「Intelマークありますもんね」
大瀧「一応そういうレベルの情報が出てきているところですね。あとはこれIntelのチップ自体は別に市販されているものかもしれないのですが、仕組み的にはAWS DeepLensという名前がついているので、これ単体がAWSのサービスと連携して動くようになっています。具体的には、DeepLensの管理コンソール自体がAWSのマネージメントコンソールに入っているんですけれど、中でGreengrassっていうオフラインでAWS IoTとか、Lambdaが動くようになっているので、例えば画像認識のプログラム自体をLambdaでかいて、それをDeepLensにデプロイして動かすであるとか、あとで改めて出てくるんですけれど、今日発表になったSageMakerとの連携機能があって、SageMakerでプリセットされた学習済みデータもろもろを、さっきのGreengrass経由でDeepLensにデプロイして、なんていうような、今日発表されたサービスてんこ盛りのような形です。」
長谷川「SageMakerっていうのはどういう機能なんですか?」
せーの「SageMakerというのはディープラーニングを簡単にできるサービスというのが一番簡単な言い方です。一番難しい部分っていうのがディープラーニングをやっているとパラメータ調整ってのが難しくてですね、諸々一回学習を回すと、まあ数ペタバイトとかあると学習回すのに時間がかかるんですけれど、時間をかけて一回やって、その結果たいして学習されてないっていうパターンが有るんですけれど、その場合パラメータを自分でちょこちょこいじって、もう一回学習かけるんですよね。そうすると、どんどん違うパターンのパラメータで学習していって賢くなっていく。っていうのがディープラーニングの仕組みなんですね。で、これだっていうのを見つけるのが結構職人の勘みたいなところがありまして、これだっていうのを見つけたら後はひたすら回す。ひたすらデータを増やす。と、どんどん賢くなる。なので、その一番の職人の勘どころであるパラメータ調整っていうのが、このSageMakerでは自動でできてしまう。しかも、そのペタバイトのやつを1回2回3回と回して時間がかかるところを、ここがクラウドの凄いところで、データ自体をガッツリコピーして並列で一気にいろんなパラメータで1回ガラッと回す。その中で一番良かったパラメータを採用して、これ!っていうふうにディープラーニングのデータが出来上がる。」
甲木「こええぇ」
せーの「これが、力技の最たるものですよね。」
大栗「もしかして、ディープラーニングのオートスケールも勝手にしちゃう感じ?」
せーの「そんな感じです。」
大栗「おお凄い!」
せーの「勝手にやって、勝手に戻る、と。」
大栗「相当すげーな」
ゲストさん「料金体系は…」
せーの「料金体系はわかんないです。」
里見「でも、そこで儲けるのではなく、その後のディープラーニングを使ってもらうところで儲けるんだと思いますよね。」
せーの「で、Inference(編注 : Greengrass ML Inference)ってサービスが有りまして、これが、学習推論のサービスになるんですけれど、機械学習って簡単に言うとデータを基に学習していくってフェーズと、その学習した結果を基に、新しいデータは何処に当たるのかっていうのを推測するっていうフェーズの2つに別れます。ただ、学習するところのサーバーと、推論するところのサーバーが同じだと、クラウドに持ってくるレイテンシーがかかるので、結果的に何かデータを渡した時にそれが何の推論になるかっていうのが返ってくるのが遅いんです。この推論返ってくるのが遅いのを、推論だけをエッジに移そうっていうのがInferenceです。」
里見「でも、レイテンシーってそんなにシビアなものですかね?数msecですよね?」
せーの「超シビアです。クラウドに上がって返ってくると、やっぱ200〜300msecかかります。でも、Inferenceだと、20msecとかそういうレベルでできるので、例えば製造系とかでラインを動かしてる最中とかにやばいものがあったらすぐ止めなきゃいけない、そうしないと事故につながる、みたいな時にクラウドに上げて、これがやばいものかどうかを確認して戻ってくると意味がない。」
甲木「防犯カメラとかも?」
せーの「そういうのも近いですよね。後はエッジにInferenceの推論があるっていうのはイコール、オンラインじゃなくても推論だけは出来る、なのでセキュリティの高いところ、医療関係とか、そういうところでやる時に、データを法律上、データをクラウドには上げられない、そういう時にInferenceを使って推論を行う。」
大栗「モデルを配布するのがInference?」
せーの「Inferenceは、入ってきたモデルを基に、推論を行う。」
大瀧「今日のワークショップの中で、SageMakerが出てきたタイミングは、SageMaker側で作ったモデルをGreengrassを基にDeepLensにバシッとデプロイしてやってましたよ。あのハンズオンで行った限りでは、DeepLensに入れてぶん回すっていうのはどうも出来るみたいです。」
大栗「じゃあこれでやってくれるわけだ。」
大瀧「こっち方面詳しくないので素人コメントなんですけれど、SageMakerの中身で、jupyter notebook、ハンズオンの中でも実際jupyter開いてワークブックをやったんですけれど、jupyterが使えるというのが今風というかとっつきやすい仕組みになっていて良いんじゃないかなと思います。」
せーの「結局SageMakerとかの仕組みっていうのは、Transcribeもそうですけれど、全部Alexaに繋がってくるんですよね。Alexa事業部に居て、いろんなAlexaの話を聞く機会があるのですけれど、だいたい1回やってみたいのは音声で話しかけて音声が戻ってきて、あー嬉しいな、っていうのがまず最初。その後に、音声をコマンドにして物を動かしたいって言われます。そうすると、AlexaとIoTを繋げたい、とか。その次に、Alexaで言った発音とか内容によって、サーバーの内容を変えていきたい、ってなると、機械学習って話になるんですよ。で、機械学習になると、勉強と言うか、職人の勘所的なところがあるので、なかなか音声認識をやってる人間が機械学習のやっているところまでフルスタックでおまかせしてくださいっていうわけにはなかなかいかなかった。のが、SageMakerが出てきて、Inferenceが出てきて、で、もう任せてくださいって状態になるんです。」
長谷川「質問!これは、難しいように聞こえるんだけど、例えばアプリエンジニアの人が10人ぐらい居たら、何人ぐらいの人が、このSageMakerとかどれくらい勉強したら使いこなせるようになりますか?」
せーの「AWSを使いこなせる人であれば、多分6〜7割は使えると思います。操作自体はそんなに難しいものではないので、後は中身をドキュメントをちゃんと読んで、こういう風に動いてる、だから出てきた答えがこうなんだよってのを勉強してもらう、そのフェーズが多分AWSの仕組みを知ってるような人であれば出来ると思います。」
大栗「あれでしょ?ドキュメントが足りなかったら、どこぞのBlogを読めって話でしょ(笑)」
せーの「うん、そうwドキュメントで足りなかったら、なんかいっぱいブログが書いてある会社があるんで。なんかDevelopers.IOっていう話を聞きました(笑)」
大栗「へーそういうのあるんだー」
せーの「そこを見ていただければ一発でわかるかと。」
佐々木さんのお仕事無くなっちゃうんです(かなり誇張気味
里見「質問しようと思ってたのが、なんでAWSがエッジに進出してきたのか、なんでDeepLensのようなデバイスを作っちゃったのか、みたいなのを思ってたのが、聞こうと思ってたのが先に答えが帰ってきちゃった感じになりました。Alexaを作ってく中で培われた技術を、それぞれサービス化してきたみたいな、そういうのが大きいんですかね。」
せーの「だから、Transcribeもそうですね、ここらへんは音声認識のサービスなんですけれど。」
大栗「あれですよね、議事録とかも音声認識で自動でやってくれるってやつですよね。」
河野「Transcribeで気になったのが、日本にいる方々、基調講演のストリーミングとか、動画で見てたと思うんですけれど、あれ喋ってる人が全部テキスト出てたのは、我々見ながら『これ字幕台本もともと用意してたのかな』って思ってたんですけれど、やっぱこれTranscribeとかでやってたんですかね?」
大栗「それ、我々クラスメソッドの中でも話題になっていて、どうやってんの?って。」
せーの「一生懸命やってんのかなって最初思いました。」
大栗「微妙に間違いがあって、例えば、KVMがKBMとか。微妙な発音のところをなんか間違えてて。」
河野「なんか聞き取れませんでしたーっていうようなのがあったんで、私は、これTranscribeとかTranslateでやってるのかなって思って。てなると、クラスメソッドさんみたいにブログを沢山書いてる会社さんは、来年とかテキスト化されたものがガーって出てきて。」
せーの「超便利ですよね。」
大栗「その次に、まだ対応してないんですけれど、Translateが、まだ日本語ないんですよ。」
大瀧「Translateで翻訳も。」
大栗「日本語が対応してくれれば全部自動でブログが勝手にアップデートされてくわけですよ。」
せーの「うちらもう、ノートパソコン持たないで、ICレコーダーだけ持って録音すればいいだけ。」
大栗「あとは新サービスが出たらみんなやってみたブログを書く。佐々木さんの(リアルタイム更新ブログの)仕事はなくなるんですよ。」
河野「これからは皆さん、発表された瞬間にブログを書くではなく発表された瞬間にやってみたを始めるんですよね。」
大瀧「これは、だいぶ助かりますよ。」
せーの「社員が、発表のところのブログを自分のところで見るっていう。」
大瀧「一点補足なのですけれど、さっきの同時通訳諸々Transcribeかどうかってところは、社内チャットでも結論は出ませんでした。クラメソがTranscribeつかってるよって言ってるわけではないというところはお断りしておきます。」
大栗「知りません!」
せーの「なんかみんな、楽しくなる液体を飲んでるんでね・・・」
大瀧「かもねー?っていうぐらいで。」
これが俺たちの欲しかった(ここで噛む)へんのやつやー
大栗「そろそろちょっと本命の話をしたくて。」
大瀧「えっ?本命?」
大栗「Fargate。」
せーの「あー、なるほどね。」
大栗「これが俺たちの欲しかった(ここで噛む)へんのやつやーって」
大瀧「あー、かんじゃったね。」
せーの「急にあげちゃったからね、テンション」
大栗「ECSが3年前に発表されました。その数日前にJeff Barrがツイッターでコンテナでサービス出すぞって言ってたんですよ。その時に自分は、『あれ、EC2とかあげるの面倒くさいから、コンテナあげられるサービス出るんじゃね?』って思ったんですよね。そしたらなぜか今ちょっと名前が違いますけれど、EC2 Container Serviceって。なぜかEC2が付いてるの、面倒くさいって思ったんですよね。そしたら今回名前がElastic Container Serviceに変わったと思ったけれども、そうじゃなくて、本当にコンテナが簡単に上がるよってサービスが出てきて、これが欲しかったってのが3年越しで実現した感じです。」
せーの「改めて、Fargateとはどういうサービスですか。」
大栗「今まで、ECS、Container Serviceを利用しようと思ったら、まずEC2を、仮想サーバーを用意して、そもそもコンテナの話してるのに仮想サーバーを用意してるのかわからないけれど、その上にさらにECSでコンテナをデプロイするというなぜかわからない2段構えだったんですよね。我々はコンテナを使いたいってことは、サーバーを触りたくないってことなんですよ、そもそも。にも関わらずEC2という仮想サーバーを触っている。でもそれが不要になりました。コンテナだけ直接あがりますっていうことです。」
里見「それはメリットとしては、コストとしてもEC2に縛られた形のコスト体系ではなくて、コンテナの利用だけ考えればいいので、それって他社のクラウドと似たようなところとか似てないところとか」
大栗「ちょーっとわからないんですけれど、まあそういう話ですよね。」
里見「そういうキャッチアップ系、今回多いですよね。キャッチアップって言って良いのかわかりませんけれど。」
大栗「そういったら、DynamoDB Global Tableなんてのもありますよね。そういう意味だと、AuroraのMulti-Masterも、来年、マルチリージョンで対応する。Global Tableもマルチリージョンなんですよね。つまり、全世界展開するための下回りが揃ってきた感じなんです。ただ、ここで勘違いしちゃいけないのが1つだけありまして、間違っても最初からマルチリージョンとか考えるなって話。」
里見「理由は?ユーザー側として…」
大栗「これは駄目、仕組みとして最初にそれ考えたら負けです。」
里見「ああ、負け…(笑)」
大栗「まず、マルチリージョンは、どうしてもマルチリージョンの書き込みがしなければならない時に初めて使うものなんです。」
里見「もっと飲んでもらったら良いですかね(笑)」
一同 (笑い)
せーの「なんか、隣から離れたくなってきたんですけれどw」
大栗「あの、手段としてはすごく助かるんですよ。選択肢が増えてるんですよ。ただ最初に使っちゃいけなくて、最初に考えるべきは、シングルリージョンでどんだけコンテンツ配信みたいな形で、遠いところでも高速にアクセスできます、というのをまず最初に提案すべきです。」
里見「まずは基本をちゃんとやりましょうと。」
大栗「そう。それで、できなくなったら初めて使いましょうなんです。これを最初に設計に盛り込むと複雑さが増すんで、ある意味負けです。」
里見「そういう意味ではコンテナもそうですよね。最初からコンテナを使いたいからってコンテナで無理くり作る必要っていうのは。」
大栗「無理くりは必要ないです。コンテナは楽だから使うべきなんです。楽にするべきなんです。」
里見「そういう設計に悩んだら…某ブログの会社に。」
せーの「ブログを沢山書いてる…」
大栗「そう、ブログを書いてコンサルティングも我々やってますけれど。」
里見「難しいですからね。」
大栗「極めて設計難しいですよ。正直。」
里見「あと、何のサービスを選択するかっていうのも、これだけサービスが出てくると。だから、CIerっていうんですか、そのクラウドを専門にやってる方々っていうのがますます必要になってくるような。」
大栗「さらに、本当にシステムのアーキテクチャをいかに考えるのかが、選択肢が増えた分ものすごく難しくなってきました。」
里見「ですよね。」
大瀧「場合によってはさっきみたいに、無理っていうことも言わなきゃいけないですからね。」
大栗「すべきでない、NOっていうことをお客様に提言するのも重要です。」
大瀧「これらの機能自体は大変素晴らしいです、選択肢むっちゃ増えたんで。」
Keynoteから落選した新サービスも素晴らしいんです
河野「Amazonの、新発表された機能の数って、これ基調講演で全部でいくつ発表されたんですかね?」
せーの「数えてないですけれど20ぐらい?」
大栗「でも、発表していないサービスもあるんです。個別に出てるセッションとかでも、地味に凄い発表がありますよ。Sync time service?」
大瀧「Time Sync Serviceかな?」
大栗「Time Syncか。」
大瀧「そういう意味では、今丁度言っていたマルチリージョン関係のアップデートって結構AWSのリージョン間の連携っていうのが肝になってくると思うので、そのへんがTime Syncだと効く。」
里見「そうか、だから始めたのか。」
大栗「高性能の原子時計があって、凄い高精度で全リージョンの時刻が同期できる。」
里見「あれ日本だと何処でしたっけ、JSTとかやってますよね。そういう公共団体とかやってるのとね。」
大瀧「ブログに色々書いてあったのですが、GPS衛星と連動したりとか、いろんな仕組みをどうやら裏では使ってるっぽいですね。」
里見「だから時間を民間の企業がやるっていうのは凄いですよね。NTPサーバーってのは無茶苦茶アクセス来ますよね。」
大瀧「はい。」
せーの「気になってたんですよね、Multi−Masterってことは、どこもMasterってことじゃないですか。だから、ヨーロッパで書き込まれたレコードと、東京で書き込まれたレコードと、何msecか違えば、それはもう結果が変わるわけじゃないですか。どうやって時間あわせるのって思ってたら、作ったっていう。時計作ったっていうね。」
大栗「AuroraのMulti−Masterの話も、セッションに出てて見てたんですけれど、ちょっと難しくてあまり理解できてないんですよね...」
一同 (笑い)
大瀧「なんでそういうぶっちゃけ話言っちゃうんですか(笑)」
大栗「あのですね、本当に難しいんです。本当にいろいろあって、Auroraの論文読んでたから初めて理解できた話もあったりですね…」
大瀧「(とりあえず)話を戻そう(笑)」
大栗「ただ、正直いうと、ユーザーサイドとして、Auroraではあまり使わないかもしれないけれど、DynamoDB Global Tableの方では結構使うんじゃないかと思ってます。なぜかというと、多分実装をシンプルにするためだと思うんですけれど、DynamoDB Global Tableって一貫性をAuroraほど保証してないのですよね、リージョン間の書き込みに対して。なのでそこは、Time Sync Serviceでタイムスタンプを使ってバージョニング管理をしつつアプリケーション層で頑張れっていうのが、多分今の時点での使い方だと思うんです。」
大瀧「さっきのTime Sync Service自体は、設定もすごく簡単ですし、NTPサーバーが使えるよ楽ちんって感覚だと思うんですけれど、実際はめちゃくちゃお金かかってると思います。」
大栗「これ、(利用するのは)無料ですか?」
大瀧「無料です。」
大栗「最高!」
大瀧「言ってる意味はわからないんですけれど、こういうインフラの投資があってこそ、こういう先進的なリージョン間の同期とか、例えば、あとからData Syncの話が絶対回ってくるんですよね。AWSの内部で、主に去年Hamilton先生のセッションで言っていた、リージョン間のダークファイバーをAmazon独自に準備したと。そういうのが下地にあって、それでこういう新機能がリリース出来る。表には出てこないんだけれど裏側の複数リージョンを連携させるような投資っていうのは多分ものすごくお金がかかっているし、Keynoteでは発表されないんだけれど、すごく投資していて、そういう下支えがあって華々しいアップデートが出てきてるんじゃないだろうかなーって。」
大栗「そういう意味では、Keynoteでは発表されてないけれど、ダークファイバーって話してたじゃないですか、それ使ったサービスさっき出ましたね。」
大瀧「なんで俺に言わせるの(笑)」
大栗「インフラ系担当って言ったじゃないですかw」
大瀧「そう、Keynoteには出なかったんですけれど、さっきこっちの現地時間で夕方ぐらいに出たのですが、VPC Peer接続のリージョン間っていうのは今回いきなりリリースされました。はい。これまでVPCはリージョンごとにそれぞれ独立していて、それを繋ぐんだったらソフトウェアベースのVPNを接続してっていう、まあそういうのが、AWSの標準機能でいきなりリージョン間で、例えば東京とオレゴンでそれぞれVPC作って、それを相互接続してっていうのが出来るようになりました。」
里見「じゃあ、DX(編注 : Direct Connectのこと)とかで、VPCに繋いだあとに、オレゴンと繋ぐっていうのをVPC Peer接続でやるみたいな事ができると。」
大瀧「いろいろと制約があるんですけれど、一応Peer接続っていうのはVPC同士でないとできないのですけれど、オンプレとの組み合わせってなると、これはこれでre:Inventの前に発表されたDirect Connect Gatewayとの組み合わせって感じですね。」
里見「でました。なるほどなるほど。」
大瀧「そんな感じで、ネットワークは出来ることむっちゃ増えてるんですけれど、設計の難易度はここ一年でどんどん上がってきてる気はしますね…」
大栗「まあでもわかりやすくいうと、AWSの超有名事例である任天堂さんのMiiverseってあるじゃないですか、あれって、世界各リージョンを、個別で自分で頑張ってVPNで結んで、プライベート接続してるじゃないですか。あれが全てマネージドされて完結するってことですよね。」
せーの「素晴らしい。」
大栗「あれって、ものすごいネットワークを解ってる方が、ものすごい頑張ってやってると思うんですよ、それがマネージドで出来ちゃうってのは本当すごいですよね。」
大瀧「インフラはこのへんで一旦まとめましょうか。そんな感じで、インフラサービスは、Keynoteではあまり触れられてなかったですけれど、めちゃめちゃお金かけてKeynoteじゃないタイミングでいっぱいアップデートされてるので、インフラ周りもぜひ明日以降もチェックしていただければと思います。」
せーの「そうなんですよね、Keynote初日なんですよね。」
大栗「まだ慌てる時間じゃない!」
せーの「明日本命が出るんですよね?多分。」
里見「明日もこの座談会やりますか?」
大瀧「明日は…re:Playってのがありまして…」
長谷川「あー、飲んじゃう系の」
大栗「みんなそういう状況じゃないっていう。」
河野「じゃあ金曜日の朝とか(笑)」
大栗「実質使い物になりませんw」
ここまでで触れてきてないサービスで気になるもの
嵩原「そんなこんなで言ってある間に50分になりまして、観てる方が仕事に復帰しやすいようにまとめよう的な。」
大瀧「そういう意味では、落ち穂拾い的な、まだ話せていないやつを。だいたい触れた?」
せーの「僕これ大好きですよ、Amazon Rekognition Video。」
大栗「一言で言うと。」
せーの「Rekognitionという画像認識のサービスが有りまして、画像をRekognitionに投げると例えば”これは犬です”とか”これはスティービー・ワンダーです”みたいなのを応えてくれる。そういうサービスが有るんですけれど、それの動画版ですね。mp4とかmovとかでH.264でエンコードした1分以内の動画を上げると、その動画の中に何が映ってるか、誰が映ってるか、その人が何をしてるかまでを分析する。サンプルでデモ画面がマネージメントコンソールに上がってるので皆さんすぐに触れるので触ってみてほしいのですが、今Jeffと明日の主役のWernerが対談してる30秒ぐらいの動画が上がってる。」
大瀧「そのサンプルもどうなの(笑)」
せーの「ちゃんとJeffとWernerっていうセレブリティっていうカテゴリーで名前が検索できますし、で面白いのが、そのJeffの名前をクリックすると、動画のどの場面に出ていたのかっていうのがタイムラインで見れるんですよね。」
里見「それ、なんかアなんとかってクラウドで観たような…」
せーの「アなんとか…僕そういうのちょっと詳しくないのでちょっと(笑)」
甲木「それにあわせるように、今度Kinesisのね。」
せーの「Rekognition Videoが凄いのは、そのS3にストアードしてある動画ですね、その他にストリーミングのビデオにも対応している。っていうことは、例えば、ドアホンとかと繋げば、来た人が誰かを認識するわけですよね。そうすると、Rekognitionというのは個人をフェイスアイテムで登録できますので、来た人が家族の人だったら自動的にドアが開くとか、そういう仕組が出来るってことです。そういう意味で、Rekognition Video、僕は大好きです。」
大栗「あと下に”他”って書いてある渋いサービスが有るよ?EC2 Systems ManagerからAWS Systems Managerに変わってるやつ。これ実はKeynoteの後に発表されたやつで実際はあんま把握してないんですよね。ちょっと説明できる人を...」
せーの「AWS Systems Managerを書いた人ー」
森永「書いてはないですけれど…」
せーの「自己紹介とどういうサービスかを。」
森永「森永です。基本的にこれ、EC2 Systems Managerと一緒です。インベントリ、OSの中のインストールされているソフトウェアを管理。」
大瀧「EC2以外だとどの辺?」
森永「RDSとかも見れるって書いてあったんですけれど、未だ把握できてないんです。メンテナンスウィンドウとか作って、そのタイミングでメンテナンスをやるとかっていうのをEC2とかでできる。オンプレのエージェントいれるのと一緒の感覚です。それがEC2から範囲が広がったって感じです。そういう意味では、新サービスというより、EC2 Systems Managerが拡張したっていうイメージです。」
甲木「あとコレ、Amazon Comprehend。これあれですよ、テキストデータから、そのテキストの中に含まれている要素の、これは人の名前ですとか、これは時刻ですとか、そういう風に抽出してくれるやつ。」
大栗「自然言語的なやつだね。」
甲木「そうそうそう」
大栗「だから、キーワード渡したりとかそういうの出来るやつですよね。」
長谷川「形態素解析が出来るということでいいんですかね。」
大栗「もうちょっとレイヤーは高い気がします。例えば、Developers.IOでブログを書いたら、キーワードを自動で抽出してくれるっていうような。」
甲木「あとは、ここに自然言語のデータを入れると、その文章に含まれている感情の情報も読み取れる。これは良いとか、これは駄目とか。」
里見「このブログは、大瀧さんが怒りながら書いてるとか。」
大瀧「バレちゃうバレちゃう…」
甲木「例えば『いかがなものかと思う』とかって言いまわしとか入ってたら怒ってるとかって情報を。」
大栗「怖いw」
大瀧「そんなん書かないですよ(笑)」
甲木「それによって例えば商品のレビューに対してネガティブポジティブって必要じゃないですか。それがComprehendでわかる。そんな感じです。伝わりにくいので説明しておきます。」
大瀧「これで全部触れましたかね…?」
森永「あの、この中にGuardDutyないですけれど、セキュリティーをいろいろチェックしてくれるやつなんですけれど、ブログ書いたんでよければ見て下さい。」
せーの「ざっくりw」
大栗「弊社もう既に運用中でしょ?(笑)」
森永「もううちのブログに入ってます。」
大瀧「あ、入れたんですか。」
森永「はい。」
大瀧「何やってるんですか(笑)」
森永「もうDog Foodingでどんどん。」
大栗「普通にProduction Readyで使ってます。」
里見「でも、GuardDutyが入ったからって、トレンドマイクロが要らなくなるってわけでは」
大瀧「なんでそういうこというんですかw」
里見「そういうわけではないですよね。」
大栗「そもそもパートナーとしてやってますからね。一緒に使い分けて良い感じのところを。」
森永「あくまでGuardDutyは検知までしかしてくれないので。守ってはくれない。」
河野「GuardDutyはいくらぐらいなんですか?」
森永「入れるログの量とかで従量課金になります。」
大栗「CloudTrailとか、VPC Flow Logsとか、DNSのクエリログとかのログを分析して、これが駄目か良いかってのを判断してくれて、やばいやつがいたらアラートを上げてくれるってサービスですからね。」
河野「連携するやつ、トレンドマイクロさんはもうローンチされてました(笑)F-Secureも頑張ります!」
クロージング
甲木「そろそろ時間がやばいですね。」
嵩原「気づいてくれてありがとうございます。宴も酣ではございますが、せーのさんから今日のまとめを一言ずつお願いします。」
せーの「お昼時間にこんながやがやしたトークですいません。出てるサービスは非常に良いサービスで、Developers.IOというブログにですね、re:Inventのポータルサイトのカタチでまとまっていますので、そちらをご覧になって今紹介されなかったサービスとか是非チェックして下さい。」
大栗「相当すげーサービスいっぱい出てるんですけれど、特にマルチリージョン対応とか言ってますが、すごく良いサービスです。ただ選択肢が拡がってるんです。設計が難しくなってるんで、ちゃんと皆さん考えて使いましょう。」
森永「明日セキュリティ系のサービスもうちょっと出てくると思うので、それをちょっと楽しみにしています。」
甲木「とにかく新しいサービス沢山なので、皆さん頑張って昨日覚えましょうね。ホントお腹いっぱいです。」
大瀧「うちのメンバー総出でブログを書いています。是非引き続きブログ記事で最新情報を追っていただければと思います。で、インフラ系は明日のKeynoteでも載るか怪しいので、新情報出たら一生懸命ブログを書くのでそっちを見ていただければと思います。」
河野「F-SecureもこれからもAWS環境で頑張ります。パンツァーフォー!」
長谷川「事業会社からすると、イノベーションってハードウェアから生まれると思うのがあるんで、やっぱりDeepLensとか楽しみにしてるんで、もっとより良い小売業環境になればいいなと思って、DeepLens期待しています。」
里見「今日あまり出なかったんですけれど、AWSのメディア系のサービスも昨日発表されてまして、そのへんも割と注目してるので、試して、是非うちのゲストブロガーに書いて貰おうかなーと考えています。もちろんDevelopers.IOで。」
嵩原「引き続き、Developers.IOを御覧ください。今年はポータルサイトも作ってるので、そちらから短時間でキャッチアップもできるようになっています。今日は皆さんありがとうございました。」
さいごに
対談形式ということで、このような形でのブログ掲載を初めて試みてみましたが、トークの中でポンポンサービスの説明が出てくるあたり、本当にAWSを愛しているんだなっていうのが伝わるかと思います。楽しく技術を解説する、こう出来るんじゃないかっていう展望を扱うことは弊社メディアではあまりなかった機会であり、今後こういった会があれば是非参加したいなと思えるものでした。ご協力頂きました長谷川様、里見様、河野様、誠にありがとうございました。