「週刊Developers.IO〜ざっくり分かるこれからの機械学習〜」前後編まとめ #週刊DevIO #YouTube
クラスメソッド公式YouTubeチャンネルでは2020年7月21日と7月28日の2週で前後編にわたり、「週刊Developers.IO〜ざっくり分かるこれからの機械学習〜」と題してAIスペシャリストのせーのと司会のtake3000によるトークセッションをYouTubeLiveにて放送。本記事ではトークの書き起こしを交えたハイライトをお届けします!
こんな方におすすめの動画です
- 機械学習に入門しようと思っている方
- AI(人工知能)にできること、できないことをざっくり理解したい方
- 機械翻訳や画像認識、汎用AIについて知りたい方
トークセッションの動画はこちら
目次
【前編】「単純労働ほど複雑な仕事はない」の衝撃
- スピーカー自己紹介
- 気軽に機械学習にトライできる「AIツールキット」
- プログラムとAI(機械学習)の違いは?
- 人間の仕事はAIに奪われる?
- AIは手塚治虫になれるか?
【後編】AIには無く人間にはある◯◯心
- AI政治家は誕生する?
- 機械学習で民意を分析して政策を決める
- 人間とAIの違いは「◯◯心」の有無
- 二次元から三次元のモデルを作るAI
- 職人技を機械学習とクラウドで伝承する
- 意味を理解する機械「AGI」とは?
【前編】「単純労働ほど複雑な仕事はない」の衝撃
以下、セッションの一部書き起こしです。 *1
スピーカー自己紹介
皆さん、こんにちは。クラスメソッドの清野と申します。
(中略)現在は機械学習(の中でも)特にですね、うちが主催してるカフェ *2ですね。カフェの中の機械学習についてのアイデア出しとか研究とかそういうものを担当しております。
(元々AWSをやりたくて入社し、AWSを1年経験してからIoT→Alexa→機械学習と様々な分野に挑戦)
気軽に機械学習にトライできる「AIツールキット」
ーーオンライン技術イベント「Developers.IO 2020 CONNECT」のセッションでAIツールキットを紹介した理由について教えて下さい。
今エンジニアが機械学習を学ぶ時に一番とっつきやすいのは何なのかというのを考えた時に、このAIツールキットなんじゃないかなと思って紹介しました。(中略)
セッション動画はこちら
機械学習の知識ゼロでも動かせるAIツールキットの世界 #devio2020
インテルが作ったAIツールキットは、本当にあのAPIを叩くだけで、例えば骨格検知ができたりとかセグメンテーション、ここは道路で、車が走ってますって言うのを、写真一発から判断(できる)というのがAPIを叩くだけでできてしまうというのは、エンジニアにとってはすごいとっかかりがいいんです。
プログラムとAI(機械学習)の違いは?
機械学習もプログラムと同じで入力に対して出力が返ってくる。これは一緒です。同じなんですけど、要はプログラムの場合はそのプロセスをコードとして書くんですね。「Aの場合、Bになります」とか「Aっていう入力をされたらCっていう答えを返しなさい」。計算して、みたいなことをコードで書くのがプログラム。
なので逆に言えば、プログラムされてるものは絶対にその答えが返ってくるし、プログラムされてないものはどんなに頑張ってもその答えは返ってこない。なので結果が間違っていれば、それは確実にコードが間違っているから直しなさいっていう話になるんですけど、機械学習の場合は逆に入力と出力の2つが与えられて、その間を機械が学習しなさいっていうプロセスをとるんですね。
人間の仕事はAIに奪われる?
13年で馬車がクルマになったNY
1900年のニューヨークの五番街の写真 *3なんですけど、この頃の交通手段っていうのは馬車が一番ポピュラーで、皆さんその馬車に乗って、タクシー代わりですね、移動するんですけど。この馬車のメンテナンスするのに大量の人たちが関わっていて、当然馬車の運転手もいて、朝から晩までこういう馬車の仕事をしている人が大勢いた。
なんですけど、1907年にフォードのT型っていう新しい大衆車、車ですね。これが開発されましてこれが安くてとても一般庶民になじみのあるものということでわずか13年で(1913年)こういう風に変わります。
同じ五番街 *4です。同じ場所を探してるんですけど馬車っていうのはもう一つしかない。ここにある馬車だけで、あとみんな車に変わってるんですね。
この時に言われていたのが馬車(の会社)を経営している人とか、あと馬車のメンテ、馬のお世話をしてる人とかそういう人たちって「この機械が出ることによって仕事を失うじゃないか。なんだこんな乗り物は!絶対に良くない!」ってすごく言われていてこのフォードT型が出るまでの反対の運動が起こったんですけれども、実際、いま機械でそのフォードT型の車が大勢出たことで確かに馬の仕事は減ったんですけど、代わりに自動車の整備工場ができて結果的に失業率っていうのは下がったんです。
つまり、馬の世話をする人たちは仕事は無くなるけど車のお世話をする人たちが逆に増える。同じことでAIみたいなことが、今やっている仕事の代わりをしてくれるかもしれないですけど、それに代わる仕事が必ず出てくるので心配をする必要はないというか、デンと構えていればいいんじゃないかなという風なことが思います。
単純労働ほど複雑な仕事はない
「AIが代わりに働いてくれるから人間は仕事をしなくてもお金が稼げるようになる」って言っている人がだんだん増えてきていて、実際にコピーロボットみたいなものが実現しようとしていて。ホリエモンのコピーロボットみたいものを大学の人が作っていて、登壇の仕事とか講演会みたいなのはそのコピーロボットが行くという。で、本人仕事しないっていう。
なんかそういうのを今試してるらしいんですけど、それすごい特殊な例で、多分講演会にそのホリエモンのコピーロボットが来てもギャラって支払いたくないと思うんですよ、たとえ同じ話をしても。だから、おそらく仕事がなくなるって言うことはほぼないので、(AIが)何の仕事をするかっていうのを見ていくだけでいい。
どっちかって言うと、いわゆる単純労働の人たちの仕事が奪われるんじゃないかっていう風に言われてるんですけど機械学習に関わってる人間からすると、単純労働をしている人の仕事ほど複雑なことはなくて。
今僕カフェやってるんですけど、カフェでも(人間が行う)レジの作業っていうのはなくせるんですけど、品出しの作業っていうのはなくせないんです。棚に物を入れるって言うのは人間じゃないと出来ない作業で、単純作業って言われるんですけど、これができるのは人間だけで。
Developers.IO CAFEのレジレス決済技術についてはこちら
レジレス、完全キャッシュレス店舗「Developers.IO CAFE」技術紹介
ロボットにこれをやらせようとすると、棚の位置を覚えて形状覚えて、つかめるようにして壊さないようにした物っていうこと考えると、人間雇った方が絶対単価が安いので。
どちらかというと、その経営を判断する経営層の方がAIにとって代わられる。いつキャンペーンを打つかとか、どこに店舗を建てましょうとか、そういう判断をするのがAIは得意分野なので、どちらかというと奪われるのは単純労働ではなくて経営判断をしている側だと思います。
AIはプログラムを書けるようになるのか
プログラムをコーディングっていう形で定義するとすれば、結構前、機械学習できる前から、例えばUMLモデルっていう設計書みたいなのがあるんですよ。設計書みたいなものを作れば、ソースコードとテストコードは自動でかけますよ、みたいなのはありますが、今GitHubでもコードレビューのボットっていうのがありまして、人間よりも早い仕事をする。
なのでコードを書いてGitHubにあげるとボットが自動的にレビューをして「ここ間違ってるよ」って指摘してくれるっていう。それ多分レビュアーよりも早いのでそういうコード(のレビュー)に関して言えば機械学習で置き換えることはできます。問題はその設計ですね。
設計部分っていうのが機械学習で作れるのか、というとこなんですけど、結論から言うと目的、つまりタスクがしっかりしていれば設計することもある程度は可能。
(例として、画像からhtmlのコードを自動で書く機械学習のソリューション「FloydHub」を紹介)
AIは手塚治虫になれるか?
――AIに過去の漫画を学習させて手塚治虫さんの新作漫画を作ってみた(企画)が話題になりました。音楽や映像、ゲームでもAIの利用例が出てきています。こういったもの(AIによる創造)についてはいかがですか?
クリエイションとは模倣であるっていう考え方に根付いて考えていくと、機械学習でもクリエイターになれる可能性はいくらでもあると思ってます。それの研究の一つが先ほど言っていた「手塚治虫風の漫画を書く」。
これ例えば手塚治虫風の漫画を書くで全部の漫画を機械学習が書いてるわけではなくって、機械学習が担当してたのはプロットって言われる話の筋、物語の展開の筋とキャラクターですね。手塚治虫さんが書きそうなキャラクターを作り出す。
この2つを機械学習が担当したんですけど、例えばこんな感じでプロットの場合、手塚治虫さんの漫画を全部読んだ結果、手塚治虫さんの漫画は13のフェーズに分けられる。
この13のフェーズを組み合わせることによって物語というのは小説として完結する、なので手塚治虫さんのストーリーとかをすべてこの13のページにラベリングしていく。ラベリングしていった結果学習させて出来上がったプロットがこれですと。
現代の日比谷でアクションの世界があって、主人公は少年で、少し明るくて強い。こういう物語性と、あと手塚治虫さんの作家の世界観みたいなものを学習させた結果、ここら辺ぐらいまではできる。
あとキャラクターなんですけど、キャラクターはGAN(敵対的生成ネットワーク)っていう仕組みを使うんですけど、GANていうのはこんな感じなんですけど。
ジェネレーターっていう機械学習モデル、つまり偽物を生成するモデルと、あとディスクリミネータっていう、それが偽物かどうかを判別する機械学習モデル。この2つのモデルを競わせることによって、どんどん精度を上げていく。それを使ってキャラクターを作り上げる。
例えばこういう仕組みを使うと、アイドルの写真なんですけど、元々こういうアイドルは存在しない。その機械が作り上げた架空のアイドルを出します。これはたくさんいる日本のアイドルの写真をすべて入れて敵対的生成ネットワークで学習させ続けた結果、こういうアイドルが出来上がります。でこれをもとに、手塚治虫さんの漫画っていうのも作り上げてみたんですけども、なかなかこんな感じになってしまって顔として認識しない。
手塚治虫の漫画っていうのは白黒なので、家の周りの景色とキャラクターの相関がうまくいかなくて、GANではこの程度ぐらいしかできなかった。そこで、人間が発想を転換させて、一般にある人間の顔を学習させたデータモデルを転移学習させて、それに手塚治虫の漫画のキャラクターを追加で学習させる。要は人間の顔と手塚治虫のキャラクターを組み合わせる。そうすると、こういう感じになりまして。
ここら辺の中から良さげなキャラクターを見つけてきて、「ぱいどん」っていう新しい手塚治虫さん(風)の漫画を作ったということなんですね。
なのでクリエイションっていう観点でいくと、「転移学習させるっていう発想をするのがクリエーションであって、キャラクターを作るのはクリエイションって言わない」っていうような観点でいくとクリエイターっていうのは必要ですし、そもそも手塚治虫風の漫画を作るには、手塚治虫がいないといけないので、手塚治虫になるっていう、その0から1を作るクリエイション、のためのクリエーターは必要なんですけど、クリエイターを模倣であるっていう観点で捉えると、このようなことぐらいは機械学習ができる。
【後編】AIには無く人間にはある◯◯心
AI政治家は誕生する?
AIとか機械学習が得意な部分は、過去の事例から判断するっていうところですね。その過去の事例から判断するっていうのの最たるものといえば、確かに政治ということになるので、過去の色んな出来事を踏まえてこれからの国をどうやって動かしていくのかっていうところを判断させるのは誰かにAIが得意とするところではあるんですね。
なので(AIは政治に)使えると言ったら使えるんですけども、結論から言ってしまうと責任が取れないので、AIは。これ色んなところで話題になってるんですけれども、自動運転とかでもどうやって何か事故が起きた時アクシデントが起きた時の責任をどういう風にとるのか、それは法律的な意味も含めてそこら辺の判断とか整備ですね。法整備みたいなものがまだできていないので、実現するのは多分かなり先の話になると思います。
機械学習で民意を分析して政策を決める
将来的に間接民主制 *11ってこと自体が機械学習が発達することによって取りやめるということは、もしかしたら決断的にはできる。つまり直接民主政。国民が一人ひとり意見を述べて国民が一人一人の思いをどこかに表明すると。表明したものを機械学習によって分析して、その最大値の政策を決めていくっていうことは機械学習の原理から言えば可能ですけども、そうなるとそれに対して必ず重み付けというのが必要になってきます。
(間接民主制の選挙では民意に反する候補者が当選してしまう「ペア敗者」の問題がある *12)
機械学習っていうのは、全部の条件が均一に並べられているわけではなくて、この条件は重い、この条件は軽いっていうのが重みづけによって色々分かれてくるんですね。
例えば四本足で歩いてるのは犬です、っていうのとあと、目がクリクリっと丸いのは犬ですって2つの条件があった時に、目がクリクリっと丸いよりも四本足で立っている方が重みづけ的には重いと。そういうのの重み付けっていうのを考えた時に、おそらく直接民主制になった場合に国民一人一人に重み付け化されるだろうと。
誰かの意見は重く捉えられて、誰かの意見は軽く捉えられる。そうなった時に、その個別の重み付けをどうとるか。例えばお金を持っている人の意見は重いのかとか、町の権力者だったら重みがあるのかとか、学者とか知識があれば重みがあるのかなっていう。そのどういう風に重みをとるのかっていうのが、おそらく問題になってくる。
人間とAIの違いは「◯◯心」の有無
――研究者にとって、例えば基礎研究とかそういったものでもAIは役に立つ?
基礎研究っていうのは簡単に言ってしまうと、公式がないものから公式を作り出す。公式を作り出すためには観察をして、観察の中から法則性を見つけ出して、実験によってそれを立証して、立証した結果それを式として綺麗にまとめあげるっていうプロセスが必要なんですけど、その実験にいま何年も何十年も費やしている研究者の方がたくさんいるわけで。この実験の部分がもしシュミレートできるようになると、それは機械学習として大いに使い道があるという風に考えます。
なんですが、基礎研究の目的を探す、例えば不老不死の薬を作りたい時に不老不死を(実現)するためには、この薬とこの薬とこの薬を混ぜたらうまくいくんじゃないか、みたいなところまでは人間が考えて、それを水に混ぜた結果こうなる、この割合ならこうなる、っていう何百億パターンみたいなものを割り出すのが機械学習っていうなら上手くいくんですけど、「不老不死の薬を作りたい。さあ、AIどうしましょう?」って言うんだと上手くいかないと思う。
ーー目的を決めるとか、道筋を決めるというのは任せられない。
結局そのまま(人間の)脳みそをシュミレートするとどうなるかっていう話になると思うんですけども、最終的には基礎研究は物理学者が宇宙の仕組みを解き明かしたい、みたいのと一緒で何を謎と捉えるかっていうのは最終的には好奇心だったりするんで。好奇心は機械学習ではシュミレート今できないので。そこの部分はやはり人間が作っていかないといけないということですね。
二次元から三次元のモデルを作るAI
ーー今のAIは自分から何かを考え、テーマを決めて動くというわけにはいかない。では、これからのAIはどうなっていくのでしょうか?
すごい近未来で言い出すと、いま機械学習がやろうとしてることは機械に目を持たせるという部分ですね。機械学習いろんな分野があるんですけど、中でもディープラーニングっていう仕組みができたことによって画像認識がものすごく今向上しています。
物体検出、物を写真の中から見つけ出すとか、あと画像の中から人を見つけ出すとか、人の中から骨格を見つけ出すとかそういうような技術がすごく向上していて、今いろんなロボット含め普通のマシンにもカメラが付いている。
なのでそのカメラを使って人間の目が見ている情報とそれの処理っていうものをセットにしてシュミレートするっていうものがいま研究されていて。例えばスタジアムの写真をバーンととって、それを機械学習にかけると「数千人ぐらいの人がいます」みたいな。「千何百何十何人の人がいます」ぐらいは一瞬で判断できるぐらいまでの目を持つようになりました。
ここからさらにどう発展していくかっていう話なんですけど、これは人間が思うような目の使い方を機械もするようになってくる。これどういうことかって言うと、人間って目で見たものをそのまま判断しているわけではなくって、目で見たものを一旦脳に取り込んで、その脳の中でさらにその目で見えない部分も補って最終的に判断をしている。
それを機械も今シュミレートしようとしていて、これ何をしてるかって言うと二次元の映像から三次元のモデルを作り出す(GQNという)技術なんですが、これ何に使うかというと、例えばこう机の上に丸いものと四角いものと円錐状のものが置いてあるんですけど、パッと見た感じ人間であればこれは球体であるとか、これは四角形だけど後ろの方にも(物体が)あるって言うのが分かるんですけど、画像的には当然分かるわけはない。これを機械学習を使って後ろの方まで補って、想像して補った状態でモデルを作ると。
そういう技術なんですけども、これがうまいこといくようになると、見えない部分も人間と同じように想像して処理することができるようになる。例えば陰に隠れてしまった人とかも、想像してここに人がいたはずだから、あの速度で歩いていたらここから出てきた人はさっきの人と同じはずだみたいな。そういうことが人間と同じように判断できるようになってくる。そういうような機械学習の進化を今遂げています。
職人技を機械学習とクラウドで伝承する
匠の技と言われるもの、職人の人たちがひとつひとつ自分たちの技を使って、何か作品を作るとか、何か焼き物を作るとか、そういうような物を大事にしましょう、文化を後継していきましょうっていうことはすごく言われてるんですけれども、結果的に後継者というものが今、非常にいなくて少なくて困っていると。
そうなった時に、機械学習を使ってその熟練したその人たちの技ですね。それを機械学習を使って学習をする。そうすると、その文化、その人の匠の技というものが、クラウド上に残ることになるんですね。そのクラウド上に残った匠の技を、例えば初めて有田焼を学ぶ人とか、そういう「プロになりたいんだけど」っていう人たちに対して機械学習が代わりに教えてあげる。AIがその熟練者と初級者の橋渡しをするような機械の使い方っていうのが、これから増えてくると思います。
意味を理解する機械「AGI」とは?
例えば機械学習をするっていうのは、何か動作そのものを真似るというところから始まるんですけども、動作そのものとか、結論の判断そのものを真似るところから、それは結局どういう原理でそうなっていくのかっていう原理を学ぶっていうところに昇華していく。
なので、例えば翻訳技術ってあるんですけども、機械翻訳、英語を喋ってるのを聞き取って日本語で喋るみたいな、その時にも英語と日本語をモデリング上、対比するってことは今できてる。なんですが、それに対してさらにその翻訳に背景を加えることができるかどうか。例えば初めてその話題を話している人と、何回もこの話題を話してる人では、翻訳する翻訳の仕方が変わる。(中略)その人のバックグラウンドに配慮したような翻訳技術というものが発達していく。
これがいわゆる意味を理解する機械と呼ばれるもので、これは何をしてるかというと、翻訳とは何ですかっていうことを機械が理解できるかどうか。
翻訳っていうものは英語を日本語に変えるという意味ではなくて、英語がわからない日本人に対して英語で書かれたものとか、英語圏の人が言っていることを正確に伝えるということが目的である。翻訳は伝えるということが目的であって、文字を変換するということではない。これが翻訳の原理であって、その原理が理解できるかどうかによって、この機械学習の進化の仕方が変わるんですけど(中略)。
これを最終的にゴールに持っていく。さらに抽象化して、汎用化させていった結果がいま研究されているAGIと呼ばれるものです。 「Artificial Intelligence」が略してAIなんですけど、「Artificial General Intelligence」(中略)いわゆる汎用AIと呼ばれるもので、何をしてるかというと、どう考えるかということを学習している(中略)。
人間がどのように考えて、どのように表現をするかというようなことは、人間の大脳新皮質とか、小脳とか、海馬とか、各脳のパーツがそれぞれ動的に連動することで行われるんですけども、動的な連動っていうのを機械によってシュミレートしようと。そういうのがAGI。
これができるようになると、いわゆるAIの初期に普通の人たちがAIと思っているもの、例えばドラえもんであるとか、ああいうようなレベルの(中略)1個の物事から発生して別の物事ができるような、そういうAIが育っていく。過去の経験を全て別の出来事に転化することができるようになっていくのが、AGIという研究です。
AGIはいつできるか
ーーAGIの話とかって、まだまだだいぶ先の話だと思うんですけど、これってどうなんですか?
まだまだまだまだ先の話ですね。2045年くらいには、形になるんじゃないすかねっていうような。もうちょっと早いと思いますけど。
今2020年なので、2030年とか、2035年とかそれぐらいには、だいたい形になるじゃないかなと思います。
ーードラえもんみたいのは相当遠いにしても、もう少しずつ使われてるってのは確かなので、少しずつ我々も、AIどう活用するのか、実際どう向き合うのかみたいなことに取り組んでいってもいいのかなと思いましたが、いかがでしょうか?
機械学習をやり始めるって言う事は、おそらく今やり始めるとすごく後々、これから行われていく未来の出来事に対しての知見がすごく明るくなると思います。
機械学習を本気でやり始めていくと、どちらかと言うと哲学的な思考に陥ってくるので、それはそれですごく楽しいものなので、一回機械学習の沼ですね、に入り込んでしまえば、あとはどんどんどんどん何かを発明するとか、何かを作る芸術的な感性が開けてくるので。オススメですので、ぜひ機械学習をちょっと足を踏み入れてみてはいかがでしょうか、という感じですね。
(以上、「週刊Developers.IO〜ざっくり分かるこれからの機械学習〜」の前後編書き起こしをハイライトでお送りしました)
チャンネル登録よろしくお願いします!
クラスメソッドのYouTubeチャンネルでは、今後も機械学習やAI、AWS、アプリ開発、データ分析など、さまざまな技術を紹介していきます。
ぜひチャンネル登録よろしくお願いします!
(以下、2020年8月3日18:11追記)
言語生成モデル「GPT-3」について聞いてみた
本章ではOpenAI開発の言語生成モデル「GPT-3」について追記します。GPT-3は入力したテキストに関連する文章を自動で生成できるAIツールで、その応用範囲の広さが話題となっています。本記事で取り上げたセッションには含まれない内容ですが、これからの機械学習とAIを語るうえで欠かせない重要な話題として、スピーカーのせーのに追加で質問をしてテキストで回答してもらいました。
OSSではなくAPIで公開された理由
ーーAI開発を行う非営利組織OpenAIは、2020年6月にネット経由で利用できる言語生成モデル「GPT-3」のAPIを限定公開しました。どうしてより自由に活用可能なOSSではなく、APIでの公開となったのでしょうか?
OpenAIの回答としては、
- 商用APIにすることによって研究費用を回収するため
- 言語モデルが巨大なのでOSSとしてクローン実行するには費用がかかるのでAPI化して小規模な企業でも使えるようにするため
- モデルが有害な使われ方をしないようにするため
の3点だそうです。 *15
「高度なたたき台」で作業効率アップ
ーーGPT-3はどんなことに使えそうですか?
いわゆる「高度なたたき台」として非常に有能だと思います。
GPT-3はメタ的にいくつかのキーワードを与えるとそれっぽい回答を返してくれますので、例えば私達がこんなテーマでブログを書きたい、とGPT-3にお願いすると、それっぽいブログ記事を返してくれるので、後はそこに自分の意見をちょこちょこ挟めばエントリがすぐ出来てしまう。
「こんな感じのレイアウトのWebページ」といえば作ってくれますし、「こんな感じのReactプログラム」といえばReactでそれっぽいプログラムを作ってくれるので、後は手直しして出す。非常に作業効率が良くなると思います。
機械学習の実用化に影響大
ーーAIや機械学習の未来にGPT-3はどんな影響を与えそうですか?
テクノロジーの進化は誰かが考えついたアイデアを個性的な人が他の技術と組み合わせて発展させたところで、大きな資本を持つ企業が大量のリソースを持って一気に実用化に持っていく、という経路をたどることが多いです。
今回のGPT-3はまさに大量のリソースをもって巨大な言語モデルを作り上げた結果、と言ってもいいと思います。これが広まっていくと至るところで実験レベルだった機械学習が本格始動することになり、一気に機械学習を使った働き方が一般化するでしょう。
その一方でGPT-3は本記事内でも話したように「責任」や「法律」の上で現実がテクノロジーの進化に追いついていないことを如実に表していますので、各国で機械が産み出した生成物に対する責任とその法制化が急ピッチで進むことになると思います。
またGPT-3は、あくまで世の中にある言語の組み合わせを学習して、それっぽい答えを返すことができるのであって、その意味は理解できていません。それを踏まえると「機械学習の実用化」には大きな影響を与えますが、「学習する原理を理解する」といった「機械学習の進化」とは少しベクトルが違うように感じます。
(以上、追記終わり)
脚注
- セッションの美味しいとこ取りをするはずが、美味な箇所が多すぎて全体の7〜8割は掲載しています。動画編集ソフトVrewの自動字幕生成機能を使ってラフに書き起こした後、動画を見ながら手動で修正しました。 ↩
- レジレス、キャッシュレス決済のカフェとウォークスルー決済の販売スペースを兼ね備えた飲食店「Developers.IO CAFE」はクラスメソッドの直営店です。 ↩
- 引用元:“Fifth Avenue in New York City on Easter Sunday in 1900”,National Archives and Records Administration, Records of the Bureau of Public Roads (30-N-18827) [VENDOR # 11] ↩
- 引用元:File:Ave 5 NY 2 fl.bus.jpg From Wikimedia Commons, the free media repository ↩
- 引用元:手塚治虫プロジェクト ↩
- 引用元:手塚治虫プロジェクト ↩
- 引用元:人工知能ニュース:演算量を90%減、エッジで画像生成・認識できるAIを三菱電機が開発 (1/2) ↩
- 引用元;株式会社データグリッド公式サイト ↩
- 引用元:手塚治虫プロジェクト ↩
- 引用元:手塚治虫プロジェクト ↩
- 選挙で選ばれた代表者が、議会で話し合って政治を決める仕組み ↩
- 引用元: 「AI白書2019」 ↩
- 引用元;GQN overview ↩
- 引用元:OpenAI API ↩
- 引用元:OpenAI API ↩