Developers.IO 2017セッション「iPhoneによるAlexa/Lex/Pollyを利用した音声対応アプリの作成方法」で話しました #cmdevio2017
2017年7月1日、クラスメソッドが運営するIT系技術ブログDevelopers.IOのカンファレンスイベントである、Developers.IO 2017において、セッション「iPhoneによるAlexa/Lex/Pollyを利用した音声対応アプリの作成方法」を担当させて頂きました。
「音声対応」といっても、近年では、クラウド上のAIサービスの進化により、決して、単純に「音声が流れる」という程度のものでは無くなって来ています。
AlexaやLexを利用すると、深層学習技術による 自動音声認識(ASR) や 自然言語理解(NLU) により、ユーザーには、あたかも人と会話しているようなUXを提供することが不可能ではなくなって来ていると思います。
本セッションは、以下を、ゴール(目標)として構成しました。
- Amazonの各種音声サービスの概要
- 音声対応クライアントの実装方法
- 要件に応じたサービスの選択
少しでも、皆様の印象に残っていれば幸いです。
発表スライド
発表に使用させて頂いたスライドです。
セッション概要
セッションの概要は、以下のとおりです。
(1) アジェンダ
Alexa及びLexについてが、主な内容です。
- Overview
- Alexa
- Lex
- Polly
- Summary
(2) 概要
AlexaとLexのサービスの概要について、特に入出力として、テキストと音声が、どのように利用可能かについて紹介させて頂きました。
(3) Alexa
クラスメソッドでは、既に、Alexa用のクライアントとして、iOS及びAndroidアプリを公開しております。
セッションでは、その経験を元に、作成方法を、以下の項目で解説させて頂きました。
(4) Lex
先日のAWS Summit Tokyoでは、クラスメソッドブースで、仮想店舗(コーヒーショップ)における、音声と画面操作を併用した注文アプリのプレゼン展示を行いました。
こちらのアプリは、Lexを利用して作成されておりました。
この時の経験を元に、Lexのクライアント側アプリの作成方法について、下記の項目で解説させて頂きました。
(5) Polly
Pollyについては、簡単ですが、以下の内容でお話しました。
まとめ
音声対応のUXをユーザーに届けたいと考えた時に、どのようなサービスを組み合わせるのが最適か?、また、その作成方法は? というような疑問に、少しでも答えが導かれていれば幸いです。
深層学習技術による 自動音声認識(ASR) や 自然言語理解(NLU) は、今後、ますます進化するでしょう。そして、これらのサービスをうまく活用することで、更に素晴らしいUXが構築できるのでは?と、個人的には楽しみにしております。