【レポート】Amazon Connect の活用 ~コンタクトセンターにもたらされる迅速なイノベーション~ #AWSSummit

2018.05.30

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

はじめに

オペレーションチームの下田です。 2018年 5月 30日(水) 〜 6月 1日(金)の期間に、グランドプリンスホテル新高輪で開催されている日本最大級のクラウドコンピューティングカンファレンス AWS Summit Tokyo 2018 に参加しています。

「Amazon Connect の活用 ~コンタクトセンターにもたらされる迅速なイノベーション~(同時通訳)」を聴講しましたので、レポートしたいと思います。 スピーカーは、Amazon Web Services, Inc. Sr. Solutions Architect, Amazon Connect の Yasser El-Haggan さんです。

セッションに関する紹介文を、公式サイトから引用します。

Amazon Connect を活用することで、あらゆる規模のビジネスが顧客体験を改善し、コンタクトセンターの効率性を改善しています。本セッションでは、大規模エンタープライズ におけるマイグレーション事例を解説するとともに、AWS の機械学習 /AI サービスである Amazon Lex , Amazon Polly , Amazon Comprehend, Amazon Transcribe などを組み合わせることによる可能性の広がりをご紹介します。

セッションで登場するサービスについて

AWS 公式ドキュメントを引用し、予めご紹介しておきます。

Amazon Connect は、あらゆる規模の顧客窓口をセルフサービスで構築して、より良いサービスを低コストで提供できるクラウド型コンタクトセンターサービスです。

Amazon Lex は、音声やテキストを使用して、任意のアプリケーションに対話型インターフェイスを構築するサービスです。

Amazon Polly は、文章をリアルな音声に変換するサービスで、話すアプリケーションを作成でき、まったく新しいカテゴリの音声対応製品を構築するサービスです。

Amazon Comprehend は、機械学習を使用してテキスト内でインサイトや関係性を検出する自然言語処理 (NLP) サービスです。

Amazon Transcribe は、開発者が音声をテキストに変換する機能をアプリケーションに簡単に追加できるようにする、自動音声認識 (ASR) サービスです。

レポート

基本的に英語のセッションであり、同時通訳された内容を纏めたレポートである点を、予めご了承ください。

概要

Amazon のビジョン

  • 地球上で最もお客様を大切にする企業であること

Amazon がコンタクセンターにもとめているもの

  • スケーラブル
  • オープン

コンタクトセンターインフラの課題

  • 複雑
  • インテグレーションが困難
  • 高コスト

Amazon Connect の特徴

  • 100% クラウドベース
  • セルフサービスのコンフィグレーション
  • ダイナミックで個々人に合わせた自然なコンタクトフロー
  • オープンプラットフォーム
  • AWS エコシステムと連携

オープンプラットフォーム/統合が容易

  • 顧客のDB/CRM などから Lambda と連携できる
  • Contact Control Panel(CCP) の API を組み込み、オペレーターなどの体験を改善する
  • 通話録音の記録を S3 ストレージに保存することができる(そのため、KMS で暗号化可能)
  • メトリクスは、データウェアハウスにエクスポート可能
  • エージェントのデータを、ワークフォースとして管理可能

Capital One Bank 様の実例紹介

  • 全米 TOP10 銀行の1つ

電話通話の環境は、リテール、ダイレクト・バンキングで異なる(カスタマーサポートにおいて非効率) 主要ベンダーのサービスを検討した結果、Amazon Connect には4つの利点があった。

  • 戦略的連携
  • 市場投入の速さ
  • 運用性
  • ユーザー体験

移行を5ヶ月間で完了させることができ、関係者から移行が簡単で、音質が良いなどのフィードバックが得られた。

次に、下記のデモンストレーションが実演されました。

  • 電話をかける(初めての電話に対する通常反応)
  • 再度、電話をかけると初回とは異なる反応が(「再度電話してくれてありがとう」)返ってくる

Amazon Connect から Polly に連携しテキストを読み上げ、Lambda で取得した情報を DynamoDB に保存。保存した情報を参照し、言語など各種情報を学習し2回目以降の処理に活用していくという説明でした。またこれにより、顧客体験の向上と、オペレーターの負担が軽減されるとのこと。 例えば、顧客の電話待ち時間などをオペレーターに表示させ、オペレーターはその情報を見ながら顧客対応を変化させることによって、より良い体験を提供できることが可能になる旨の説明がありました。

次に、下記のデモンストレーションが実演されました。

  • 電話をかける(停電している旨を、電話で伝える)
  • 周辺地域の停電情報や、何件目の報告であるかなどの情報が音声で返される

このデモでは電話での音声情報から電話での内容(文脈)を理解し、電気供給企業のチャットボットなど(API 連携)を活用することにより周辺地域の情報を取得し、その結果を返す処理が実現できる旨が説明されておりました。

また Amazon Connect には、CTR(問い合わせトレース記録)変換があると説明されておりました。音声入力文字起こしは、Transcribe で行い音声データを S3 に保存、文字へ起こして分析することができるとのことです。

例えば、通話記録をもとに、音声情報を分析することにより顧客の感情を類推し、エージェントの対応が適切だったか後で確認することができるという説明がありました。

最後に Amazon Connect と Alexa のデモを行う予定でしたが、Alexa のネットワーク接続性の問題により、急遽以下のようなデモに変更されました。

  • チャットウィンドウで、Bot(Lex)に対して、いろいろなメッセージを入力する
  • 入力されたメッセージの文脈に応じた返答が Bot から返される

まとめ

音声からテキストに変換したり、テキストから音声に変換することで色々なことができるようになることを学びました。また、個人的には Amazon Echo(Alexa)を普段から利用していますが、そのうち会話する相手が人間なのか AI(コンピューター)なのか判別できない時代がやってくるんじゃないかと妄想し、少しワクワクしました。現場からは以上です。

ではでは