[レポート]AWS AI/MLサービスを利用して、ユーザが安心してゲームをプレイできる環境を提供する方法 #reinvent

[レポート]AWS AI/MLサービスを利用して、ユーザが安心してゲームをプレイできる環境を提供する方法 #reinvent

ゲームをプレイして、他のプレイヤーから嫌がらせを受けた経験がある人は多くいます。その経験によりゲームから離れてしまう人も後を絶ちません。そこでAWS AI/MLのサービスを使って、ユーザをそのような不快な経験から守る方法のチョークトークに参加してきました。
Clock Icon2022.12.06

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

こんにちは。ゲームソリューション部の出村です。

AWS re:Invent 2022 にてチョークトークである「Protect gamer experiences with AI content moderation」に参加してきました。そのチョークトークについてレポートをお届けします。チョークトークとは40人程度の小規模な会場で講演者と受講者がお互いディスカッションなどをしながら内容を進めていくセッションのことです。

そのセッションレポートについてお届けします。

セッション概要

72 percent of gamers experience toxic behaviors, and 22 percent of them stop playing a game due to toxicity. In this chalk talk, learn how to protect gamers, digital environments, and brands online by automating content moderation with AI.

スピーカー

  • Raviteja Yelamanchili, Solution Architect, AWS
  • Lana Zhang, Sr. AI Services Solutions Architect, AWS

アジェンダ

オンラインゲームなどで遊んでいるプレイヤーは、一緒にプレイしている相手から何度か嫌な事をされた経験を持つことでしょう。そのような経験によりプレイヤーがゲームから離れてしまうこともあります。

そのような経験をプレイヤーにさせないために、AWSのサービスを使用して防ぐ方法などについて解説しています。

内容

ゲームでの嫌がらせがビジネスにどの程度影響を与えるか

ゲーム中において、プレイヤーがどの程度嫌がらせを受けた経験があるかのアンケートがあります。

  • 72%は、ゲーム中で嫌がらせを受けているところを見たことがあります
  • 66%は、ゲーム中で嫌がらせを受けた事があります。
  • 45%は、嫌がらせでゲームを辞めたことがある

ゲーム中のコンテンツ

ゲーム中で使用されるコンテンツには様々なものがあります。テキスト、ボイスチャット、画像やビデオの共有、ゲーム実況などがあります。

これらのコンテンツに対して、他ユーザへ対する嫌がらせなどを検知して、ユーザを守っていく必要があります。

AWSのAI、MLを使った嫌がらせの検知とフィルタリング

そのようなユーザに対する嫌がらせをAWSのAIやMLのサービスを使って検知し、フィルタリングすることができます。コンテンツによって、以下のような処理が行えます。

  • 画像では、その中にあるロゴ、風景、テキストなどを判別し、有害な内容だと判別されればフィルタリングする。
  • ビデオでは、内容を判別し、不適切だと判別された場合はフラグをつける
  • テキストでは、冒涜的な表現や個人情報を自動的に判別為、フィルタリングする機能
  • オーディオに関しては、スピーチやテキストに変換して不適切な表現をフィルタリングする

AWS AIサービスを組み合わせて使う

ゲーム中に参照される画像などの各種データは、このようなAWSのサービス構成で、適切に処理することができるようになります。

例えば、ユーザから送られてきた画像などのデータをS3に保存し、そのデータは、データの種類(テキスト、ビデオ、音声など)にあわせて適切なサービスに流し込み、その結果、問題がある、問題がないをラベリングし、ユーザへその結果を返す、といった具合です。

ここで利用されるAWSサービスも、そのチェックする対象によってさまざまに使い分けられます。例えば画像中のテキストをチェックするには、Amazon Textractを使って画像中のテキストを抽出し、そのテキストをAmazon Comprehendを使って、文自体が相手を冒涜しているものであるどうかを判別する、といった具合です。

利用している企業

実際にこれらAWSのサービスを使ってユーザを保護しているサービスがあります。例えば、ポコチャでは、喋った内容をテキストに変換し、個人情報や問題ある発言を認識しないようにしています。

デモ

ここでは簡単なデモが行われてます(ここでは不適切な単語や画像が登場しますが、デモなのでご了承を)。

例えば、Usernameに不適切な単語があれば、どの単語が不適切かを表示しています。また画像に関しても、不適切な画像であると、ちゃんと判別しています。

次に個人情報をチャットで聞き出した場合の対処となります。このデモでは以下の様な場合を判別して、フィルタリングが行われています。

  • 年齢を尋ねられた場合
  • 自宅の住所を尋ねられた場合
  • 電話番号を尋ねられた場合

この場合は、年齢や住所などが適切にフィルタリングされていることがわかります。ここでは、英語ですが、それらは他の言語であっても対応することができます。

画像に関しても判別することができます。例えば、アップロードされた画像の内容自体を判別し、不適切であると判別できます。

まとめ

これまでは、このような不適切な用語などを検知する場合は、テキストであれば不適切な用語の辞書をもとに部分一致している箇所があれば不適切だと判別するといった方法が用いられてきたと思います。

これでは、文脈から不適切だと判別できませんし、画像であれば不適切だと判別することがそもそも不可能、ということでした。

しかし、AWSのAI MLのサービスを利用することによって、より幅広くテキストのみならず、画像、動画、音声にたいしても不適切なモノであるかないかを判別することができるようになりました。

これらのサービスが普及することで、よりユーザに安心して遊んでもらえる環境が作れるようになるのではと考えています。

Share this article

facebook logohatena logotwitter logo

© Classmethod, Inc. All rights reserved.