【新機能】Amazon RekognitionにImage Moderationが追加されました!

2017.04.20

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

ご機嫌いかがでしょうか、豊崎です。

AWSから大量のアップデートがありましたね。 ここでは本日4月20日(現地時間19日)に発表されたAmazon RekognitionのImage moderationを触っていきたいと思います。

Image moderationとは

Amazon Rekognitionの追加機能で、moderation(「節度」とAWS公式サイトでは表現しています)を判定する機能です。 具体的には、不適切な画像(例えばヌードや、露骨ないやらしさなど)を判定することができる機能です。

判定には詳細なサブカテゴリがあり、どこまで許容するかサイトによってチューニングすることができます。 AWSマネジメントコンソールからテストができますので、触りながら確認していきましょう。

Image moderationを触ってみる

Amazon RekognitionダッシュボードにImage moderationが追加されていますので、早速触っていきましょう。

Rekognition_Console_5

画面には「明らかな、もしくは際どいアダルトコンテンツを自動で検出し、信頼のスコアを提供します。」とあります。

Rekognition automatically detects explicit or suggestive adult content in your images, and provides confidence scores. (Your images aren't stored.)

Rekognition_Console_6

それではサンプルの画像が2つ用意されているので、そちらを利用してテストを行いたいと思います。

まずは海辺でのピクニックを楽しむ家族の画像から。

Rekognition_Console_3

結果は以下のように表示されます。 もちろんmoderation labelsは検出されません。

Rekognition_Console_2

では次に、海辺で水着を着てヨガ(?)をしている女性の画像を判定してみます。

Rekognition_Console_1

こちらはmoderation labelsが検出され、 戻り値には、「Suggestive」と詳細内容「Female Swimwear Or Underwear」、が書かれています。 戻り値には親子関係があり、親:Suggestive、子:詳細(どのような理由で)、そしてパーセンテージとなっています。

Rekognition_Console

SDKからDetectModerationLabrelsを呼び出すことで利用することができます。

画像の権利上、サンプルを利用した紹介になりましたが、自身で画像をアップロード、もしくは画像のURL(httpsのみ)から判別することもできます。

さいごに

ユースケースとしてはやはり画像投稿サイトのようなものがメインになるのでしょうか。精度が気になりますが、いろんな人がこぞって試すと思いますので、続報(developers.io)を待ちます。 Amazon Rekognitionの追加機能、Image moderationのご紹介でした。

参考URL

Amazon Rekognition Update – Image Moderation(英語)

Amazon Rekognitionアップデート – 画像の節度(日本語)

DetectModerationLabels