【新機能】Amazon RekognitionにImage Moderationが追加されました!
ご機嫌いかがでしょうか、豊崎です。
AWSから大量のアップデートがありましたね。 ここでは本日4月20日(現地時間19日)に発表されたAmazon RekognitionのImage moderationを触っていきたいと思います。
Image moderationとは
Amazon Rekognitionの追加機能で、moderation(「節度」とAWS公式サイトでは表現しています)を判定する機能です。 具体的には、不適切な画像(例えばヌードや、露骨ないやらしさなど)を判定することができる機能です。
判定には詳細なサブカテゴリがあり、どこまで許容するかサイトによってチューニングすることができます。 AWSマネジメントコンソールからテストができますので、触りながら確認していきましょう。
Image moderationを触ってみる
Amazon RekognitionダッシュボードにImage moderationが追加されていますので、早速触っていきましょう。
画面には「明らかな、もしくは際どいアダルトコンテンツを自動で検出し、信頼のスコアを提供します。」とあります。
Rekognition automatically detects explicit or suggestive adult content in your images, and provides confidence scores. (Your images aren't stored.)
それではサンプルの画像が2つ用意されているので、そちらを利用してテストを行いたいと思います。
まずは海辺でのピクニックを楽しむ家族の画像から。
結果は以下のように表示されます。 もちろんmoderation labelsは検出されません。
では次に、海辺で水着を着てヨガ(?)をしている女性の画像を判定してみます。
こちらはmoderation labelsが検出され、 戻り値には、「Suggestive」と詳細内容「Female Swimwear Or Underwear」、が書かれています。 戻り値には親子関係があり、親:Suggestive、子:詳細(どのような理由で)、そしてパーセンテージとなっています。
SDKからDetectModerationLabrelsを呼び出すことで利用することができます。
画像の権利上、サンプルを利用した紹介になりましたが、自身で画像をアップロード、もしくは画像のURL(httpsのみ)から判別することもできます。
さいごに
ユースケースとしてはやはり画像投稿サイトのようなものがメインになるのでしょうか。精度が気になりますが、いろんな人がこぞって試すと思いますので、続報(developers.io)を待ちます。 Amazon Rekognitionの追加機能、Image moderationのご紹介でした。
参考URL
Amazon Rekognition Update – Image Moderation(英語)