[新機能] Amazon Rekognitionで「暴力」および「過激な描写」が検出できるようになりました

[新機能] Amazon Rekognitionで「暴力」および「過激な描写」が検出できるようになりました

Clock Icon2019.08.30

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

はじめに

この記事は「ブログにしていなかった新機能を拾っていくぞ」のコーナーです。

今回ご紹介する新機能は2019年8月9日にリリースされたこちら!

これまでのRekognitionでは「明示的なヌード」および「暗示的なヌード」を検出することが出来ました。今回のアップデートで、「暴力」および「過激な描写」についても検出することができるようになりました。

具体的なモデレーション対象のコンテンツラベルはドキュメントに記載されており、以下の通りです。Explicit Nudity(明示的なヌード)とSuggestive(暗示的なヌード)はこれまでも検出できており、今回追加されたのがViolence(暴力)とVisually Disturbing(過激な描写)です。

Top-Level Category Second-Level Category
Explicit Nudity Nudity
Graphic Male Nudity
Graphic Female Nudity
Sexual Activity
Illustrated Nudity Or Sexual Activity
Adult Toys
Suggestive Female Swimwear Or Underwear
Male Swimwear Or Underwear
Partial Nudity
Revealing Clothes
Violence Graphic Violence Or Gore
Physical Violence
Weapon Violence
Weapons
Self Injury
Visually Disturbing Emaciated Bodies
Corpses
Hanging

やってみた

とりあえずやってみましょう。しかし!この手の画像検出でいつも問題になるのは著作権問題です。しかし!なんとAmazon Rekognitionのデモ機能である「画像の節度」は、分析した画面をボカして表示してくれます。これは便利。ということでやってみます。

まずは武器の画像。拳銃の写真を使ったところ、Weaponsとして認識されています。

こちらは「マッドマックス 怒りのデス・ロード」のある場面の画像ですが、Weapon Violenceとして認識されました。

こちらは「KG カラテガール」という映画で、主人公の女子高生が飛び蹴りしているシーンなのですが、Physical Violenceとして認識されました。

こちらはゾンビコスプレの画像。Graphic Violence Or Goreとして認識されました。

ということで、ちゃんと「暴力」および「過激な描写」の検出が出来ていますね!

さいごに

実際にコンテンツをフィルタリングする際には、やはりヌードだけではなく暴力的な表現についてもモデレーションする必要があります。Amazon Rekognitionを使ったコンテンツ分析とフィルタリングが更に便利になりましたね。

Share this article

facebook logohatena logotwitter logo

© Classmethod, Inc. All rights reserved.