Amazon Rekognition Videoで有名人の不適切な動画を分析する #reinvent
乗るしかない、このビッグウェーブに。
はじめに
Amazon Rekognitionの新機能、Amazon Rekognition Videoが発表されました!
さて、僕はこれまでAmazon Rekognitionを様々な不適切コンテンツに利用してきました。
- Amazon RekognitionのImage Moderationを活用してTwitterの不適切な画像を収集する
- Amazon RekognitionでTwitterから有名人の不適切な画像を収集する
今回は、Amazon Rekognition Videoに、有名人の不適切な動画を分析させてみようと思います。ユースケースとして、SNSでシェアされている動画から不適切な動画を判断したり、セレブリティ分析によって有名人のプライベートな動画の流出を検知したり、ということを想定しています。
はい、まぁ、やってみたかっただけです。
やってみた
まず、有名人の不適切な動画を入手します。また、Amazon Rekognition Videoが分析可能な動画は最長1分なので、動画を編集し1分の長さにします。細かいことはご自身でチャレンジしてみてください。
Amazon Rekognition管理コンソールから[Video Demos]-[Video analysis]をクリックします。[Choose a sample or upload your own]欄をクリックし、[Your own video]をクリックします。
以下の様に表示されるので、対象の動画をドラッグ・アンド・ドロップします。
必要なS3バケットの作成を求められるので[Create]ボタンをクリックします。
しばらく待っていると分析結果が表示されます!
画像自体は色々問題があるのでモザイクをかけました。Peopleの結果として、実際には男女2名しか登場していないのですが、映像が暗いせいか、表情が大きく変わるせいか、5人と検知しました。
Celebritiesの結果。ちゃんと認識しました!女性については正解です。男性については僕の知らない人なので正解かどうかを判断出来ませんでした。
Objects and activitiesについて。人でいて、インドアで、カーペットやフローリングなどのオブジェクトもちゃんと認識できています。
ModerationLabelsはJSONファイルでダウンロードできます。一部を抜粋。ちゃんとNudityで認識しています。
{"ModerationLabel":{"Confidence":93.25570678710938,"Name":"Explicit Nudity","ParentName":""},"Timestamp":21200}, {"ModerationLabel":{"Confidence":93.25570678710938,"Name":"Graphic Female Nudity","ParentName":"Explicit Nudity"},"Timestamp":21200}, {"ModerationLabel":{"Confidence":98.85767364501953,"Name":"Explicit Nudity","ParentName":""},"Timestamp":21400}, {"ModerationLabel":{"Confidence":98.85767364501953,"Name":"Graphic Female Nudity","ParentName":"Explicit Nudity"},"Timestamp":21400},
さいごに
ある特定のユースケースではありますが、活用方法はかなり幅が広がるのではないでしょうか。Kinesis Videoと連携して客層分析などにも使えますね。