[イベントレポート] 「CoreMLでアイドル顔識別アプリを作ろう」 というセッションを聞いてきました! #iosdc #a

2017.09.19

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

はじめに

モバイルアプリケーション開発部の田中孝明です。

9/15 ~ 9/17の期間開催された、iOSエンジニアにとっては文化祭的な大イベントiOSDC 2017に参加してきました。
その中で気になったセッションのレポートを書いていきたいと思います。

セッション概要

訓練データの収集→Kerasを用いたクラウド上での学習→訓練結果のCoreMLモデルへの変換→iOSアプリへの組み込み→Vision Frameworkと組み合わせてアプリとして完成、という一連の開発作業のポイントやハマりどころを解説します。機械学習が専門ではないが興味はある、というiOSエンジニアへ向けトークです。

CfPはこちらです。
また、登壇者の松前健太郎 (@kenmaz) さんもご自身のブログにまとめられています。
大人の事情なども踏まえた読み応えのある内容ですので、是非ご参考までに。

iOSDC2017でCoreMLの話をしてきました(あるいは法律相談事務所に行ってきた話)

スライド

セッションの感想

とあるアイドルの顔認識の技術要素について、以前ご自身のブログでまとめられた内容のセッションでした。

CNNの簡単な説明も、学習し始めた自分には取っ掛かりになり、参考になりました。

スクリーンショット 2017-09-19 12.35.48

訓練に関しての詳しい説明はセッションでは行われなかった(15分では無理)のですが、その後のAsk the speakerでお伺いした時、自分が学習させようとした検証データに不備があったところなどを丁寧に説明していただきました。

最後に

松前健太郎 (@kenmaz) さん、面白い話をありがとうございました!
Core MLには僕自身も触る機会があり、学習データについても調査をしていました。
その中で15分という短いセッションでまとめていただいたことに感謝いたします。できれば60分くらいじっくり聞きたかった内容でもあります。
Ask the speakerでお伺いした際も、丁寧に対応していただき、ありがとうございました。

参考文献