[レポート] We Power Tech: AIや機械学習の公平性を促進する #WPT202 #reinvent 2019

ラスベガスで開催されたre:Invent2019のセッション「(WPT202) We Power Tech: Promoting fairness in AI/ML」に参加したのでレポートします。
2019.12.24

AWS re:Invent 2019「WPT202 - We Power Tech: Promoting fairness in AI/ML」セッションに参加したのでレポートします。

セッション概要

AI/ML includes innovative technologies that have incredible potential to improve people’s lives by helping to solve challenging, real-world problems. Join us as we discuss why it’s imperative that the teams working on these problems represent diverse perspectives with respect to gender, race, ethnicity, religion, and orientation to foster ideas that best serve our customers.

Presented by

  • Nashlie Sephus - Applied Science Manager, Amazon Web Services
  • Prem Natarajan - Vice President, Amazon
  • Nicol Turner Lee - Fellow, Brookings Institution

レポート

登壇者3名によるパネルディスカッション

  • (Prem)
    • 今日、AIと機械学習は同じ用語として扱われている。2012年以降に機械学習に関して大きな技術的革命が起こった
    • 会話型AIやコンピュータビジョン、予測など人々は様々な種類のAIを使う能力を獲得した
    • ディープラーニングおよびその周辺の技術によって、様々なことができるようになった
    • AIは、我々がトレーニングを行うことなく直接使えるようにパッケージ化されたもの
  • (Nicol)
    • 例えば、娘のために黒いブーツを購入する場合。コンピュータは好みを把握しているので、黒のブーツを薦めてくる
    • ただ、黒いブーツを娘のために購入したことを、イコール私が母親であるとして関連付けることは、あまり好きではない
    • AIは、私のことを子どもがいる黒人女性として広告を表示する
    • 人工知能システムは、今まで見たことのないものになった
  • (Nashlie)
    • アルゴリズムにバイアスの存在する可能性があるというのは、業界が抱えている問題
    • バランスのとれたデータセットを見つけるのは常に大きな課題では?
  • (Prem)
    • アルゴリズムは一枚岩なものではなく、色々なバリエーションがある
    • 機械学習の世界でよく言われるのが、アルゴリズムやモデルは、学習データと同程度にしか優れていない、ということ
    • 2017に発表されたいくつかのアルゴリズムでは、データのバイアスを増幅することができるという驚くべき発見があった
    • アルゴリズムはバイアスを増幅することもできるし、減少させることもできる
    • 研究者は、データからできるだけ保守的に学習し、適切な損失関数を設定して、できるだけ保守的な表現を学習できるようにすることが重要
    • これらによって、アルゴリズムが効率的で偏りの少ないものになるだろう
  • (Nicol)
    • アルゴリズムに偏りがあるというのには同意
    • ひとつ例をあげると、インターネットゲーム上で顔を登録した時、自動で修正されるケース
    • 修正された写真はヨーロッパ人に似せたようなものになる。一方、有色人種が登録するとなぜか顎が細くなったりする
    • 何故そうなるか。様々な人がプレイする可能性を開発者が考えなかったから
    • 他の例で言うと、雇用のためのアルゴリズム。女性を対象とした場合、これまで女性が否定され続けていたという事実に基づき、一種のバイアスがあることに気づいた
    • 開発者がすべて男性の場合、これまで女性が傷ついてきたことを回避するようなアルゴリズムを開発することは、やはり困難なのでは
  • (Nashlie)
    • これらの話は、データやアルゴリズムのバイアスの結果として起こり得る結果の良い例
    • Alexa AI側の言語処理に関して、バイアスが起こりうる結果についてもう少し聞きたい
  • (Prem)
    • 音声認識においても、データが適切に訓練や設定されていない場合、データの制約を受ける
    • データが特定の母集団からのみ得られたものであれば、音声認識はその母集団に対してうまく機能する
    • AIがうまくやっているかについて、公平性とAIについての議論を見ることはとても有益なこと
    • もう一つの重要な側面は、どうすれば文化的に適切で、人口統計学的に適切な反応を生み出すことができるかということ
    • 多くの異なるアプリケーションコンテキストで、公平性とは何か、公平性についての異なる視点について、どうやって公平性を測定するかを考えるアカデミックコミュニティを構築したい(AmazonとNSF:全米科学財団はパートナーシップを結んでいる)
  • (Nicol)
    • 企業がバイアスに対処するために実際に何をしているのか?を議論したい
    • 最近の論文ではこのようなバイアスの影響に関する声明から始めたが、一般的にバイアスがかかった場合やネット上で実際に目にする差別がどのような結果をもたらすのか、ということを理解している人がどれだけいるだろうか?
    • Premが言ったように、公平性が重要でありそれを考えるコミュニティはいい方向に向かうだろう
    • Brookings研究所ではAIについて責任を持って行動しており、お客様の優れたデータ管理者であると同時に偏ったデータが悪影響を及ぼすことを自覚している
    • 音声自動化システムでの高齢者支援の例。東ヨーロッパのアフリカン・アメリカンの高齢者はそのシステムを使いたがらない
    • 彼らが速く話したときに、何を言っているかわからないし、方言で話す場合がある
  • (Nashlie)
    • 私はミシシッピ州の南部出身なので、仰る点は理解できる
    • 顔認識に関してはどうでしょうか?
  • (Nicol)
    • 顔認識はワシントンDCでのホットな話題の一つ。主に政策的な意味合いで
    • 顔認識の技術が、十分な精度があるのかどうか。先週私は三編みのヘアスタイルにして顔認識を試したが、顔認識の技術でアフリカン・アメリカンの女性の異なるヘアスタイルとして認識されることはなかった
    • 現在の顔認識の技術は、特定の属性を認識せず十分に進歩していない印象。肌の色合いの誤判定も多い
    • これは何を意味するのか?技術的な欠陥のある技術を使うと、間違いを犯す危険性がある
    • 法執行機関で犯罪者を捕まえたいときに、顔認識技術が(今日の私のように)灰色のドレスを着て黒いブーツを着ている女性を犯罪者だと判定するとする。当然のごとく私は逮捕されてしまうだろう
    • 運転免許証やパスポートについても、同じような問題が起こりうる
    • うまく使えば、顔認識の技術が慢性疾患の早期発見など役立つものではあるが、公共政策としてはこのテクノロジーをどう使うか、という点で課題を抱えている
  • (Nashlie)
    • Amazonではこれらの問題に取り組んでおり、顔認識のチームではより透明性が高くなるようにしている
    • 私は連邦議会で議員たちにテクノロジーについて話をしているが、彼らはほとんどの場合、それがどのように機能するのか全く理解していない
    • 人々が理解していないものに対して、どのようにして政策や規制を作り始めたらよいのか
    • また、例えば法執行機関がテクノロジーを誤用したり、誤った教育をしている可能性もある
  • (Prem)
    • 優秀なチームを構成し、その上で議論される多くの異なる視点をこの仕事に持ってきた。大事なことはネットワークに多くの人を呼び込むこと
    • これらの問題は大きなチャレンジであり、我々はチャレンジで終わらないように毎日努力している
    • アウトリーチ活動が重要
  • (Nicol)
    • 本当に難しい問題だと思う。アメリカの子どもたちがSTEMにアクセスできるようにして、中国に遅れをとらないようにする必要がある
    • 私が参考にした論文は、Brookings研究所が1年かけて執筆したものである。私達は社会学者であり、弁護士であり、エンジニアでもある
    • 文化の多様性が大事ではあるが、残念ながらシリコンバレーではうまくいっていない
    • 過去5年間、Amazonのようなテック企業に有色人種をいかに多く採用するかについて、多くの議論が行われてきた
    • アフリカ系アメリカ人やアジア系アメリカ人の割合は、アメリカの第一線で活躍している女性の割合、ヒスパニック系アメリカ人の割合と比べてもそれほど多くはない
    • 多様性は一方通行ではない。お互いが多様性を大事にすること。Premが話したアウトリーチ活動に加え多様性が重要
  • (Nashlie)
    • 私は、私の出身のミシシッピ州の若者や地域の人々がテクノロジーに触れてもらえるようにすることへ、情熱を注いでいる
    • なぜなら、彼らはうまくそれにアクセスできないので、テクノロジーがあることを認識できない
    • 民族性は我々が取り入れることのできる様々な種類の多様性の一つである
  • (Nicol)
    • アフリカ系アメリカ人の子供やラテン系の子供は、6年生になるまでに数学の勉強に触れていなければ、科学や数学の仕事に就く可能性が低いということ調査結果がある
    • 若い人たちにとって、第二言語の一つとしてコーディングすることはとても重要。アメリカでより多くのエンジニアを生み出すという政策的な観点もある
  • (Prem)
    • AIが何ができるかを知ること。たとえば、アクセシビリティの観点から問題を考え、それを最大化すること
    • ユーザーとのアクティブな対話を通じて学習できれば、AIを人々と同じく多様なものにする力があると思う
    • ただし、取り組む人がまだ少ないので、方言に注釈をつけるようなことが難しいことが理解できる
    • 誰もが個人的な方言を話し、AIにそれを理解し適応してもらいたいと考えている
    • 潜在意識についても研究を行っている。AIがより有用になるよう取り組むことは、本当にエキサイティングな課題
  • (Nicol)
    • ワシントンDCの担当者は、アルゴリズムの透明性に興味を持っている
    • AIのディープラーニングの部分が、選挙を操作したり、黒人や女性など人種に偏った判定がされていないのか
    • 公平性を判断することは主観的な部分も多く、ガードレール的なものを設置する必要があるのではないか
  • (Nashlie)
    • 最後の質問です
    • これらの問題を解決するために、個人的に何をしているか?聴衆の人々が解決策のいくつかを支援するためには、何をすればよいのか?
  • (Prem)
    • 公平性や透明性、解釈可能なAIを保つためにできることは沢山あるが、まずは正しい問題をみつけるために大きなコミュニティを作ること
    • 我々はそれぞれに偏見を持っている。多くの人が参加しその盲点をつぶしていくこと
    • Amazon Research Awardsで公平性のためのトラックを開始した。これはNSFとは独立した動きであり、皆が参加や提案できるもの
    • ローンチするまで全ては話せないが、公平性のために機械学習の内部で作業を行っている
  • (Nicol)
    • 私は社会学者として、色々な方と会話をしている。エンジニアや他の専門家の方との会話に多くの時間を費やしている
    • 実際に取り組んでいるのは、アルゴリズムにおけるEnergy Star評価のようなモデルを考えること
    • 私たちはNISTのような連邦政府機関ですでに制定されている基準に目を向けているが、デジタルスペースに適用する公民権法の更新にも取り組んでいる
    • 機械学習や自律したシステムが、法律を破るようなものであってはならない
    • 私は、過去6ヶ月間に行った2回の公聴会のように、これらのことを本当に理解していない政策立案者を教育しようと試みている
  • (Nashlie)
    • 素晴らしいディスカッションになりました。皆様パネリストに拍手をお願いします

おわりに

AIや機械学習において公平性を担保するにはどうすればいいのか、を議論する興味深いセッションでした。

機械学習の技術が広まりAI系のサービスが日常的に使われるような世界において、公平性を担保したりバイアスを除いていくというのは、これから本格的に解決しなければならない課題として立ちはだかってくるのだと思います。
教育にまで話題が及び内容も多岐に渡っていましたが、サービサーや研究者、社会学者の観点から見ても、公平性やバイアスといった課題は本当に難しい問題のようです。

デベロッパーやサービス利用者としても、AI・機械学習の公平性やバイアスに関して最低限意識しておく必要があるな、と感じたセッションでした。