ヨーロッパの IT 業界における AI プラクティスの考察 — Tech Show Frankfurt パネルディスカッションと EU AI 法について

本記事では、ドイツフランクフルトの TECH SHOW にて開催されたパネルディスカッション「信頼できるAI: 新たなリスクを管理しつつ信頼を構築するための実践」にて議論された論点と、数日前に可決された世界初の AI 規制法 EU AI Act についてレポートします。

TECH SHOW FRANKFURT 2024 にて開催されたパネルディスカッション「信頼できるAI: 新たなリスクを管理しつつ信頼を構築するための実践(Trustworthy AI: Leveraging AI & Building Trust while Managing New Risks)」では、ヨーロッパでのAIプラクティスに関する重要な論点を垣間見ることができました。本記事では、ディスカッションの主要な論点と、数日前に可決された世界初の AI 規制法についてレポートします。

 

パネルディスカッション概要

タイトル:「信頼できるAI: 新たなリスクを管理しつつ信頼を構築するための実践(Trustworthy AI: Leveraging AI & Building Trust while Managing New Risks)」

パネル:AIプラットフォーム会社、金融、流通・小売、UNから、そうそうたるメンバーでした。

Dr. Bertie Müller (Senior Lecturer in Computer Science - Swansea University), Gernot Klein (Field CDO - Central Europe - Dataiku), Julia Sterling (Vice President / Big Data Advanced Analytics - Commerzbank AG), Michael Schorpp (Head of Knowledge Management & AI Development, Biologicals - Boehringer Ingelheim), Adil Ben Abdellah (Director, Department: Platforms & Architecture - ALDI Data & Analytics Services GmbH), Dominick Romano (Contributor, AI For Radiology, AI for Health UN Global Initiative - United Nations)

 

論点①データリテラシーの重要性:共通の認識とコンセンサス

データリテラシーは、AIの導入と利用において最も重要な課題の一つ。特に、データを使って意思決定を行う人々だけでなく、データを収集する現場の労働者(ブルーカラー層)にもデータの価値を理解してもらうことが重要です。ドイツ大手のスーパーALDIの例として、レジ担当者を対象に、POSに打ち込んだデータが会社にとって大事な意思決定の資産であることを教育しているそうです。データがどのような価値を持ち、どのように利益をもたらすかについて組織全体で共通の認識を持つことが必要だと語っていました。

 

論点②規制の役割:規制と信頼

規制はAIに対する信頼を構築するための基盤だとパネルのみなさんは共通の認識を持っていました。規制の上に信頼は成り立つ。

EU AI Act(後述)は、規制が厳しすぎると批判の声もあるそうですが、透明性と信頼性を高めるための重要なステップと認識してました。

信頼を高めるためには、

  • いつでも観察・観測(Observation)可能なモデルをデザインすること
  • 頻繁に評価して改善できるライフサイクルをまわし続けること
  • ドキュメンテーションが必要だと語っていました。

 

論点③リスクの管理

  1. リスク:過信と過負荷 AIの導入に伴うリスクとして、技術への過信や、従業員への過負荷(特に医療現場などでの)が挙げられました。また、AIを完全に理解しきれていないまま進めてしまう風潮もリスクを高めます。例えば、生成AI(Gen-AI)が、機械学習(ML)と違い、何かをつくる(generate) するものであることを理解し、何ができないのか、どの結果であれば受け入れるべきかを明確にすることが課題であると。
  2. リスク予防策 リスクを予防するためには、観察可能なモデルの採用や、モデルのライフサイクルを持続的に改善すること、それらをシンプルに保つこと、ドキュメンテーションが重要です。さらに、複数のベンダーを活用し、一つのベンダーに依存しないモデルを構築することが望ましいとのことでした。

 

個人的に気になって調べたこと:「AI にも heritage がある」

ディスカッションの冒頭で、“AI has a heritage” とMüller教授がおっしゃっていて、AIが突拍子もなく現れたものではないと初めて認識できました。諸説あるかと思いますが、人工知能(機械的な知性、自律的な動作)というコンセプトから考えると古代ギリシャ哲学、数学、アラビア学者などにまで遡るとのこと。論理学、コンピュータサイエンス、認知科学、心理学、社会学、そしてビジネス、といろんな分野からの知識の蓄積であることだと知ると、文系の私としては(初めて)親しみを感じました。

1950年:AIの誕生と初期の研究 アラン・チューリングが「計算機と知能 Computing Machinery and Intelligence」という論文で、機械が知的な行動を取ることが可能であると主張し、チューリング・テストを提案しました。

チューリングテストというものも初めて知ったのですが、興味深いです。機械が知能・思考できるかではなく人間に近い「行動を取れるか」を実験したそうです。https://aismiley.co.jp/ai_news/what-is-the-turing-test/

 

EU AI Act (欧州連合 EU AI法)

AI人工知能に関する 世界初の規制だそうです。これからのグローバルスタンダードにかなり影響すると思われます。

2024年3月にEU議会で法案が通り、5月21日(数日前)にEU諸国により可決されました。規制が発効され、義務化・全面的な実施まではまだ2年ほど時間がありますが、どれだけ技術の進歩・変化していく社会に法規制が対応していくかにも注目です。

全文 - https://artificialintelligenceact.eu/ai-act-explorer/

サマリー - https://artificialintelligenceact.eu/high-level-summary/#weglot_switcher

適用までのタイムライン - https://artificialintelligenceact.eu/ai-act-implementation-next-steps/

 

法案の概要(個人的なメモとして)

  • 規制の目的 → EU域内のAI市場経済の向上と、人間中心で信頼できる人工知能 AI イノベーションを促進するなか、AIシステムによる有害な影響から人間の健康、安全、基本的権利を保護する。
  • 禁止対象 → 人間の意思決定を操作する、特定グループを差別する、犯罪を犯すために使用。顔認識データベースをコンパイル、人の感情を推測するAI。
  • 高リスクとして分類 → 個人の経済状況、健康、嗜好、信頼、行動、位置などプロファイルする。
  • 高リスクとして分類されるAIには、適切な管理をするための文書化と適合性評価を受ける義務がある、データガバナンスを遂行するための教育、検証・テスト・サイバーセキュリティ・品質保証対する厳しい基準を適用。
  • 適用外 → 法の執行目的、EU諸国の安全保障や研究目的である際には規制適用しない。

AIシステムが可能な限り透明で、非差別的であること、AIが人間によってモニタリングされることを強調していると見受けられました。

結論

このパネルディスカッションを通じて、ヨーロッパのIT業界がAIプラクティスに対してどのように取り組んでいるのかを理解することができました。