総務省・経産省が公開した「AI事業者ガイドライン」第1.0版を読んでみる
危機管理室 江口です。
2024年4月24日に、総務省と経産省がAI事業者ガイドラインを公開しました。
省庁によるAI利用に対するガイドラインは、これまでもいくつか策定はされていたのですが、昨今の生成AIの普及を踏まえて新たに統一的で分かりやすい形とするよう見直したものが今回のガイドラインとなります。今後AIを利用したサービスを開発するにせよ、AIを業務で利用するにせよ、配慮するべき事項が記された重要なドキュメントなので、本記事でその概要を簡単に紹介してみようと思います。
TL;DR / ガイドラインの項目
とりあえず「どんな項目が挙げられているか」を知りたい方は、今回の記事で取り上げる共通の指針(AI開発者、AI提供者、AI利用者の各事業活動の主体で共通で取り組むべき指針)のチェックリストが公開されているので、これを確認するのが手っ取り早いです。
「AI事業者ガイドライン(第1.0版)」チェックリスト及び具体的なアプローチ検討のためのワークシート
上記はPDF版へのリンクですが、経産省のページではExcel版も公開されています。実際に社内での検討結果を記入したい場合はそちらをダウンロードして利用するのが良いでしょう。
また、共通指針およびそれに加えて各主体ごとに重要な事項をまとめた一覧が、本編の21ページに表でまとめられています(表 1. 「共通の指針」に加えて主体毎に重要となる事項)。全体像を把握するには分かりやすいのでこちらも参考にしてみてください。
ガイドラインの構成
ガイドラインは以下の5部で構成されています。
- 第1部 AIとは
- 第2部 AIにより目指すべき社会及び各主体が取り組む事項
- 第3部 AI開発者に関する事項
- 第4部 AI提供者に関する事項
- 第5部 AI利用者に関する事項
第一部ではAI自体の概要の説明と関連する用語の定義が記載されており、第2部ではAIの利活用における基本理念、原則とそこから導き出される、各事業者の共通の指針が説明されています。 そして第3部〜第5部では、各事業活動の主体ごとの留意点がそれぞれまとめられています。
なお補足資料は別添資料として別ファイルとして配布されていますので、合わせてご参照ください。
本記事では、理念や原則、そしてどの事業者でも取り組むべき共通の事項が分かる第2部の記述を中心に紹介していきたいと思います。
事業活動の主体について
さて、さきほどから何度か「主体」という言葉が出てきていますが、この「AI事業者ガイドライン」では、AIに関わる事業活動の主体を「AI開発者」「AI提供者」「AI利用者」の3者に分けています。
- AI開発者:AIシステムの開発・構築を行う事業者。AI自体の研究開発やA、AIのモデル・アルゴリズムの学習、その基盤の構築なども含む。
- AI提供者:AIシステムをサービスとして利用者に提供する事業者。AIシステムの検証や他システムとの連携の実装、AIサービスの運用なども含む。
- AI利用者:事業活動においてAIシステム/AIサービスを利用する事業者。
これらの主体ごとに取り組むべき事項は変わってきますが、一つの事業者が複数の主体を兼ねる場合も当然あります。たとえばAIサービスを提供しつつ、自社で内も生成AIを利用しているような場合は、「AI提供者」「AI利用者」を兼ねることになります。
AIにより目指すべき社会の基本理念
まずはガイドラインに通底する基本理念をみていきます。これは2019年に政府が策定した「人間中心のAI社会原則」がベースとなっています。
この文書では、以下の3つを原則として掲げています。
- 人間の尊厳が尊重される社会(Dignity)
- 多様性が認められ、誰もが幸せを追求できる社会(Diversity and Inclusion)
- 持続可能な社会(Sustainability)
一個ずつ簡単にみていきましょう。
人間の尊厳が尊重される社会(Dignity)
この項目は、簡単にいえば「人間がAIに利用されるのではなく、人間がAIを道具として使いこなす」社会を目指す、ということです。あくまでAIは道具なので、AIによってコントロールされて人間の尊厳が損なわれるような社会にしないようにしよう、ということですね。
多様性が認められ、誰もが幸せを追求できる社会(Diversity and Inclusion)
この項目は、「多様性が認められ、誰もが幸せを追求できる社会」を一つの理想として、AIがその理想を近づける有力な道具となりうることを謳っています。逆に言えば、AIの技術はそのような社会を実現するために利用すべき、ということです。
持続可能な社会(Sustainability)
この項目は持続可能な社会、すなわちサステナビリティにもAIが貢献すべきであると謳っています。サステナビリティが現在世界にとって重要な課題であることは言うまでもないことで、その問題に取り組むためにもAIの力を借りることは重要、ということですね。
原則
上記の理念をもとに、ガイドラインでは原則とする事項を整理しています。 以下、後述の共通の指針の分類にも用いられている10個の項目を簡単に紹介します。
- 人間中心に考える(憲法が保証する人権を守り、多様な幸せの追求を可能とする)
- 安全性の確保(AIシステムがステークホルダーに危害を及ぼさないようにする)
- 公平性の確保(不当で有害な偏見及び差別をなくすよう努める)
- プライバシー保護(個人情報の不適正な利用の防止)
- セキュリティ確保(可用性の低下、外部からの攻撃等のリスクへの対応)
- 透明性の確保(検証可能性を確保し、ステークホルダーへ適切に情報を提供する)
- アカウンタビリティ(トレーサビリティを確保し、説明責任を果たす)
- 教育・リテラシー確保の機会の提供(すべての人々にAIの恩恵が行き渡るようにして、社会の分断を回避する)
- 公正競争の維持(持続的な経済成長の維持、社会課題の解決策の提示のため公正な競争を維持)
- イノベーションの促進への貢献(社会全体のイノベーションの促進への貢献)
上7つは各主体が取り組むべき事項、下3つは社会と連携した取り組みとして期待される事項です。
ざっくりまとめると、事業者にはAI利用について「人権を尊重しつつ」「セキュリティを確保し」「取り組みについて説明できる」ことが求められ、かつAIに関する教育・公正な競争・イノベーションの促進など社会全体に対する貢献も期待されているというわけですね。
各主体の共通指針
上記の原則で紹介した10個の項目に基づいて、どの事業者でも果たすべき共通の指針を掲げています。
すべて説明すると長いので、以下挙げられている項目について表形式で紹介します。
共通の指針 | |
---|---|
1) 人間中心 | ① 人間の尊厳及び個人の自律 ② AI による意思決定・感情の操作等への留意 ③ 偽情報等への対策 ④ 多様性・包摂性の確保 ⑤ 利用者支援 ⑥ 持続可能性の確保 |
2) 安全性 | ① 人間の生命・身体・財産、精神及び環境への配慮 ② 適正利用 ③ 適正学習 |
3) 公平性 | ① AI モデルの各構成技術に含まれるバイアスへの配慮 ② 人間の判断の介在 |
4) プライバシー保護 | ① AI システム・サービス全般におけるプライバシーの保護 |
5) セキュリティ確保 | ① AI システム・サービスに影響するセキュリティ対策 ② 最新動向への留意 |
6) 透明性 | ① 検証可能性の確保 ② 関連するステークホルダーへの情報提供 ③ 合理的かつ誠実な対応 ④ 関連するステークホルダーへの説明可能性・解釈可能性の向上 |
7) アカウンタビリティ | ① トレーサビリティの向上 ② 「共通の指針」の対応状況の説明 ③ 責任者の明示 ④ 関係者間の責任の分配 ⑤ ステークホルダーへの具体的な対応 ⑥ 文書化 |
8) 教育・リテラシー | ① AI リテラシーの確保 ② 教育・リスキリング ③ ステークホルダーへのフォローアップ |
9) 公正競争確保 | - |
10) イノベーション | ① オープンイノベーション等の推進 ② 相互接続性・相互運用性への留意 ③ 適切な情報提供 |
すべて取り上げると長くなってしまうので、ここでは個人的に気になった項目をピックアップして紹介したいと思います。
AIによる意思決定・感情の操作等への留意
- 人間の意思決定、認知等、感情を不当に操作することを目的とした、又は意識的に知覚でき ないレベルでの操作を前提とした AIシステム・サービスの開発・提供・利用は行わない
- AI システム・サービスの開発・提供・利用において、自動化バイアス等の AIに過度に依存するリスクに注意を払い、必要な対策を講じる
- フィルターバブルに代表されるような情報又は価値観の傾斜を助長し、AI 利用者を含む人間が本来得られるべき選択肢が不本意に制限されるような AI の活用にも注意を払う
- 特に、選挙、コミュニティでの意思決定等をはじめとする社会に重大な影響を与える手続きに関連しうる場合においては、AIの出力について慎重に取り扱う
「フィルターバブル」とは、ユーザーが見たい情報だけが優先的に表示されて、逆に観点に合わない情報からは隔離されることで、自身の考え方や価値観の「泡」の中に孤立する状態になってしまうことを指します。そのような状況を避けることも含め、AIが特定のバイアスに従って人間の意思決定を操作しないよう配慮が求められている、ということですね。
バイアスへの配慮、という点では以下のように、必要に応じて人間の判断を介在させる、ということも別の項目として挙げられています。
人間の判断の介在 - AIの出力結果が公平性を欠くことがないよう、AIに単独で判断させるだけでなく、適切なタイミン グで人間の判断を介在させる利用を検討する - バイアスが生じていないか、AIシステム・サービスの目的、制約、要件及び決定を明確かつ透明 性のある方法により分析し、対処するためのプロセスを導入する - 無意識のバイアス及び潜在的なバイアスに留意し、多様な背景、文化又は分野のステークホル ダーと対話した上で、方針を決定する
AIが公平性を欠いた回答をしないよう、事業者は二重三重に配慮する必要があります。
人間の生命・身体・財産、精神及び環境への配慮
- AIシステム・サービスの出力の正確性を含め、要求に対して十分に動作している(信頼性)
- 様々な状況下でパフォーマンスレベルを維持し、無関係な事象に対して著しく誤った判断を発生させないようにする(堅牢性(robustness))
- AIの活用又は意図しないAIの動作によって生じうる権利侵害の重大性、侵害発生の可能性 等、当該 AIの性質・用途等に照らし、必要に応じて客観的なモニタリング及び対処も含めて人間がコントロールできる制御可能性を確保する
- 適切なリスク分析を実施し、リスクへの対策(回避、低減、移転又は容認)を講じる
- 人間の生命・身体・財産、精神及び環境へ危害を及ぼす可能性がある場合は、講ずべき措置について事前に整理し、ステークホルダーに関連する情報を提供する
- 関連するステークホルダーが講ずべき措置及び利用規則を明記する
- AIシステム・サービスの安全性を損なう事態が生じた場合の対処方法を検討し、当該事態が生じた場合に速やかに実施できるよう整える
ここではAIが人間の権利を侵害しないようにすることを挙げていますが、その実現のために「信頼性」「堅牢性」「制御可能性」などを確保することを求めているのが特徴かなと思います。権利の侵害をしないようにするのは当然のこととして、意図せずに侵害することがないようにシステムをコントロールして安定的に稼働させよ、ということですね。
AIシステム・サービスに影響するセキュリティ対策
- AIシステム・サービスの機密性・完全性・可用性を維持し、常時、AIの安全安心な活用を確 保するため、その時点での技術水準に照らして合理的な対策を講じる
- AIシステム・サービスの特性を理解し、正常な稼働に必要なシステム間の接続が適切に行われ ているかを検討する
- 推論対象データに微細な情報を混入させることで関連するステークホルダーの意図しない判断 が行われる可能性を踏まえて、AIシステム・サービスの脆弱性を完全に排除することはできないことを認識する
こちらはAIシステム・サービスのセキュリティ対策に関する項目です。機密性・完全性・可用性を維持する、というセキュリティの基本に関する記述はまあ当然として、「AIシステム・サービスの脆弱性を完全に排除することはできないことを認識する」ということを明記しているのが特徴かなと思います。なので他のシステムと同じく、脆弱性情報を常に追いかけ、必要な対策を都度検討する必要があります。
なおセキュアなAIシステムの開発ガイドラインについては、英国のNCSCが発表したガイドラインがあり、内閣府のWebサイトでその翻訳版が公開されています。開発にあたってはこのガイドラインにも目を通すと良いでしょう。
検証可能性の確保
- AIの判断にかかわる検証可能性を確保するため、データ量又はデータ内容に照らし合理的な範囲で、AI システム・サービスの開発過程、利用時の入出力等、AIの学習プロセス、推論過程、判断根拠等のログを記録・保存する
- ログの記録・保存にあたっては、利用する技術の特性及び用途に照らして、事故の原因究明、再発防止策の検討、損害賠償責任要件の立証上の重要性等を踏まえて、記録方法、頻度、保存期間等について検討する
「なぜこうした出力をしたのか」を検証できるようにある程度の記録を取得しておくべき、ということで、これはAIシステム・サービスの開発上、どのようなログを記録するかを考慮する上で重要な項目だと思います。入出力の記録はユーザーのプライバシーを侵害する可能性もあるので、それを避けつつどうやって検証可能性を確保するかは実際のところなかなか難しいのではと思いますが、検討自体は必要です。
これらの項目について自社で検討するためのツールとして、冒頭で紹介したようにチェックリストが配布されていますので、これを使って自社での対応を検討してみるのが良いでしょう。念のためチェックリストをもう一度再掲しておきます。
「AI事業者ガイドライン(第1.0版)」チェックリスト及び具体的なアプローチ検討のためのワークシート
AIガバナンスの構築
ガイドラインでは、共通の指針に続いてAIガバナンスの構築について記述しています。実施項目として以下が挙げられています。
1 まず、AIシステム・サービスがライフサイクル全体においてもたらしうる便益/リスク、開発・運用に関する 社会的受容、「外部環境の変化」、AI習熟度等を踏まえ、対象となる AIシステム・サービスに関連する「環境・リスク分析」を実施する 2 これを踏まえ、AI システム・サービスを開発・提供・利用するか否かを判断し、開発・提供・利用する 場合には、AIガバナンスに関するポリシーの策定等を通じて「AI ガバナンス・ゴールの設定」を検討する。なお、この AIガバナンス・ゴールは、各主体の存在意義、理念・ビジョンといった経営上のゴール と整合したものとなるように設定する 3 更に、この AIガバナンス・ゴールを達成するための「AIマネジメントシステムの設計」を行った上で、これ を「運用」する。その際には、各主体が、AIガバナンス・ゴール及びその運用状況について外部の「ステークホルダーに対する透明性、アカウンタビリティ(公平性等)」を果たすようにする 4 その上で、リスクアセスメント等をはじめとして、AIマネジメントシステムが有効に機能しているかを継続的にモニタリングし、「評価」及び継続的改善を実施する
ざっくりいえばAIを取り巻く環境・リスク分析からゴールを設定をし、運用して改善していくサイクルを回す体制を確立することが求められているということになります。ゴール設定については、注釈で以下のように補足されています。
AIガバナンス・ゴールとして、本ガイドラインに記載の「共通の指針」への対応事項からなる自社の取組方針(「AI ポリシー」等、呼称は各主体により相違)及び「共通の指針」への対応事項を包含しつつそれ以外の要素を含む取組方針 (データ活用ポリシー等) を設定すること等が考えられる。AI を活用することによって包摂性を向上させる等の便益を高めるための指針を提示してもよい。また、呼称も各主体に委ねられている。
上記のように、本ガイドラインへの対応状況を整理することはゴール策定においても重要になってくるので、まずはチェックシートで自社のチェックに取り組んでみるのが良さそうですね。
おわりに
以上、簡単にガイドラインの第2部までの項目を簡単にまとめてみました。第3部〜第5部では各事業者ごとに配慮すべき点がまとめられているので、こちらも是非確認してみていただければと思います。
クラスメソッド社内でも、このガイドラインで挙げられた各項目への対応について、現状を整理に着手しているところです。可能な範囲で、クラスメッドではどう対応しているか、という点についても後日参考情報としてご紹介できればいいな、と思っています。その折には、ぜひチェックいただければと思います。
ではでは。