本稿は、株式会社技術情報協会の月刊『研究開発リーダー』9月号に掲載された記事を編集(削減が中心)したものです。以下の文章は原則連載時のままとし、場合によって若干の補足を加えていることをお断りします。
AIビジネスの健全な発展に向け、AI利活用ポリシーの策定や、法務・コンプライアンスリスクマネジメントを推進するための体制上のポイントについて解説します。
1.概要
リスクに適切に対応し、健全にAIビジネスを発展させるには、各種法規制等の要求事項を踏まえて、AIビジネスにおけるリスク対応の基盤構築から各取組みについて、経営層、事業部門、法務部門、情報セキュリティ部門などが連携しながら、組織横断的に推進することが必要です。
その進め方としては、まずはAIビジネスのリスクアセスメントを通じて、優先リスク・課題を把握の上、各リスク対応のための体制・取組みの全体像を設計し、個別施策(取組み)の推進につなげることが効率的です。
ここでは、AI利活用ポリシー策定上のポイントとともに、法務・コンプライアンスリスクマネジメントを推進するための体制上のポイントを紹介します。
Key Item | 実施事項例 | 論点・ポイント例 | |
---|---|---|---|
体制構築 | 委員会の設計 |
|
|
体制の設計 |
|
|
|
取組み推進 | AIポリシー・プロセス |
|
|
リスクアセスメント(規制リスク調査) |
|
|
|
教育・周知 |
|
|
|
モニタリング |
|
|
2.AI利活用ポリシー策定上のポイント
近年、日本を含む世界各国の各組織・機関等において、相次いでAI倫理原則/ガイドラインが策定・公表されていますが、共通部分が多く、世界における共通理解が醸成されつつあります。日系企業においても、AI倫理面に配慮したAI利活用ポリシーを策定する動きが徐々に加速しています。
策定にあたっては、国内外のAI原則・ガイドラインで明文化された事項を踏まえて、自社のAIビジネスの目的や重視する価値、想定されるリスクを整理した上で、具体的な行動指針を取りまとめることになります。客観性の担保のためには、社外有識者やステークホルダーとの対話を行うことも重要です。
また、ポリシーレベルでは、やや抽象的な内容になり、役職員の具体的な行動に落とし込みにくいため、具体的なユースケースやリスクシナリオを想定の上、具体的な行動指針等を合わせて整理することが効果的です。これらの内容は、ガイドブック・マニュアルとしてとりまとめ、教育に活用することも有効です。
人間の尊重/サステナビリティ |
人間の幸福やサステナビリティ(持続可能な社会)を追求することがAIの利用目的 |
公平性 | AI設計における公平性の確保/差別禁止(学習データ上の偏見の排除・アルゴリズム等のバイアスへの留意) |
透明性/アカウンタビリティ | データ取得や使用方法・動作・判断結果等の適切性確保や、方針の通知・公表や技術特性等の情報提供 |
人間の判断の介在 | AIによる判断について、必要かつ可能な場合、その判断の採否・利用方法等に関し、人間の判断を介在させる |
安全性 | AI利用による生命・身体・財産に危害を及ぼすことの防止措置 |
セキュリティ | AIネットワークシステムにおけるセキュリティの確保 |
プライバシー | AI利活用における利用者および第三者のプライバシーの尊重、データ収集・処理にかかわるプライバシーの尊重等 |
原則・ガイドライン等 |
作成主体 | 公表時期 |
---|---|---|
AIに関する理事会勧告 | OECD | 2019年 |
AI倫理に関する勧告 |
UNESCO | 2021年 |
人工知能学会倫理指針 | 人工知能学会(日本) | 2017年 |
人間中心のAI社会原則 | 内閣府(日本) | 2019年 |
AI利活用ガイドライン(AI利活用原則) | 総務省(日本) | 2019年 |
国際的な議論のためのAI開発ガイドライン案 | 総務省(日本) | 2017年 |
AI原則実践のためのガバナンス・ガイドラインver1.0 | 経済産業省(日本) | 2021年 |
信頼できるAIのための倫理ガイドライン | 欧州委員会(EU) | 2019年 |
アシロマAI原則 | Future of Life Institute | 2017年 |
倫理的に調整された設計(第1エディション) | IEEE | 2019年 |
3 AIガバナンスの構築-機能・役割設計上のポイント
体制整備にあたっては、取組みを主導する部門・担当者の役割、関連部門の役割、関連委員会の機能・役割を整理することが必要となります。その機能・役割の設計にあたっては、AI関連ビジネスの現状の規模・今後の計画を踏まえて、既存のコンプライアンス体制の活用の余地を検討し、必要に応じて、AI倫理委員会やチーム・部門、担当者の新設を検討することになります。
AI倫理委員会の設置検討においては、メンバー構成(客観性担保のための社外有識者の起用)や、権限の範囲(プロジェクトの中止勧告権等)、開催頻度、関連委員会との機能整理等が論点となります。なお、過剰に重厚な体制にすることで、かえって迅速性を阻害するおそれもある点には留意する必要があります。
推進チームについては、関連する取組みを主導する部門・チームを設置する場合や既存の部門内で役割を担う場合があります(たとえば、法務部門内にチーム・担当者を配置するケース等があります)。前述のように、コンプライアンスリスクの関連論点は広汎に及ぶため、各リスクの主管部門間の連携が重要です。また、自社のビジネスの理解自体(AI利活用の方向性、関連技術、対象データの範囲・流通経路、社内外関係者等)が肝となるため、事業部門・研究開発部門との連携も必要です。
推進担当者は、主に各事業部門内のチームメンバーへの助言・サポートをすること、懸念事項について推進チームと連携して対応することなどが期待されます。AIビジネスにおいては、事業部門・研究開発部門で取り扱う技術的な事項について、当該事項に馴染みの薄い管理部門に平易に伝え、両者の連携のもとでリスクマネジメントを進める必要があるため、事業部門内に、このような両者の橋渡しをできるメンバーがいることは有益です。
加えて、社内外の技術進歩や規制環境の変化が見られるなか、自社だけで解決することが難しい問題の示唆を得ることや取組みの客観性を担保するために、社外有識者への相談や関連団体における議論といった社外連携も有益です(これはAI倫理委員会の構成メンバーに社外有識者を含める場合の主要な目的でもあります)。
【図表4】機能・役割の設計イメージ例-倫理委員会・チーム・担当者の新設ケース
ここまで体制・取組み上のポイントの概要を紹介しましたが、AIを利活用するビジネスのリスクマネジメントは、AIに関する技術進歩や国内外の原則・ルール形成、自社のビジネスの拡大とともに進化することが必要です。本稿が、貴社において、体制・取組みを整備するに当たってのご参考になれば幸いです。
執筆者
KPMGコンサルティング シニアマネジャー 新堀 光城
月刊『研究開発リーダー』 9月号掲載(一部加筆・修正しています)。この記事の掲載については、株式会社技術情報協会の許諾を得ています。無断での複写・転載は禁じます。