本稿は、株式会社技術情報協会の月刊『研究開発リーダー』9月号に掲載された記事を編集(削減が中心)したものです。以下の文章は原則連載時のままとし、場合によって若干の補足を加えていることをお断りします。
AIビジネスの健全な発展に向け、AI利活用ポリシーの策定や、法務・コンプライアンスリスクマネジメントを推進するための体制上のポイントについて解説します。

1.概要

リスクに適切に対応し、健全にAIビジネスを発展させるには、各種法規制等の要求事項を踏まえて、AIビジネスにおけるリスク対応の基盤構築から各取組みについて、経営層、事業部門、法務部門、情報セキュリティ部門などが連携しながら、組織横断的に推進することが必要です。
その進め方としては、まずはAIビジネスのリスクアセスメントを通じて、優先リスク・課題を把握の上、各リスク対応のための体制・取組みの全体像を設計し、個別施策(取組み)の推進につなげることが効率的です。
ここでは、AI利活用ポリシー策定上のポイントとともに、法務・コンプライアンスリスクマネジメントを推進するための体制上のポイントを紹介します。

【図表1】AI利活用におけるコンプライアンスリスクマネジメントの全体像
Key Item 実施事項例 論点・ポイント例
体制構築 委員会の設計
  • AIビジネスの社会的妥当性を担保するための審査委員会の機能・役割の設計
  • 委員会の運用に向けたPMO
  • 関連委員会との関係(機能拡張による対応/新設等)
  • 委員会の権限・責務の設計(プロジェクトの中止勧告等)
  • 委員会メンバー(外部有識者の参画の有無等)
体制の設計
  • AIビジネスリスクの管理部門の役割・責任の明確化
  • 委員会・管理部門・事業部門間のレポートラインの整備
  • AIビジネスリスクを戦略の策定・実行に反映する仕組み
  • 取組み推進の「旗振り役」の設定
  • 管理部門と事業部門との連携体制
取組み推進 AIポリシー・プロセス
  • AI利活用に関するポリシーの策定
  • AIビジネスに関する各種法規制リスクに対応したポリシー・プロセスの策定
  • 重視するAI原則・項目
  • 各種ステークホルダーの意向の反映
リスクアセスメント(規制リスク調査)
  • 新規ビジネス等のリスクアセスメントの実施(規制リスクの調査)
  • AIビジネスにおけるリスクアセスメントプロセスの整備
  • 「容認できないリスクのあるAI」や「ハイリスクAI」など、厳格な規制が想定されるユースケースの有無
  • 既存の法務、情報管理、品質管理、リスクマネジメント等の各プロセスとの関係
教育・周知
  • 規制リスク・対応ポイントの従業員研修
  • 策定したAIポリシーに関する具体的な推奨事項や、具体例を解説したガイドブックの策定
  • ユースケースに即したリスクシナリオ例・解説
  • 関連技術・規制リスクの双方に関する平易な解説
モニタリング
  • AIポリシーの遵守状況に係る、管理部門からの確認・自主点検
  • AIガバナンス関連手続に係る内部監査
  • AIビジネスにおけるモニタリング対象プロセス・テーマ
  • ビジネスの継続的な変化に対応したモニタリング

2.AI利活用ポリシー策定上のポイント

近年、日本を含む世界各国の各組織・機関等において、相次いでAI倫理原則/ガイドラインが策定・公表されていますが、共通部分が多く、世界における共通理解が醸成されつつあります。日系企業においても、AI倫理面に配慮したAI利活用ポリシーを策定する動きが徐々に加速しています。
策定にあたっては、国内外のAI原則・ガイドラインで明文化された事項を踏まえて、自社のAIビジネスの目的や重視する価値、想定されるリスクを整理した上で、具体的な行動指針を取りまとめることになります。客観性の担保のためには、社外有識者やステークホルダーとの対話を行うことも重要です。
また、ポリシーレベルでは、やや抽象的な内容になり、役職員の具体的な行動に落とし込みにくいため、具体的なユースケースやリスクシナリオを想定の上、具体的な行動指針等を合わせて整理することが効果的です。これらの内容は、ガイドブック・マニュアルとしてとりまとめ、教育に活用することも有効です。

【図表2】AI倫理原則の主要項目
人間の尊重/サステナビリティ
人間の幸福やサステナビリティ(持続可能な社会)を追求することがAIの利用目的
公平性 AI設計における公平性の確保/差別禁止(学習データ上の偏見の排除・アルゴリズム等のバイアスへの留意)
透明性/アカウンタビリティ データ取得や使用方法・動作・判断結果等の適切性確保や、方針の通知・公表や技術特性等の情報提供
人間の判断の介在 AIによる判断について、必要かつ可能な場合、その判断の採否・利用方法等に関し、人間の判断を介在させる
安全性 AI利用による生命・身体・財産に危害を及ぼすことの防止措置
セキュリティ AIネットワークシステムにおけるセキュリティの確保
プライバシー AI利活用における利用者および第三者のプライバシーの尊重、データ収集・処理にかかわるプライバシーの尊重等
【図表3】国内外のAI原則・ガイドライン例
原則・ガイドライン等
作成主体 公表時期
AIに関する理事会勧告 OECD 2019年
AI倫理に関する勧告
UNESCO 2021年
人工知能学会倫理指針 人工知能学会(日本) 2017年
人間中心のAI社会原則 内閣府(日本) 2019年
AI利活用ガイドライン(AI利活用原則) 総務省(日本) 2019年
国際的な議論のためのAI開発ガイドライン案 総務省(日本) 2017年
AI原則実践のためのガバナンス・ガイドラインver1.0 経済産業省(日本) 2021年
信頼できるAIのための倫理ガイドライン 欧州委員会(EU) 2019年
アシロマAI原則 Future of Life Institute 2017年
倫理的に調整された設計(第1エディション) IEEE 2019年

3 AIガバナンスの構築-機能・役割設計上のポイント

体制整備にあたっては、取組みを主導する部門・担当者の役割、関連部門の役割、関連委員会の機能・役割を整理することが必要となります。その機能・役割の設計にあたっては、AI関連ビジネスの現状の規模・今後の計画を踏まえて、既存のコンプライアンス体制の活用の余地を検討し、必要に応じて、AI倫理委員会やチーム・部門、担当者の新設を検討することになります。
AI倫理委員会の設置検討においては、メンバー構成(客観性担保のための社外有識者の起用)や、権限の範囲(プロジェクトの中止勧告権等)、開催頻度、関連委員会との機能整理等が論点となります。なお、過剰に重厚な体制にすることで、かえって迅速性を阻害するおそれもある点には留意する必要があります。
推進チームについては、関連する取組みを主導する部門・チームを設置する場合や既存の部門内で役割を担う場合があります(たとえば、法務部門内にチーム・担当者を配置するケース等があります)。前述のように、コンプライアンスリスクの関連論点は広汎に及ぶため、各リスクの主管部門間の連携が重要です。また、自社のビジネスの理解自体(AI利活用の方向性、関連技術、対象データの範囲・流通経路、社内外関係者等)が肝となるため、事業部門・研究開発部門との連携も必要です。
推進担当者は、主に各事業部門内のチームメンバーへの助言・サポートをすること、懸念事項について推進チームと連携して対応することなどが期待されます。AIビジネスにおいては、事業部門・研究開発部門で取り扱う技術的な事項について、当該事項に馴染みの薄い管理部門に平易に伝え、両者の連携のもとでリスクマネジメントを進める必要があるため、事業部門内に、このような両者の橋渡しをできるメンバーがいることは有益です。
加えて、社内外の技術進歩や規制環境の変化が見られるなか、自社だけで解決することが難しい問題の示唆を得ることや取組みの客観性を担保するために、社外有識者への相談や関連団体における議論といった社外連携も有益です(これはAI倫理委員会の構成メンバーに社外有識者を含める場合の主要な目的でもあります)。

【図表4】機能・役割の設計イメージ例-倫理委員会・チーム・担当者の新設ケース

機能・役割の設計イメージ例

ここまで体制・取組み上のポイントの概要を紹介しましたが、AIを利活用するビジネスのリスクマネジメントは、AIに関する技術進歩や国内外の原則・ルール形成、自社のビジネスの拡大とともに進化することが必要です。本稿が、貴社において、体制・取組みを整備するに当たってのご参考になれば幸いです。

執筆者

KPMGコンサルティング シニアマネジャー 新堀 光城

月刊『研究開発リーダー』 9月号掲載(一部加筆・修正しています)。この記事の掲載については、株式会社技術情報協会の許諾を得ています。無断での複写・転載は禁じます。

AIビジネス推進に向けた法務・コンプライアンスリスクマネジメント

お問合せ