本稿は、株式会社技術情報協会の月刊『研究開発リーダー』9月号に掲載された記事を編集(削減が中心)したものです。以下の文章は原則連載時のままとし、場合によって若干の補足を加えていることをお断りします。
国内外を問わず、AI(人工知能)を活用したビジネスが普及するなか、リスクマネジメントの必要性も高まりつつあります。AI利活用ビジネスにおけるAI倫理・コンプライアンス面について、その対応上のポイントを解説します。

1.AI利活用ビジネスにおけるリスクマネジメントの必要性

国内外を問わず、AI(人工知能)を活用したビジネスが普及するなかで、倫理面やプライバシー、個人情報保護等の問題が顕在化しており、ルール化に関する議論が進展しています。たとえば、海外においては、2021年4月、EU(欧州連合)の欧州委員会から、AIに関する分野横断的かつ包括的な規則案(Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act))が公表され、また、2021年11月には、UNESCO(国連教育科学文化機関)から、AI倫理に関する国際的な規範を策定し、加盟国への「勧告」として採択されたとの発表がされています。国内においては、直近では、AIの適切な開発・運用を図るため、経済産業省より、2021年7月に「AI原則実践のためのガバナンス・ガイドラインver1.0」が公表されています。
企業において、AIのビジネスへの利活用が進展するなかで、「リスク」への認識は徐々に高まりつつあるものの、その検討や対応が不十分で、事業・サービスの中止、多額の損害が発生する例が散見されます。
本稿では、このような状況を踏まえ、AIを利活用するビジネスの推進に関して、AI倫理・コンプライアンス面を中心に、その対応上のポイントを紹介します。

【図表1】リスクと散見される企業課題例

リスクと散見される企業課題例

2.法務・コンプライアンスリスクの概況

AIビジネスにおけるリスクは、その性質やユースケースにより異なるものの、一般的に論点が広範に及ぶことが多いです。事業部門・開発部門・法務部門等が連携して、想定されるビジネススキームを整理の上、法務・コンプライアンスリスクを整理することが肝要です。ここでは、典型的なリスクカテゴリーごとに留意点を紹介します。

AI倫理
まず、多くのAIビジネスに共通するテーマとして、AI倫理に関わる事項が挙げられます。AI倫理に関しては、人間の尊重、公平性、透明性、人間の判断の介在、安全性、セキュリティ、プライバシー等の視点から、その開発・設計等の適切性が問われます。たとえば、人事考課/採用にAIを利用する場面における公平性や透明性が問題となるケースや、顔認証にAIを利用する場合に人種間で正確性に相違が見られ公平性が問題となるケースが挙げられます。AIの利用により性別や人種にかかる差別的な取扱いが生じるようなケースは、特に昨今の社会情勢に照らして注意を要します。

個人情報・プライバシー
各AI倫理原則においても共通して取り上げられ、各国の法規制整備も進展している重要テーマです。AIの学習・利用等において、個人情報を取り扱うケースであれば、個人情報保護法等の個人情報保護法制の遵守が問われます。たとえば、学習用データとして、画像等のデータが大量に必要な場合に、個人情報保護法に沿ったデータの取得・利用方法が問題となることが多いです。

知的財産/開発契約等
知的財産権(特許等)や営業秘密としての保護や他人の権利への侵害防止を図ることも、AIの開発・利用を進め、関連ビジネスを推進するために必要です。重要な成果物(学習済みモデル等)の特許等による保護や、共同開発者との契約による権利関係の明確化、当該AI技術の利用を許諾する際のライセンス契約等は、投下資本の回収やトラブル防止のための要です。
形成しているコンソーシアム内で共有されるデータなど、事業者が取引等を通じて第三者に提供する情報は、アクセス制限を付す等の適切な管理をすることで、限定提供データとして不正競争防止法に規定される営業秘密の要件を充足し、保護を得ることも重要です。

品質問題
AI開発においては、その精度保証が難しく、品質問題が生じることが少なくないため、問題が生じた場合への備えを契約交渉段階で行うことも重要です。特に開発者側としては、契約上保証できる範囲/できない範囲を明確にし、自社の責任範囲を明確にすることが必要です。一方、利用者側(導入企業)としては、開発者側に対して、品質保証を受けることが困難な事項であっても、期待する品質に可及的に近づけるために、開発者側における説明義務を明確にすることなどが考えられます。

競争法・独占禁止法
AIの開発・利用は競争法・独占禁止法上、問題となることがあります。たとえば、競合する複数の事業者が同一のAIを利用して、自動的に同一価格に調整するケース(いわゆるデジタルカルテル)が挙げられます。また、データの囲い込みについても、たとえば、高い市場シェアを有する事業者同士が、共同研究などのためにデータを収集・利用する際に、特定の事業者を排除する行為が独占禁止法上、問題となり得ます(独占禁止法により禁止される「不公正な取引方法」)。なお、2021年3月に、公正取引委員会より、「アルゴリズム/AIと競争政策」との報告書が公表されており、これらの論点を整理する上での参考になります。

【図表2】AI利活用におけるコンプライアンスリスクの留意点・論点例
AI倫理 人間の尊重/サステナビリティ 人間の幸福やサステナビリティ(持続可能な社会)を追求することがAIの利用目的
公平性 AI設計における公平性の確保/差別禁止(学習データ上の偏見の排除・アルゴリズム等のバイアスへの留意)
透明性/アカウンタビリティ データ取得や使用方法・動作・判断結果等の適切性確保や、方針の通知・公表や技術特性等の情報提供
人間の判断の介在 AIによる判断について、必要かつ可能な場合、その判断の採否・利用方法等に関し、人間の判断を介在させる
安全性 AI利用による生命・身体・財産に危害を及ぼすことの防止措置
セキュリティ AIネットワークシステムにおけるセキュリティの確保
個人情報・
プライバシー
データの収集・利活用 取得時の利用目的の明示や、第三者提供における同意の取得等、個人情報保護規制の遵守
顔画像の取得・利用 カメラ画像の取得・処理・保存・利活用の各過程における個人情報保護法に沿った対応
医療分野でのデータの取扱い 医療分野でビッグデータを取り扱う際の義務(要配慮個人情報の第三者提供時の特則)
知的財産・営業秘密 関連技術の発明・発明者
  • 学習済みモデル等の発明としての保護(特許法)
  • ベンダ・ユーザの関与度に応じた(共同)発明者としての保護
AI生成物の著作権 AIを道具として利用した創作物としての保護(具体的な指示や編集行為の有無)
営業秘密等としての保護
  • 「営業秘密」(秘密管理性、有用性、非公知性)としての保護
  • 「限定提供データ」(限定提供性、相当蓄積性、電磁的管理性、技術・営業上の情報)としての保護
契約 AI開発契約
  • AI開発の特殊性(ノウハウの重要性、性能の不明瞭性、生成物の再利用の需要等)を踏まえた契約
  • アセスメント、PoC、開発、追加学習の4段階の開発方式に対応した契約
開発過程における生成物の取扱い 生データ、学習用データセット、学習用プログラム、学習済みモデル、ノウハウに関する権利保護
OSS
  • OSS利用時の免責条項(OSS利用による第三者の権利侵害やOSS自体の瑕疵に対する免責条項)
  • OSS改変時のソースコード提供義務への対応(ベンダのノウハウ・技術の流出防止)
  • OSSを構成要素とする特許を有する場合における特許権の行使制限
AIシステムの保守 保守契約における委託・受託範囲の明確化(問い合わせ対応、不具合対応、再学習・仕様変更、動作状況の監視、障害対応等)
品質 契約における品質保証
  • AIシステムの品質保証が性質上困難なことを踏まえた契約交渉
  • 保証範囲の明確化(データの性質、開発手法、AIにより実現するタスク、利用目的・方法等の具体化)
  • AI開発企業からユーザ企業に対する説明義務(特にユーザの期待と機能面の齟齬)
競争法・独占禁止法 デジタルカルテル アルゴリズムを利用した協調的行為によるカルテルリスク
データ収集・活用 不当な手段・取引条件によるデータの収集(市場シェアの高い事業者間における)共同研究開発のためのデータ収集における排他的行為

3.中長期的な規制リスク-欧州におけるAI包括規制案

AIビジネスを検討する際に注視すべき中長期的な法規制として、前述した、EUにて2021年4月に公表された、AIに関する包括的な規則案が挙げられます。同規制案の適用範囲は、EU域内におけるAIシステムの提供者や、利用者、輸入者、販売者が対象とされています。
また、その特徴として、リスクベースアプローチが採用されており、AIシステムのリスクをその用途・性質に照らし分類した上で種々の義務・禁止行為が定められています。たとえば、医療機器や重要インフラに組み込まれるAI、採用活動等に利用するAIがハイリスクに含まれ得るとされており、規制対象となるビジネスを有する企業は多数に上ると想定されます。
さらに、違反者への罰則については、最大で、前年度における世界売上高の6%、または3,000万ユーロのいずれか高い金額の罰金を科すことができるとされており、非常に高額な罰金につながるおそれがあります。規制の成立までに時間を要しますが、規制内容の動向について注視する必要があります。

【図表3】EUにおけるAIに関する分野横断的な包括的規則案
リスク分類 AIの性質 規制態様
容認できないリスク 人々の安全、生活、権利に対する明らかな脅威と見なされるAI
例:公的空間での法執行目的の遠隔生体認証
原則禁止(例外あり)
ハイリスク 人々の安全や基本的権利に悪影響を及ぼし得るAI
例:医療機器、人事

主体ごとに異なる義務あり

  • AIシステムへの要求事項
  • 適合性評価 等
限定的なリスク 透明性の確保が必要なAI
例:チャットボット
透明性の確保(AI利用の通知)
最小限のリスク 人々の権利や安全に対するリスクが最小・ゼロに過ぎないAI 特段の法的義務なし(自主行動計画の策定)

執筆者

KPMGコンサルティング シニアマネジャー 新堀 光城

月刊『研究開発リーダー』 9月号掲載(一部加筆・修正しています)。この記事の掲載については、株式会社技術情報協会の許諾を得ています。無断での複写・転載は禁じます。

AIビジネス推進に向けた法務・コンプライアンスリスクマネジメント

お問合せ