AIガバナンス用語集

AIガバナンスに関する用語をまとめ、50音順に並べました。(随時、更新予定です)

AIガバナンスに関する用語をまとめ、50音順に並べました。(随時、更新予定です)

ISO/IEC 42001

正式名称「ISO/IEC 42001:Information technology-Artificial intelligence-Management system」。2023年12月に、国際標準化機構(ISO)と国際電気標準会議(IEC)が公表した、世界初の、組織におけるAIシステムのガバナンスマネジメント体制のフレームワークを提示した規格である。フレームワークには、組織状況、リーダーシップからAIガバナンスマネジメント体制の計画、サポート、オペレーション、パフォーマンス評価と改善まで示しており、また、AIリスクに対するコントロールについて、AIマネジメントシステムのサイクルに合わせて、AIポリシーの確定におけるリスクに対するコントロールから、第三者側の責任分担まで網羅的に提示している。

アジャイル・ガバナンス

急速に変化する環境で、組織やプロジェクトが柔軟かつ迅速に意思決定・管理を行うための枠組み。アジャイル開発の考え方を基盤とし、透明性、コラボレーション、継続的な改善を重視する。変化に適応しながら競争優位性を確保し、リスク管理や製品開発において迅速な対応が可能となる。ただ、従来型のガバナンスモデルとは異なるため、組織文化の変革が必要となる場合がある。総務省・経済産業省公表の「AI事業者ガイドライン 第1.0版」では、アジャイル・ガバナンスを次のように定義している。「事前にルール又は手続が固定されたAIガバナンスではなく、企業・法規制・インフラ・市場・社会規範といった様々なガバナンスシステムにおいて、「環境・リスク分析」「ゴール設定」「システムデザイン」「運用」「評価」といったサイクルを、マルチステークホルダーで継続的かつ高速に回転させていく、「アジャイル・ガバナンス」の実践が重要となる」。

EU AI責任指令案(AI Liability Directive)

AIシステムの使用により引き起こされた損害に対する契約外の民事責任の特定について、統一的なルールを定めることで、被害者が正当な請求を行いやすくすることを目的としたEUの指令案。今後、EU加盟国ごとに国内法制化が必要になる。特に、ハイリスクAIシステムに関する証拠開示制度の設立や、因果関係の推定に関するルールの導入、AI規制法と平仄をとりAIシステムのプロバイダーなどに対して説明義務を課すなどの措置を通じて、法的安定性を高め、AI利用の促進を目指す。

AIガバナンス(AI Governance)

AI技術を開発・利用・提供する際、社会規範や法令を順守し、活動を適切に管理・統制するための体制や運用のこと。AIの意思決定には、バイアス等、従来のITシステムと異なるリスクがあるため、AIならではのガバナンスが求められる。総務省・経済産業省公表の「AI事業者ガイドライン 第1.0版」では、AIガバナンスを次のように定義している。「AIの利活用によって生じるリスクをステークホルダーにとって受容可能な水準で管理しつつ、そこからもたらされる正のインパクト(便益)を最大化することを目的とする、ステークホルダーによる技術的、組織的、 及び社会的システムの設計並びに運用」。

AIセキュリティ

システムの脆弱性を突く悪意を持った攻撃や、AIモデルの想定外の操作といった脅威やリスクから、AIモデルや取り扱いデータを保護すること。特にAIを悪用したサイバー攻撃は増加傾向にあり、プロンプトインジェクションによるデータ漏洩やモデルの悪用といったAIに対する攻撃だけではなく、ディープフェイクによるなりすましの顔や音声認証、生成AIによるフィッシングメールの自動化などのAIによる攻撃の高度化も進んでいる。こうした脅威やリスクからAIセキュリティを確保するため、AIシステムの安全な開発、維持、ガバナンスといった対策が求められる。

AIモデル/AIシステム(AI Model/AI System)

ISO/IEC 22989:2022では、それぞれ次のように定義している。AIシステム:「人間が定義した所与の目標の集合に対して、コンテンツ、予測、推奨、意思決定等の出力を生成する工学的システム」。AIモデル:「入力データ又は情報にもとづいて推論又は予測を生成する数学的構造」。また、総務省・経済産業省公表の「AI事業者ガイドライン 第1.0版」ではそれぞれを次のように定義している。AIシステム:「活用の過程を通じて様々なレベルの自律性をもって動作し学習する機能を有するソフトウェアを要素として含むシステム」。AIモデル:「AIシステムに含まれ、学習データを用いた機械学習によって得られるモデルで、入力データに応じた予測結果を生成する」。

エコーチェンバー

自分と似た意見を持つ人々が集まる場で交流し、似通った価値観にばかり触れた結果、自分たちの意見が増幅して、多様な視点に触れることができなくなる現象のこと。これにより思考の偏りが強まる問題が生じている。特にSNS上で起こりやすい現象であり、興味のある人ばかりをフォローすることで自分が支持したい意見ばかりが周りにあふれ、自分の意見が多数派だと信じてしまうことがある。

OECD AI原則

AIシステムの設計、開発、運用における信頼性と倫理性を確保するための国際的なガイドラインのこと。
2019年に採択、2024年に更新された、AIに関する政府間標準であり、革新的で信頼性のあるAIの利用を促進し、人権と民主的価値を尊重することを目的として5つの原則と政策提言が示されている。

(1)包括的成長、持続可能な開発、福祉、(2)人権と民主的価値(公平性とプライバシーを含む)、(3)透明性と説明責任、(4)堅牢性、安全性、セキュリティ、(5)説明責任

堅牢性(ロバストネス)

システムが予期せぬエラーや環境変化に対し正常に機能し続ける能力のこと。日本語では頑健性(がんけんせい)と訳すこともある。例として、AIにインプットするデータに測定誤差や表現のブレなどのノイズが含まれてしまった場合でも、そのノイズの影響を受けず正しい予測値を出力することができればロバストネスが高いと言える。

公平性(Fairness)

AIの開発、提供、利用中に配慮すべき原則の1つ。ただ、公平性をすべてのAIシステムに等しく定義するのは困難で、ISO/IEC TR 24027:21では以下の場合をAIシステムの「不公平」な行為と定義している。

  • 機会やリソースを不公平に割り当て、当事者にネガティブな影響を与える。
  • AIシステムが提供するサービスの性能と品質が当事者によって異なる。
  • AIシステムが既存の社会的にステレオタイプを強化する。
  • AIシステムが軽蔑的で侮辱的な行動をとる
  • AIシステムが一部の当事者について過剰、あるいは過不足な表現を行うか、または表現しない。

説明責任(アカウンタビリティ)

AIシステムを提供する関係者が、法令の遵守状況等について、証跡に基づき説明できる状態を維持する義務のこと。AIシステムの設計・開発・運用に関し、法令に従った組織としてのルールが定められており、ルール通りの実務遂行が記録で証明されることで達成される。特に規制当局からの調査依頼やユーザーからの問い合わせなど外部から説明を求められた際に、その義務を果たすこととなる。透明性の確保や定期的な従業員教育・啓発、内部監査の実施が組織として責任を全うするために重要な活動となる。
なお、総務省・経済産業省公表の「AI事業者ガイドライン第1.0版」では、アカウンタビリティを次のように定義しており、一般的な定義とは異なる点について留意の必要がある。「アカウンタビリティを説明可能性と定義することもあるが、本ガイドラインでは情報開示は透明性で対応することとし、アカウンタビリティとはAIに関する事実上・法律上の責任を負うこと及びその責任を負うための前提条件の整備に関する概念とする」。

敵対攻撃(Adversarial Attack)

システムを悪用する目的で行われるAIモデルの認識を混乱させる方法である。手段としては、モデルに誤分類を引き起こさせるため、人間には分からないようなわずかなノイズを加え、誤った予測結果を出力させたり、機械学習モデルの学習に用いられたデータが流出したりするような攻撃。代表的な敵対攻撃には、「敵対的サンプル」や「モデル反転攻撃」がある。

データポイズニング(Data Poisoning Attack)

敵対攻撃の一種で、AIモデルの学習データに意図的に不正確または有害なデータを混入させることで、モデルの性能や出力を操作する攻撃手法である。この手法は、主に機械学習モデルを標的としており、モデルの判断基準や予測能力を歪めることを目的とする。ポイズニング・データにより、モデルが悪意のあるデータ・パターンの影響を受けやすくなり、攻撃者の希望する出力が生成される可能性があり、攻撃者が自分の利益のためにモデルの動作を強制できるというセキュリティー・リスクが生じる可能性がある。

電子透かし

デジタルデータ(画像、音声、動画、文書など)に情報を埋め込む技術で、これにより、著作権保護や改ざん検知、コンテンツの所有権の証明が可能となる。目に見えない方法で埋め込まれ、通常の利用では気づかれず、必要に応じて特定のツールにより、検出や確認が行われる。

透明性(Transparency)

AIを利用しているという事実、活用している範囲、データの収集方法等に関する正しい情報が、利害関係者に対して明確かつ容易に提供されること。具体的な要件としては、(1)理解可能で平易な表現により処理内容が説明されていること(2)情報がアクセスしやすい場所に記載及び保管されていること、などで判断される。透明性はAIシステムの意思決定プロセスを理解するための重要な要素で、利用するデータやアルゴリズムに関する解説やシステム設計・開発・運用についての技術文書、データ処理の記録などにより担保される。

内閣府 AI戦略会議

政府が2023年5月に国内のAI(人工知能)政策の司令塔として立ち上げ「広島AIプロセス」の設置を進めたことを受けて、国内のAI政策のルールづくりを主導するもので、AI技術の進展と社会実装に関する議論するための有識者会議のこと。デジタル社会実現に向けたAI利用の意義や、AI利用を加速するための取組み(連携基盤構築・人材育成・事業環境整備)や、AIの透明性と信頼性の確保、懸念されるリスクの具体例と対応策などが、議論されている。

バイアス(Bias)

AIにおけるバイアスは、ISO/IEC TR 24027:21では「他と比較し、特定の対象、人物または集団における取り扱い上の系統的な差異」と定義しており、AIシステムの入力、構築要素である設計、トレーニング、運用等に見られる特徴の1つである。AIに関連するデータのバイアスは「もし対処しないと、特定の集団に対してAIシステムの出力の性能が向上または低下させられるデータの特性」と定義しており、立場によって良し悪しの相対性を持つ概念。バイアスを放置すると、AIシステム全体の説明可能性や信頼性の問題につながる可能性がある。

ハルシネーション

AIが事実に基づかない誤った情報を生成する現象のこと。日本語では幻覚と訳されることが多い。ハルシネーションが生じる原因は、AIの学習データの問題(例:誤ったデータの含有やデータの偏り)やAIモデルの設計の誤り、対話式AIへのあいまいな指示などが挙げられる。世の中で広く普及している大規模言語モデルを搭載した生成AIにおいても、出力結果にもっともらしい誤りが含まれることがあり、現在の技術では完全に防ぐことは難しい。そのため、発生することを前提とした対策が必要である。

広島AIプロセス

2023年5月のG7広島サミットの結果を踏まえて立ち上げられた、AIに関する国際的なルール形成を各国の閣僚級が協議する枠組みのこと。同年12月には安全、安心で信頼できる高度なAIシステムの普及を目的とした指針と行動規範からなる初の国際的政策枠組みとして「広島AIプロセス包括的政策枠組み」がとりまとまり、G7首脳に承認されている。今後、G7の枠を超えて産学官等の多様な主体からの広島AIプロセスへの賛同の輪が拡大し、AIに関する包摂的な国際ガバナンスの形成が促進され、世界中の人々が安全・安心・信頼できるAIを利用できるようになることが期待されている。

広島AIプロセス 国際指針・行動規範

2023年10月、広島AIプロセスの進展として「高度なAIシステムを開発する組織向けの広島プロセス国際指針」および「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」11項目が公表された。その後、同年12月、「全てのAI関係者向けの広島プロセス国際指針」が公表され、10月公表の上記両文書の内容を整理したうえで、偽情報の拡散等のAI固有リスクに関するデジタルリテラシーの向上や脆弱性の検知への協力と情報共有等、利用者に関わる内容が12番目の項目として追加された。

フィルターバブル

インターネット上で検索エンジンやSNSなどを使用する際、過去の行動や興味に応じて情報がフィルター(レコメンデーションやターゲティング広告等)されることで、自分が好む情報にしかアクセスできなくなってしまう現象のこと。エコーチェンバーと同様、多様な視点が不足し、思考の偏りが強まるといった問題を生じさせている。

プロンプトインジェクション(Prompt Injection)

LLMに対するサイバー攻撃の一種で、攻撃者は、悪意のある入力を正当なプロンプトとして偽装し、生成AIシステム(GenAI)を操作して機密データを漏洩や、誤った情報を拡散などの悪い事態を引き起こしたりする攻撃を指す。典型的なプロンプトインジェクションの例として、AIチャットボットに悪意のあるプロンプトをいれ、チャットボットの開発者が出力しないように制御している内容を出力させるものがある。

モデル・リスク

モデル(統計等の手法を用いて、推定値や予測値といったアウトプットを出力するもの)に付随するリスクで、主に金融業界で使われる用語。金融庁の「モデル・リスク管理に関する原則」によれば、モデル・リスクは「モデルの誤り又は不適切な使用に基づく意思決定によって悪影響が生じるリスク」で、「金融機関の健全性の低下、法令の違反、企業価値の毀損等の要因となり得る」とされており、金融機関が管理すべきリスクの1つである。金融機関の業務がモデルへの依存度を高め、AIなどの高度な手法がモデルに活用されることが多くなっていることを受け、注目が高まっているリスク領域。

お問合せ