はじめに

現在、AIを開発・運用するうえでガバナンスの重要性は広く認識されています。一方でAIシステムは人間の意図や価値観から逸脱する可能性があり、AIシステムが安全で責任ある方法で開発・運用がされるためにはガバナンスとともに「アライメント」という概念を考慮する必要があります。アライメントとは、AIシステムの目標や行動を人間の意図や価値観と整合させることであり、このアライメントという概念を基盤として据えることで、より包括的なAIとの共進化が可能となります。

AIガバナンスとアライメントー基本概念の整理ー

AIガバナンスとは、AIシステムの開発・展開・利用に関する制度的・社会的な枠組みを指します。このガバナンスの枠組みは、法規制や政策、業界の自主規制、技術標準、倫理指針など、多様な統制メカニズムを含みます。一方、AIアライメントとは、AI自体を人間の意図や倫理原則に従わせるといった考え方です。したがって、AIアライメントはAI自体の枠組みであり、AIガバナンスはより大きな社会におけるAIへの枠組みとして捉えることができます。

昨今の生成AIの悪用といった問題においては、このAIアライメントとAIガバナンスの両方が関わっているため、この2つが正常に働くような状況を作ることが理想であるといえます。1

現に最新のKPMGの調査では5人に3人(61%)がAIシステムを信用することに警戒心を抱いているという結果が出ており2、このような社会的な不安に応えるためにも、アライメントの確保は不可欠です。2019年3月に内閣府が発表した「人間中心のAI社会原則」や、2024年4月に経済産業省と総務省が公開した「AI事業者ガイドライン」も、このガバナンスとアライメントの両方を考慮した包括的な枠組みの1つとして位置づけられます。2

アライメントの必要性と3つの形態

アライメントが確保されていないAIシステムは、意図せぬ偏見を助長したり、予期せぬ行動をとったりする可能性があります。そのためには、AIシステムの開発段階から運用段階に至るまでの包括的な管理体制の構築を想定し、技術面・組織面・倫理面からの重層的なアプローチを確立していくことが重要です。さらに、人間拡張(Human Augmentation)が進行した状態では、AIと人間の境界が曖昧になり、制御不能な状態に陥った場合に発生するさまざまな悪影響や、それに伴う責任の所在など、我々が経験したことのない新たなリスクが生じる可能性があります。特に企業のAI利用において、このリスクは看過できません。そこで現在、研究や整備が行われている以下のアライメントの3つの観点が必須となります。

  • 生成モデルの品質保証:出力の公平性、バイアス排除、説明可能性の確保
  • AI行動の制御:自律的なAIシステムの目的・行動の人間価値観との整合
  • 社会システムの設計:AIを含む環境全体を考慮した包括的なガバナンス構築

これらの観点は、単なる技術的な制御を超えて、社会的な価値観との調和を目指すものです。実際、調査では45%の回答者が意思決定における理想的な分担比率を「AI 25%/人間 75%」と考えているという結果1が出ており、これはAIシステムと人間の適切な関係性についての期待を表しています。

ガバナンスの再考ー共進化の視点からー

このように、アライメントの確保は企業の社会的責任として重要です。特に日本では、AIリスク管理体制の整備が十分とは言えず(整備済みはわずか4.3%2)、アライメントを考慮した新しいガバナンスの形が求められています。特に、生成AIの登場が世界を急激に変化させたように、汎用AI(AGI: Artificial General Intelligence)の実現が期待される現在においても3、アライメント不足や人間拡張の進展が何かのきっかけで社会に大きな影響を及ぼす可能性があります。

このような状況を踏まえると、企業には2つの重要な責任があります。1つは、適切なアライメントを確保するための技術的・組織的な取組みです。もう1つは、そのアライメントをガバナンスの枠組みの中で実現することです。その実現には、従来型のPDCAサイクルではなく、変化掌握志向のボトム(現場)でのプランニングとモニタリング、そして経営の意思決定・対応スピードアップが求められます。この新しいガバナンスの形は、予測困難な技術革新や社会変化にも柔軟に対応できる特徴を持っています。この現場主導の変化察知と迅速な意思決定を基盤としたアジャイル・ガバナンスの考え方は、この課題に対する1つの回答となりえます。

おわりに

AIの社会的影響力の大きさを考えると、企業にはアライメントを確保しつつ、適切なガバナンスの下でAIを開発・運用する責任があります。そのためには、タイムリーかつ定常的に変化を取り入れ、将来を予測し、技術革新に備えた迅速な意思決定が重要となります。

KPMGの「Trusted AI」フレームワーク4は、このような課題認識に基づき、アライメントとガバナンスの両方の視点に立って、企業のAIガバナンス態勢の構築を支援していきます。

参考資料:
1KPMGジャパン「AIは信頼できるか ~AIへの社会的認識の変化に関するグローバル調査2023」
2KPMGジャパン「AI事業者ガイドライン(第1.0版)」についての解説」
3KPMGジャパン「汎用AIの実現化に向けて」
4KPMGジャパン「AIガバナンス-KPMG Trusted AI-」

監修者

KPMGコンサルティング
執行役員 パートナー
熊谷 堅

KPMGアドバイザリーライトハウス
デジタルインテリジェンスインスティテュート リード
佐藤 昌平 / マネージャー

執筆者

KPMGアドバイザリーライトハウス
デジタルインテリジェンスインスティテュート
齊藤 弓 / コンサルタント

お問合せ