2025年上半期世界各国のAI規制現状
2025年米国のAI規制政策の変動がもたらした影響及び日本、世界各国のAI規制の現状についての紹介
2025年米国のAI規制政策の変動がもたらした影響及び日本、世界各国のAI規制の現状についての紹介
2025年1月20日、米国ではバイデン政権がトランプ政権に変わり、政権交代に伴い、AIに対する政策を含め、さまざまな政策が変わってきました。米国の政策の変更は、世界の他の国にも影響を与える可能性がありますが、本文では世界各国におけるAI規制政策や規制ガイドラインに着目し、世界各国のAI規制の現状はどのようになっているのかをまとめました(2025年以前の世界各国のAI規制は各国のAI規制動向と欧州連合AI規制案について - KPMGジャパンを参照できます)。
解説する国と地域としては、今年政権交代があった米国の他に、日本、AI規制において前から注目されてきたEU、中国、AI規制案を撤回したカナダ、今年全国レベルの包括的なAI規制法を公表した韓国があります。その他に、今まで自国のベースでAI規制を進めてきたオーストラリア、シンガポール、今後のAI規制の動きが注目されるサウジアラビアの現状も解説します。
目次
1.米国のAI規制の現状
AIの規制について、バイデン政権時代の米国連邦政府は、「責任あるAIの開発と利用」を重視してきました。2023年10月にバイデン政権は「人工知能(AI)の安心、安全で信頼できる開発と利用に関する大統領令」を発令し、AIの利用については、国家の安全保障とともに、AIの安全性、公平性と公民権に関するガイダンスの策定を義務付けていました。
各州レベルでは、州ごとのAI規制法が作られており、ユタ州は他州に先駆けて、2024年5月に「Artificial Intelligence Amendments:人工知能修正法案」1を施行しました。当法では、生成AIサービス利用者に求められた場合、サービス利用者自身が対話しているのは生成AIであることを開示しなければならないと義務づけています。同年5月に、コロラド州では全米初となる包括的な州レベルのAI規制法「Colorado AI Act:コロラド人工知能法」2が成立し、高リスクAIシステムの開発者と利用者に対してリスク管理、影響評価、消費者通知などの義務が課されました。その後2024年9月に、カルフォルニア州では、学習データの開示を義務付ける法律3、AI透明化法律4等、複数のAI関連法律が成立しました。
2025年発足したトランプ政権は、バイデン政権時代のAI規制を継続しませんでした。1月20日に大統領として就任したトランプ氏は、1月23日に「Removing Bariers to American Leadership in Artificial Intelligence:人工知能における米国のリーダーシップへの障壁を取り除く大統領令」5を発令し、既存のAI政策のなかで米国のAIイノベーションの「障壁」となるような内容を無効にしました。これにより、米国は連邦レベルで事実上AIの規制緩和と開発奨励に方向を転換したことになり、当面国策としてのAIの法規制は強まらないと考えられます。
2025年5月に、トランプ政権は「one big beautiful bill Act:大きく美しい法案」6を提出し、22日に下院で可決されました。法案には、「州や自治体が『AIモデル』『AIシステム』『自動意思決定システム』を規制することを10年間禁止する」という条項が含まれていますが、本法案が成立した場合、今までの州レベルのAI規制法は撤廃される可能性があるといわれていました。しかし当条項は7月2日に、悪影響を及ぼすAIの開発を防げなくなるとして、州議会などからの反発が強まっていたため上院により削除されました。政策の変動が早いなかで、米国の今後のAI規制の動向は引き続き注目されます。
図1 バイデン政権とトランプ政権のAI規制
2.日本のAI規制の現状
日本では2024年4月に経済産業省・総務省より「AI事業者ガイドライン1.0」が公表されましたが(「AI事業者ガイドライン(第1.0版)」についての解説 - KPMGジャパンを参照)、2025年3月に「AI事業者ガイドライン1.1」7に更新しました。新しいバージョンでは、生成AIの普及と影響や、各AI事業者のリスク管理の強化、透明性とアカウンタビリティの向上等、事業者のより倫理的かつ責任ある行動を強調する内容になりました。
2025年2月に、内閣府AI戦略会議・AI制度研究会から、現行の日本のAIに関する制度の考えをまとめた「中間とりまとめ」8を公表しました。「中間とりまとめ」には、日本におけるAIの規制については、既存の法令の適用とソフトローの活用を中心にする考えや、国外のAI事業者に対しても国内事業者と同じ制度の対象にすべく、明確にルール化を検討するとの記載があります。また、AIのリスクについては、イノベーションを促進しつつリスクへの対応を両立する考えが中心であり、日本政府の役割としては、司令塔機能の強化や、安全性向上の対策、重大インシデントの調査と情報発信等が挙げられています。医療機器、自動車運転、基盤サービス等生命・身体の安全、国家安全保障に関わる分野については特に注力して対応していくと記載されています。
2025年5月に、日本においてAIに特化した初の法律「人工知能関連技術の研究開発及び活用の推進に関する法律」(AI推進法)9が成立しました。当法は、技術動向の調査や事業者への指導といった方法で国がAIの悪用リスクに対応し、国民の不安を和らげつつAI活用を促進することを狙いとしています。AI技術の不正利用や権利侵害のリスクの対応については、当法16条で、国は不正な目的や、国民の権利利益の侵害が生じた事案について、指導、助言、情報の提供とその他の必要な措置を講ずるとの記載があり、AI悪用事業者に対し国が調査権を持つことになりますが、悪用事業者に対する罰則に関する記載はありません。悪用事業者に対する抑制効果については、今後課題になる可能性があります。
図2 AI推進法の基本的施策
上述したものの他に、日本におけるAI規制やリスク対応に関わる内容として、日本AIセーフティインスティテュート(AISI)が公表した「AIセーフティに関する評価観点」、「AIセーフティに関するレッドチーミング手法ガイド」(AISIのAIセーフティに関する評価観点ガイドとレッドチーミング手法ガイドの解説 - KPMGジャパンを参照)等があります。
全体的に言うと、日本におけるAI規制は、「既存の法律+ソフトロー」およびガイドラインによる自主的な取組みが中心となり、EU AI Actや韓国のAI基本法のような強制的な罰則はありません。既存の法律に関しては、「中間とりまとめ」に記載したように、AIに起因するリスクや問題の対処にあたって、各分野の所管府省庁が法令により対応しています。例えば、AIの開発・学習および生成・利用過程での他者の著作権の侵害については著作権法、バイアスの助長についてはヘイトスピーチ解消法、労働関係法令、民法等で対応します。
図3 「中間とりまとめ」記載のAIリスク例と対応法令
3.EUのAI規制の現状
EUでは、2021年4月にAIの規制法案が公表され、そして2024年5月に内容の改善を経て「EU Artificial Intelligence Act」(「EU AI Act」)が成立されています(EUのAI規制法~その影響と対策のポイントは - KPMGジャパンを参照)。「EU AI Act」の成立当初、当法の適用開始時期も図2で示したように公表されていますが、2025年6月本文の執筆時点では、当法はタイムラインどおりに適用開始しており、2025年2月に禁止AIの条例が既に適用されています。
図4 EU AI Actの適用開始時期
しかし、厳しい規制はEUにおけるAI事業の発展を阻害しかねない意見も出ており、2025年4月に欧州委員会により、EUがAI分野での世界的リーダーとなることを目的とした「The AI Continent Action Plan:AI大陸行動計画」10が公表されました。計画では、大規模なAIデータおよびコンピューティング・インフラの構築、大規模および高品質なデータへのアクセス拡大、EUの戦略的部門でのアルゴリズム開発とAI採用の促進、AIスキルと人材の強化といった具体的な施策とともに、「AI法サービスデスク」を設置し、特に中小企業の規制対応負担を軽減し、規制の簡素化を行う内容が記載されているため、これで実質的にEUではAIの規制が一部緩和されることになると見られています。実際、2025年7月時点で、EUでは110以上の企業と団体による最も強力なAIモデルに適用される規制の実施延期と「イノベーションに配慮した規制アプローチ」を求める書簡が欧州委員会のフォンデアライエン委員長宛に送られており、このような一連の動きにより、AI法の施行自体がさらに先送りされる懸念も出ています。
図5 「AI大陸行動計画」の5つの施策
4.中国のAI規制の現状
中国のAI規制については、2021年12月に国家インターネット情報弁公室等により「インターネット情報サービスアルゴリズム推薦管理規定」11、2022年11月に「ディープシンセシス技術及びディープシンセシスサービスの提供に関するインターネット情報サービスディープシンセシス管理規定」12、2023年7月に「生成AIサービス管理暫定弁法」13が公表されており、現在も継続的に施行されています。3つの規定のなかで、アルゴリズム推薦サービスの提供者に対しインターネットトまたは社会動員能力を有するアルゴリズムの届出制度が設けられていますが、2025年5月まで官報で公開されたデータ14によると、アルゴリズムの届出件数は総計575件となっています。当規定は今後とも継続的に施行されていく予定で、届出についてのデータも官報で定期的に公開されています。
図6 アルゴリズムの届出件数
5.カナダのAI規制の現状
カナダのAI規制については、政府は2022年6月に、カナダ全体のAIシステムに対する包括的な規制枠組みを確立することを目標に、既存の連邦消費者プライバシー保護法の改正草案「Bill C-27」の中に新たに「Artificial Intelligence and Data Act:AI及びデータ法」(AIDA)15を構成に含め、草案を公表していました。しかし、対象AIの定義範囲や要件の不明確さや独立した監視制度の欠如等、懸念の声が多く挙げられていたため、最終的には成立に至らず、2025年1月にAIDAの草案は廃止になりました。草案には生体情報識別、医療や緊急事態サービス等のAIシステムを「ハイインパクトAIシステム」と定義し、システムの使用によるリスクを特定・評価しないといけない等、要求事項を提示していました。現在、カナダでは、今後のAI規制の方向性についてはまだ不明確な状態になります。
6.オーストラリアのAI規制の現状
オーストラリア政府はオーストラリアをAI規制のグローバルリーダーを目指すために、2024年9月に「Voluntary AI Safety Standard:自主的AI安全基準」16を公表しました。当安全基準はAIシステムやAIサービスを開発・調達・導入するオーストラリアの企業・部門・業界に対し、人間中心のアプローチに基づき、AIがもたらしうるリスクを避けるための10の自主的なガードレールを提示しています。概要は図5のとおりです。
図7 10の自主的なガードレールの概要
そして同年の同月に、政府は「Proposals paper for introducing mandatory guardrails for AI in high-risk settings:ハイリスクAIシステムに対する義務的なガードレールに関する提案書」17を公表し、提案内容が立法するまでの各業界の意見やコンサルテーションを求めていました(2024年10月4日に締め切り)。現時点において官報で公開されたコンサルテーションの回答は279件ですが、まだ最終的に法律として成立していない状態です。
図8 ハイリスクAIに対する義務的ガードレール提案書のタイムライン
7.シンガポールのAI規制の現状
シンガポールは2019年1月に、シンガポールの情報通信メディア開発庁(IMDA)と民間組織が連携してできた組織AI VERIFY Foundationにより「Model AI Governance Framework 1.0」18を公表しました。2024年5月に、当フレームワークの考え方を延長し、生成AIに特化したフレームワーク「Model AI Governance Framework for Generative AI」19を公表しています。このフレームワークは、アカウンタビリティ、データ、信頼性、インシデント報告等9つの面からAI/生成AIにおける原則を提示していますが、法的効力はありません。現時点でシンガポールでは法的効力のあるAI規制はまだないとみられます。
また、シンガポールでは2024年10月に国家のデジタル戦略を刷新し、AIへの追加投資等、AI立国の戦略を打ち出していますが、今後AI規制についてどのような動向があるのかは注目されます。
図9 2つのAIガバナンスフレームワークの枠組み
8.サウジアラビアのAI規制の現状
サウジアラビアのAI規制については、2023年9月にSaudi Data&AI Authority(SDAIA)が「AI Ethics Principles:AI倫理原則」20を公表しており、サウジアラビア王国域内でAIシステムを設計、開発、展開、実装、使用、または影響を受けるすべてのAI利害関係者を対象に、AI倫理のフレームワークを策定しました。当フレームワークは、AIシステムのリスクを「Unacceptable risk(容認できないリスク)」、「High risk(ハイリスク)」、「Limited risk(限定的なリスク)」、「Little or no risk(極小リスクまたはリスクなし)」に分類し、リスクの大きさによって適切なリスク管理を提唱しています。また、AIの倫理原則については、「公平性」、「プライバシーとセキュリティ」、「人間中心」、「社会と環境への利点」、「信頼性と安全性」、「透明性と説明可能性」、「アカウンタビリティと責任」の7つを立てています。当フレームワークは現地のAI政策において継続的に参照されているとみられますが、現時点でサウジアラビアではほかに法的効力のあるAI規制はみられていません。
図10 「AI倫理原則」におけるAIリスクの4つの分類
9.韓国のAI規制の現状
韓国は2024年12月に「人工知能の発展と信頼の構築に関する基本法」(AI基本法)21が成立し、2025年1月に公表されました。当基本法は2024年11月までに国会で提出されたAI関連法案を統合したもので、EU AI Actに続き、アジア地域では初、世界レベルでは2番目のAIに関する包括的な法的枠組みとみられています。
基本法ではAIの発展と信頼基盤造成のための推進体系の構築や、影響度の高いAI・生成型AIに対する安全・信頼基盤の構築、AI産業の育成支援を目標に、AI事業者の具体的な義務と責任を定めています。特に高影響AIシステムに関わる事業者に関しては、利用者に対し、提供する商品・サービスがAIであることを事前に告知することや、利用者保護措置、高影響AIシステムの人的モニタリングの確保、安全性・信頼性に関する措置に関する文書の作成・保存等が義務付けられています。また、罰則に関しては、AI事業者に課された義務および一般的にAI基本法に規定された規則の違反に対した場合、最高3,000万ウォンの罰金が課される可能性があります。
当基本法は、2026年1月から施行開始予定で、対象となるAI事業者に対して、当基本法に従うまでに1年の猶予期間が与えられています。
図11 AI基本法におけるAI事業者の義務
まとめ
本文では2025年現在、トランプ政権が米国のAI規制政策に対する影響と各国現在のAI規制動向をまとめました。米国は、これからAIの開発とイノベーションを重視する方向に転換し、AIに対する規制は実質的に緩和される見通しですが、その影響で規制を緩和する方向で動くEUと、今まで策定してきたAI規制法やガイドラインを継続的に運用していく国があります。AIの普及に伴い、サイバー攻撃、詐欺等、犯罪に悪用されるリスクが増えるなか、企業としてAI事業に携わる際、関係する国のAI規制策を確認することが前提になってきます。
一方、日本には罰則や罰金のようなAIのリスクに対する強力な規制がないため、企業としては、自社が開発・提供・運用しているAIに対して、企業責任を果たし、品質・リスク管理体制を有効に機能させるためには、自主的にAIガバナンスを構築することが重要です。
KMPGジャパンは、「KPMG Trusted AI」フレームワークを導入し、日本国内をはじめとした各国政府や公的機関が発行する指針・ガイドライン、進展する法制化動向等をアドバイザリーに取り入れ、企業のAIガバナンス構築を支援します。AIの活用・導入を加速する際に、先進的な技術が複雑性とリスクをもたらす可能性がある状況において、「KPMG Trusted AI」は責任ある倫理的な方法でAI戦略とソリューションを設計、構築、展開、使用するための戦略的アプローチとフレームワークであり、企業価値の向上に貢献します。
1 S.B.149:Artificial Intelligence Amendments
2 Consumer Protections for Artificial Intelligence
3 Generative AI: Training Data Transparency Act
4 SB-942 California AI Transparency Act
5 Removing Barriers to American Leadership in Artificial Intelligence
6 H.R.1 - One Big Beautiful Bill Act
10 The AI Continent Action Plan
11 インターネット情報サービスアルゴリズム推薦管理規定原文
12 ディープシンセシス技術及びディープシンセシスサービスの提供に関するインターネット情報サービスディープシンセシス管理規定原文
15 Artificial Intelligence and Data Act
16 Voluntary AI Safety Standard
17 Proposals paper for introducing mandatory guardrails for AI in high-risk settings
18 MODEL ARTIFICIAL INTELLIGENCE GOVERNANCE FRAMEWORK
19 Model AI Governance Framework for Generative AI
21 AI基本法原文
監修者
あずさ監査法人
Digital Innovation&Assurance統轄事業部
宇宿 哲平
近藤 純也
執筆者
あずさ監査法人
Digital Innovation&Assurance統轄事業部
王 雪竹
須崎 公介