AIに関する法規制やガイダンスに関する解説

AI倫理や、社会原則、海外の動向、規制案の内容について解説します。

AI倫理や、社会原則、海外の動向、規制案の内容について解説します。

近年、AI倫理や国内外のAIに関するガイドライン・規制案に合わせ、企業による独自のAI原則等を作成する動きが進んでいます。EUでは規制案が提示されている一方、日本ではルールベースによる規制ではなく、法的拘束力のないガイドラインを策定する方向で進んでいます。

あずさ監査法人では、今後強化されていくと考えられるAIに関する規制・ガイドラインなどに対応するため、企業内で活用されているAIの適切性を、第三者の立場から評価・検証するサービスを展開しています。

評価・検証サービスにおいて、8つの観点に従って検証を行います。これらの検証観点に整理した背景として、AI利用における倫理、国の考え方、ガイドライン、規制案、AI利活用の事例、技術的な知見などAIを取り巻く社会環境に関連する論点が存在します。

公平性、説明可能性/解釈可能性、AIモデルの精度、セキュリティ/データ保護、追跡可能性/監査可能性、事業継続性、データ品質、ガバナンス


これらの論点について、以下のテーマで解説していきます。

お問合せ

AI倫理とAI社会原則について

 

※以降は、順次公開予定です。

海外の動向、欧州の規制案

「我が国のAIガバナンスの在り方」においては、イノベーションを阻害しないようルールベースではなく、中間的なゴールベース(ゴール=人間中心のAI社会原則)のガイドラインが必要との見解を出していますが、一方、欧州では具体的な規制案(ルールベース)が公表されています。欧州に向けてサービスを展開する企業にとっては、当該規制案が適用される可能性があり、注視しておく必要があると考えられます。ここでは当該規制について解説します。

ハイリスクAI

欧州の規制案でいう「ハイリスクAI」に該当するAIシステムについて、これまでのAI活用の事例も踏まえて注意すべきポイントについて解説します。

第三者認証

欧州の規制では、ハイリスクAIについてEU加盟国が設置した第三者認証機関による事前審査が必要と考えられています。第三者認証者機関とその認定機関の関係性や認証のために必要な内容について解説します。

あずさ監査法人では、上記のようなAIを取り巻く社会環境も踏またうえで、「AIが目的に沿ったパフォーマンスになっているか」だけでなく「公平性」、「説明可能性」、「追跡可能性」等の観点も含め、AIの適切性を、第三者の立場から評価・検証するサービスを提供します。

執筆者

あずさ監査法人
Digital Innovation部