Skip to main content

読み込み中です

      Executive Summary

      <主な調査結果>

      • 企業:AI倫理ガイドライン「ある」24.7%(未整備/不明75.3%)。現場で明確に「機能」するのは16.2%と運用の具体化が課題。
      • 医療従事者: 患者へのAI利用説明は限定的(常に9.0%+症例により22.5%)。未実施の主因は「制度が不明確」51.1%。
      • 患者: 期待(時間短縮50.3%等)と不安(機械任せ37.3%等)が併存。事前説明で「最終判断は人」の伝達が十分なされていない懸念あり。

      <構造的課題>

      AI倫理そのものに対する否定や無関心ではなく、企業、医療従事者、患者はいずれも異なる立場からAI医療と向き合っており、結果として責任・説明・運用が接続されない構造が形成されている点が構造的課題として浮き彫りになった。

      <提言>

      • 企業― AI倫理を「宣言」から「現場で機能する責任設計」へ:
        バリューチェーン各段階のチェック観点・責任分担を明確化し、運用ルールとして定着させる。医療機関・患者向けの説明/透明性資料と、継続的リスク評価・第三者監査をセットで整備する。
      • 医療機関― 企業とも連携し組織的なAI倫理対応の実現へ:
        説明・同意を診療プロセスに組み込み、院内ルール(項目/タイミング/記録)として標準化する。院内ガバナンス体制と「人による監督」を明示し、教育・テンプレ整備で現場負担を軽減する。
      • 患者会・市民団体― 「当事者の声」をAIガバナンスに接続する主体へ:
        AI医療の役割・限界・人の関与を平易に伝え、患者が納得して選択できるリテラシー支援を進める。不安や経験を共通課題として整理し、政策・企業・医療機関が対応可能な論点に「翻訳」して対話を促す。
      • 政策立案者― AI倫理を「理念」から「実装可能な制度」へ :
        乱立する指針を整理し、ヘルスケア特化の共通フレームと最低限の実装要件(説明/監督/記録等)を標準化する。責任分担と説明責任を制度上明確化し、教育・説明支援への公的支援を通じて現場実装を後押しする。

      Part1:患者だけでなく、企業も、医療従事者もAI倫理に課題・不安感あり
      Part2:提言~「信頼を生み出す社会インフラ」としてAI倫理と向き合おう

      こちらはPart1です。Part2は上記Linkから閲覧ください。

      Part1:患者だけでなく、企業も、医療従事者もAI倫理に課題・不安感あり

      1.はじめに

      本稿は、2026年2月に公表した「新たな医療倫理としてのAI倫理 ~「エシックス」形成のための「対話」の重要性~」に続く第2弾のレポートである。前回は、AI倫理を開発時のチェックにとどめず、構想から運用・モニタリングまで継続的に取り組む必要性を示した。今回は、その問題意識を踏まえ、企業・医療現場・患者の三者へのアンケート調査を通じて、実態(何が起きているか)と課題(なぜうまく機能しないのか)を明らかにし、企業・医療機関・患者会/市民団体そして政策立案者に向けた提言として整理した。

      ヘルスケア領域におけるAI活用は、診断支援、業務効率化、患者体験の向上など、多方面で急速に進展している。一方で、安全性・公平性・説明責任・プライバシーといったAI倫理上の論点は、制度・現場・市民意識の間で必ずしも整合していない。供給側(企業従業員)、運用側(医療従事者)、受益者(患者)という3つの立場から、AI倫理の実態・課題・認識ギャップを可視化し、今後の制度設計・実装・社会的合意形成に資する示唆を得ることが必要である。

      2.アンケート調査の実施概要

      <企業従業員アンケート>

      タイトル

      医療AIに関する実態調査(企業従業員向け)


      調査対象

      国内在住の20~79歳の就業者のうち、製薬・医療・デジタルヘルス関連業種で自社製品のAIソリューションに関与する者を対象とした。

      調査期間

      2026年2月13日~2月14日

      調査方法

      民間のWEBモニター会社に登録するパネルを用い、オンラインアンケート形式で調査を実施した。

      調査項目

      主な調査項目は以下の通りである。

      ・医療分野におけるAI活用に対する認知状況

      ・AI活用に対する期待および懸念

      ・AI倫理ガイドラインの策定状況

      ・回答者の基本属性(性別、年代等)など

      回収数

      回収数は180件で、設問の欠損がない有効回答150件を分析対象とした。

      <医療従事者アンケート>

      タイトル

      医療AIに関する実態調査(医療従事者向け)


      調査対象

      国内在住の20~79歳の就業者のうち、医療に関わるAIソリューションの利用経験がある医療従事者(医師・看護師・その他医療従事者)を対象とした。

      調査期間

      2026年2月13日~2月18日

      調査方法

      民間のWEBモニター会社に登録するパネルを用い、オンラインアンケート形式で調査を実施した。

      調査項目

      主な調査項目は以下のとおりである。

      ・医療分野におけるAI活用に対する認知状況

      ・AI活用に対する期待および懸念

      ・AI倫理ガイドラインの策定状況

      ・回答者の基本属性(性別、年代等)など

      回収数

      回収数は217件で、設問の欠損がない有効回答200件を分析対象とした。

      <患者アンケート>

      タイトル

      医療AIに関する実態調査(患者向け)


      調査対象

      国内在住の15~99歳の一般個人のうち、医療機関での入院・手術等においてAIソリューションと接点がある者を対象とした。

      調査期間

      2026年2月13日~2月14日

      調査方法

      民間のウェブモニター会社に登録するパネルを用い、オンラインアンケート形式で調査を実施した。

      調査項目

      主な調査項目は以下の通りである。

      ・医療分野におけるAI活用に対する認知状況

      ・AI活用に対する期待および懸念

      ・AI倫理ガイドラインの策定状況

      ・回答者の基本属性(性別、年代等)など

      回収数

      回収数は330件で、設問の欠損がない有効回答300件を分析対象とした。


      3.AI活用と倫理対応の「現在地」

      3.1 企業:倫理は「重要」だが「運用されていない」

      企業従業員を対象にした調査では、自社製品としてAI活用型の製品(例:画像診断AI、病理診断支援AIなど)を開発・販売する、もしくは検討中である企業勤務者150名から回答を得た。同調査結果からは、多くの企業においてAI倫理の重要性自体は認識されている一方で、運用面では十分に定着していないという実態が、数値として明確に示された。

      まず、「自社にAIにかかわる倫理方針・ガイドラインがあるか」という設問に対しては、「ある」と回答した割合は24.7%にとどまった。一方で、「現在策定中」が33.3%と最も多く、さらに「ない」が21.3%、「わからない」が20.7%を占めている。すなわち、約4分の3(75.3%)の企業では、AI倫理ガイドラインが未整備、もしくは存在していても把握されていない状態にあることが分かる。この結果は、AI倫理が「必要なもの」として認識されつつも、組織として明確な形に落とし込めていない段階にとどまっている企業が多数派であることを示している。

      ヘルスケア領域の AI倫理に関する現在地と未来 図表01

      出所:あずさ監査法人「医療AIに関する実態調査(企業従業員向け)」

      次に、AI倫理ガイドラインの運用実感について見ると、「現場で機能している」と明確に肯定的な評価をした回答は限定的(16.2%)であり、ガイドラインが存在していたとしても、実際の開発・導入・判断プロセスにおいて参照される実務ルールとしては十分に機能していないことがうかがえる。

      ヘルスケア領域の AI倫理に関する現在地と未来 図表02

      出所:あずさ監査法人「医療AIに関する実態調査(企業従業員向け)」

      さらに、AI活用型製品に関するリスクアセスメントの頻度に関する設問では、「定期(四半期)」での実施(21.8%)と最も多く、「定期(半期)」での実施(14.9%)と続くが、「導入時のみ」・「イベントドリブン」での対応をあわせても20%程度で、「未決定/不明」も31.0%と、多くの場合、継続的なリスク評価が十分に行われていないことが示唆された。これは、AIを「一度評価すればよい技術」と捉える認識が依然として根強く、運用段階での再評価や見直しが制度化されていない実態を反映している。

      加えて、外部規格や指針への準拠状況(複数回答可)に関しては、医薬品医療機器等法関連指針(36.8%)、ISO/IEC規格(26.4%)、医療情報学会指針(19.5%)などの外部ガイドラインへの準拠を回答する声がみられたが、同時に、準拠しているかどうか「わからない」と回答した層も39.1%を占めた。この結果は、外部規格が企業のガバナンスや開発プロセスに十分に組み込まれておらず、企業現場で可視化・共有化されていないケースが多いことを示唆するものである。

      以上の結果を総合すると、企業セクターにおけるAI倫理対応の「現在地」は、

      (1) 倫理の重要性は認識されている

      (2) しかし、ガイドラインは未整備または策定途中の企業が多数

      (3) 運用・リスク管理・外部規格対応は現場まで十分には浸透していない

      という三点に集約できる。これは、AI倫理が「理念」や「対外的説明」の段階にはあるものの、日常的な意思決定を支える実務インフラとしては未成熟であることを裏付けていると言える。

      3.2 医療従事者:倫理の必要性は理解、しかし制度と時間が不足

      医療従事者を対象にした調査では、AI活用型の製品(例:画像診断AI、病理診断支援AIなど)を実際に使用する、もしくは検討中である医療従事者200名から回答を得た。同調査結果からは、AIを診療の質向上や業務効率化の手段として前向きに評価している一方で、倫理対応の実践には構造的な制約が存在することが、定量的に明らかとなった。

      まず、AI活用の目的については、「診断・治療の質向上」(56.0%)、「業務効率化・負担軽減」(53.5%)が高い割合を占めており、医療従事者がAIを医療の質と持続可能性を支える実務ツールとして位置づけていることが分かる。一方で、AI利用を患者に説明しているかという設問では、「常に説明している」(9.0%)、「症例により説明している」(22.5%)、「原則として説明は行わない」(24.0%)、「把握していない」(44.5%)となっており、過半数の医療従事者がAI利用に関する患者への説明を実施していないか、不確かな状況である実態が示された。

      ヘルスケア領域の AI倫理に関する現在地と未来 図表6

      出所:あずさ監査法人「医療AIに関する実態調査(企業従業員向け)」

      では、なぜ説明が行われていないのか。説明していない理由を見ると、「制度が不明確なため」(51.1%)、「時間が不足しているため」(21.2%)、「医師の負担を懸念しているため」(17.5%)、「資料が不足しているため」(15.3%)といった回答が上位を占めている。これらは、説明を「不要」と考えているのではなく、説明した方が好ましいと理解しながらも、制度的・環境的条件が整っていないため実行できていないことを示唆している。

      さらに、勤務先の医療機関にAI倫理指針があるかという設問では、「ある」は20%にとどまり、「ない」が圧倒的に多かった。約8割の医療従事者が、AI倫理指針が「ない」と回答したのであった。この結果は、倫理ガイドラインが医療現場の実務や教育の中で十分に共有・活用されていないことを示唆している。

      以上を総合すると、医療従事者におけるAI倫理対応の特徴は、

      (1) AIの有用性と倫理の必要性は理解されている

      (2) しかし説明・同意を支える制度、時間、資料が不足している

      (3) 倫理ガイドラインは現場での認知・活用率が低い

      という点に整理できる。すなわち医療現場では、AI倫理対応を「実践したいものの難しい」状態が存在している可能性があり、個々の医療従事者の意識や努力だけでは解決できない構造的課題が横たわっていることが、本調査データから裏付けられた。

      3.3 患者:AIそのものより「説明不足」と「責任の不明確さ」が不安

      最後に、患者を対象にした調査では、AI活用型の製品(例:画像診断AI、病理診断支援AIなど)の利用経験がある患者300名から回答を得た。同調査結果からは、AI医療に対して期待と不安が同時に存在していることが、定量的に確認された。重要なのは、これらの不安がAI技術そのものへの拒否感というよりも、これを扱う供給側・運用側(製品を利用する医療現場や開発・販売する企業)の説明対応や責任の取り方に起因している点である。

      まず、AI医療に対する期待としては、「診断結果が出るまでの時間の速さ」(50.3%)、「診断結果の正確さ」(45.0%)などが多く挙げられており、AIが医療の質やスピードを高める可能性については、患者側でも一定の理解と前向きな評価が存在している。一方で、不安要因としては、以下が顕著であった。「機械任せの印象」(37.3%)、「費用負担」(35.3%)、「誤診」(30.0%)。これらの結果から、患者の不安は単なる“AIは怖い”という感情的反応ではなく、判断プロセスの不透明さや責任の所在が見えないことを気にしていることまたそれに伴うコスト負担や技術的観点に意識があることが分かる。

      また、特に注目すべき回答として、AI利用に際して医療機関から受けた説明について触れたい。手術・治療でのAIソリューションの利用について事前説明を受けたケースは、「簡易的な説明のみ」(30.0%)、「明確な説明があった」(21.0%)との回答が多く、「説明はなかった」も13.7%存在していた。患者が説明を受けたと記憶している内容についてみると、「利用の目的」(57.5%)、「利用するAIソリューションの仕組みや機能」(30.1%)、「AIソリューション利用とこれまでの診療の違い」(28.1%)、「AIソリューションが関わる医療行為の範囲」(25.5%)となっている。利用目的自体の説明が2人に1人にとどまっており、その他の回答も限定的という印象だ。一方で、患者が強い関心を持つはずの「最終的な判断者が人であること」について説明を受けたと回答した割合は18.3%となっており、責任の所在に関する説明が十分に行われていない実態が浮き彫りとなった。

      また、AI医療に対する安心感・納得感に関する設問からは、「人による監督がなくてもAI医療は安心できる」と思うかの問いに対して、「明確に安心できると思う」を選んだのは12.0%のみで、慎重または否定的な姿勢を示す患者が多数派であることが確認された。これは、AIの活用自体を否定しているのではなく、人間が関与しない形で医療判断が行われることに対して警戒感があることを意味している。

      以上を総合すると、患者側におけるAI医療への不安の本質は、

      (1) AI技術そのものへの不信ではない

      (2) 説明が十分でないこと

      (3) 誰が最終的に責任を負うのかが見えないこと

      に集約される。すなわち、患者の不安の正体は「AIへの拒否」ではなく、説明と対話の欠如、そして責任構造の不透明さにあることが、本調査の定量データから裏付けられた。

      4.ステイクホルダー間の認識ギャップが生む構造的課題

      本調査から明らかになった最大の論点は、AI倫理そのものに対する否定や無関心ではなく、三者の認識と役割が分断されている点にある。企業、医療従事者、患者はいずれも異なる立場からAI医療と向き合っているが、その結果として責任・説明・運用が接続されない構造が形成されている。

      まず、AI倫理の重要性に対する認識については、企業・医療従事者の双方で高い水準が確認された。企業従業員調査では、AI倫理ガイドラインの重要性を否定する回答は限定的で、少なくとも「不要」と考える層はごく限定的であった。医療従事者においても、AIを診断・治療の質向上(56.0%)や業務効率化(53.5%)のために評価しており、AI活用と倫理配慮が不可分であるという認識も共有されている。しかし、その一方で、ガイドラインの理解・活用度には大きな差が存在する。企業では、AI倫理ガイドラインが「ある」と回答した割合は24.7%にとどまり、「策定中」(33.3%)、「ない」(21.3%)、「わからない」(20.7%)を合わせると75.3%に達する。医療従事者においても、自施設にAI倫理指針が「ある」と認識している割合は2割しかいなかった。患者側に至っては、AI利用について十分な説明を受けていない様子がみられ、倫理ガイドラインそのものについても認識を持つには至っていないケースが多い可能性が推察される。

      次に、説明責任の所在について見ると、三者ともに「曖昧」または「不明確」と認識している点が共通している。企業側では、AI活用型製品における責任の所在について明確な整理がなされていないケースが多く、医療従事者側でも、AI利用について患者に明確に「説明している」と回答した割合は1/3程にとどまっている。患者側では、AIソリューションの利用に際しての事前説明で「最終判断者がヒト」である説明を受けたのは2割に満たず、責任構造の不透明さが不安の一因となっている可能性が示された。

      また、AIソリューションの利用にまつわる課題も3者間でやや異なる方向を向いていることが示唆された。企業にとってAI倫理方針やガイドライン整備に向けた最大の課題は、「専門人材不足」(42.9%)、「法規の不確実性」(22.2%)、「投資資金の不足」(17.5%)となっている。医療従事者にとっては、AIソリューション導入の障壁として、「コスト」(61.0%)、「制度・法規の不明確さ」(45.0%)、「専門人材不足」(44.5%)が上位を占め、企業と同様の傾向がみてとれる。一方、AIソリューション利用に関する患者が抱える不安は、誤診自体に一定関係するが、誰が責任を負うのか分からないこと、説明不足などに起因する面が色濃く示された。

      以上を整理すると、企業・医療機関――すなわち、供給・運用側――は「法規・人材・コスト」を、患者――受益者側――は「説明と責任の不明瞭さ」をそれぞれ課題・不安として抱えている。結果的に、AI倫理対応が不十分な状態が存在しつつも、全体としては誰も統合的にAI倫理を実装できていない状況が生じている様子がみてとれる。

      観点

      企業従業員

      医療従事者

      患者

      AI倫理の重要性

      高い

      高い

      間接的

      ガイドライン理解

      部分的

      低い

      ほぼ無

      説明責任の所在

      曖昧

      曖昧

      不明確

      課題・不安

      法規・人材・コスト

      説明不足


      この三者の認識ギャップは、AI医療にける信頼形成を阻害する構造的課題となり得るものであり、問題の本質は「悪意」や「拒否」的な態度ではなく、役割と情報が分断されたまま現場レベルの運用が進んできたことであり、制度・運用の在り方にあると言える。誰も「悪意」はないが、誰も全体を統合できていない――これが、本調査から導かれるAI倫理の構造的課題である。

      5.今後に向けたインサイト

      5.1 AI倫理の核心は「技術」ではなく「ガバナンス」にある

      本調査結果が示す最も重要なインサイトは、ヘルスケア領域におけるAI倫理の課題が、AIの精度や性能といった技術的側面そのものではなく、それを取り巻くガバナンスの不備に起因している点である。企業従業員調査では、AI倫理ガイドラインが「ある」と回答した割合は24.7%にとどまり、75.3%は未整備・策定中・把握していない状態にあった。また、リスクアセスメントについても十分な対応がとられているとは言えないことが明らかになった。医療従事者側では、AIの利用目的として「診断・治療の質向上」(56.0%)、「業務効率化」(53.5%)が高く評価されている一方で、患者に対して明確にAI利用を説明している割合は3割程度にとどまっている。患者側でも、AI医療に関する不安として、「機械任せの印象」(37.3%)がもっとも高くなっている。つまり、AIの技術面・性能面も然ることながら、判断と責任の構造についての不明瞭さがAI倫理を取り巻く課題として横たわっている様子が示唆された。

      これらの結果は、問題の本質が「AIは正確かどうか」ではなく、誰が説明し、誰が監督し、誰が責任を負うのかという仕組みが十分に設計されていないことにあることを示している。すなわち、AI倫理は「追加的な配慮」や「理想論」ではなく、医療安全と患者信頼を支える中核的なガバナンス要素として再定義される必要がある。

      5.2 倫理ガイドラインは「文書」ではなく「社会インフラ」である

      本調査からは、倫理ガイドラインが文書として存在していても、社会の中で十分に機能していない現状が浮き彫りとなった。企業では、倫理ガイドラインが現場で「機能している」と実感している回答は限定的であり、医療従事者においても、自施設に倫理指針は「ない」と回答した割合が8割にものものぼっている。患者側では、AI利用について「明確な説明を受けた」と記憶している層は限定的であり、説明を受けた患者の中でも、特に最終判断者(ヒト)の存在について説明を受けた割合は18.3%にとどまっている。これらの結果は、倫理ガイドラインが

      • 企業内ルールとして閉じている
      • 医療現場の運用に十分落とし込まれていない
      • 患者への説明に翻訳されていない

      という分断状態にあることを示している。今後求められるのは、企業の開発・販売ルール、医療現場の運用実務、患者への説明を、一本の「倫理ストーリー」として接続することである。倫理ガイドラインは、単なる内部文書ではなく、社会全体で共有・運用されるインフラとして設計されなければならない。


      執筆者

      あずさ監査法人
      ディレクター 小柴 巌和


      Part2に続く


      関連リンク

      エシックス形成のための「対話」の詳細、対話の柱となる倫理的リスク、さらに、各ステークホルダーが対話において担うべき役割について考察します。

      ヘルスケア領域におけるAI活用が加速度的に進展しているなか、AIにまつわるリスクにどう対処すべきか、国際社会の取組みにも触れながら解説します。

      監査・アドバイザリー・税務の知識とスキルを活かして連携し、ガバメント・パブリックセクター領域の課題解決に向けた横断的なサービスを提供します。

      KPMGジャパンは、ヘルスケア業界に精通した専門家が総合的にサービスを提供し、さまざまな課題解決を支援します。