Skip to main content

読み込み中です

      Executive Summary

      <主な調査結果>

      • 企業:AI倫理ガイドライン「ある」24.7%(未整備/不明75.3%)。現場で明確に「機能」するのは16.2%と運用の具体化が課題。
      • 医療従事者: 患者へのAI利用説明は限定的(常に9.0%+症例により22.5%)。未実施の主因は「制度が不明確」51.1%。
      • 患者: 期待(時間短縮50.3%等)と不安(機械任せ37.3%等)が併存。事前説明で「最終判断は人」の伝達が十分なされていない懸念あり。

      <構造的課題>

      AI倫理そのものに対する否定や無関心ではなく、企業、医療従事者、患者はいずれも異なる立場からAI医療と向き合っており、結果として責任・説明・運用が接続されない構造が形成されている点が構造的課題として浮き彫りになった。

      <提言>

      • 企業― AI倫理を「宣言」から「現場で機能する責任設計」へ:
        バリューチェーン各段階のチェック観点・責任分担を明確化し、運用ルールとして定着させる。医療機関・患者向けの説明/透明性資料と、継続的リスク評価・第三者監査をセットで整備する。
      • 医療機関― 企業とも連携し組織的なAI倫理対応の実現へ:
        説明・同意を診療プロセスに組み込み、院内ルール(項目/タイミング/記録)として標準化する。院内ガバナンス体制と「人による監督」を明示し、教育・テンプレ整備で現場負担を軽減する。
      • 患者会・市民団体― 「当事者の声」をAIガバナンスに接続する主体へ:
        AI医療の役割・限界・人の関与を平易に伝え、患者が納得して選択できるリテラシー支援を進める。不安や経験を共通課題として整理し、政策・企業・医療機関が対応可能な論点に「翻訳」して対話を促す。
      • 政策立案者― AI倫理を「理念」から「実装可能な制度」へ :
        乱立する指針を整理し、ヘルスケア特化の共通フレームと最低限の実装要件(説明/監督/記録等)を標準化する。責任分担と説明責任を制度上明確化し、教育・説明支援への公的支援を通じて現場実装を後押しする。

      Part1:患者だけでなく、企業も、医療従事者もAI倫理に課題・不安感あり
      Part2:提言~「信頼を生み出す社会インフラ」としてAI倫理と向き合おう

      こちらはPart2です。Part1は上記Linkから閲覧ください。

      Part2:提言~「信頼を生み出す社会インフラ」としてAI倫理と向き合おう

      1.提言

      これまでの考察を踏まえ、マルチステークホルダー型AI倫理ガバナンスのあり方について本調査から得た示唆を提言という形でまとめたい。特に以下の4つの視点で整理する。

      • 企業:設計・運用・説明責任
      • 患者会・市民団体:当事者視点の媒介と社会的監視
      • 患者会・市民団体:当事者視点の媒介と社会的監視
      • 政策立案者:制度設計と統合

      1.1 企業への提言――AI倫理を「宣言」から「現場で機能する責任設計」へ

      本調査結果は、企業が医療AIの設計・提供主体として重要な役割を担う一方で、AI倫理を実務レベルで実装しきれていない現状を明らかにしている。したがって企業には、倫理対応を対外的な説明や理念にとどめるのではなく、構想・開発・品質管理・販売・運用の各段階で実際に機能する責任設計へと転換することが求められる。

      第一に、倫理ガイドラインを「現場で使える運用ルール」へ転換する必要がある。

      企業従業員調査では、自社にAI倫理ガイドラインが「ある」と回答した割合は24.7%にとどまり、33.3%は策定中、21.3%は未整備、20.7%は「わからない」と回答している。さらに、ガイドラインの運用実感については、「現場で機能している」とする肯定的評価は限定的であり、文書として存在していても、実務判断に十分活用されていない実態が示された。この結果は、企業におけるAI倫理が「理念」や「対外的説明資料」に留まり、構想・開発・品質管理・販売・運用判断の中に十分に組み込まれていないことを示唆している。企業には、倫理ガイドラインを以下のような具体的運用ルールとして再設計することが求められる。

      • バリューチェーンのどのフェーズで、どの倫理的観点をチェックするのか
      • ステイクホルダー間で、誰が、どの判断に責任を持つのか
      • 医療機関や患者からの懸念・問い合わせにどう対応するのか

      これにより、AI倫理は「守るべき理念」から、日常的な意思決定を支える実務ツールへと位置づけ直される。

      第二に、医療機関・患者向けの説明資料および透明性資料を体系的に整備すべきである。

      患者調査では、AI利用について説明を受けた内容として、「利用の目的」(57.5%)、「利用するAIソリューションの仕組みや機能」(30.1%)、「AIソリューション利用とこれまでの診療の違い」(28.1%)、「AIソリューションが関わる医療行為の範囲」(25.5%)が上位にある。一方で、「最終判断者がヒトであること」について説明を受けた割合は18.3%にとどまっている。また医療従事者調査では、AI利用を患者に説明できていない理由として、「制度の不明瞭さ」(51.1%)と圧倒的に多いが、「資料の不足」(15.3%)という回答もある。加えて、今後のAIソリューションに関する改善・支援の要望では、「説明資料の充実」(37.5%)、「メーカーとの連携強化」(39.0%)にのぼっており、これらの結果は、説明責任が医療現場に過度に委ねられており、企業側から十分な説明支援が提供されていないことを示唆している。責任分界の議論はあるものの、企業と医療機関の間で、以下のような資料整備における連携・協力が求められる。

      • 医療従事者が患者説明にそのまま使える標準説明資料
      • AIの役割・限界・人間の関与を明確に示した透明性資料
      • 想定されるリスクや判断プロセスを平易に示した患者向け文書

      これらは単なる広報資料ではなく、AI医療の信頼を支えるインフラとして位置づけられるべきである。

      第三に、第三者監査および継続的リスク評価を倫理対応の中核に据える必要がある。

      企業従業員調査では、AI活用型製品に関するリスクアセスメントについて、継続的なリスク管理が十分に制度化されていないケースも一定数認められる実態が明らかとなった。医療AIは、利用環境やデータの変化によってリスク構造が変化し得る以上、一度の評価で完結するものではない。企業には、以下のような取組みが求められる。

      • 開発後・上市後を含めたライフサイクル全体でのリスク評価
      • 第三者による倫理・ガバナンス監査の導入
      • 医療機関や患者からのフィードバックを踏まえた改善プロセス

      これにより、倫理対応は「チェックリスト型対応」から、継続的な学習と改善の仕組みへと進化する。

      第四に、企業自身が「信頼形成の主体」であるという自覚を持つ必要がある。

      本調査が示したように、

      • 医療従事者は制度と時間の不足により説明が困難
      • 患者は説明不足と責任不明確さに不安
      • 政策は現場での実装に十分接続できていない

      という状況の中で、企業は医療機関と患者をつなぐ要の立場になり得る。企業がAI倫理を「規制対応コスト」や「リスク回避策」としてのみ捉える限り、信頼形成は進まない。企業には、AI倫理を製品価値の一部であり、医療安全と患者信頼を支える競争力の源泉として位置づけ直す視点が求められる。

      以上より、企業に求められるのは、AI倫理を「守るべきルール」として扱うことではなく、医療現場と患者が安心してAIを使える環境を設計する主体として行動することである。

      1.2 医療機関への提言――企業とも連携し組織的なAI倫理対応の実現へ

      本調査結果は、医療機関が医療AI倫理の最終的な実装主体であるにもかかわらず、その役割を十分に果たせる制度的・運用的環境が整っていないことを示している。したがって、医療機関自身による主体的な取組みが不可欠である。

      第一に、AI利用に関する説明と同意を診療プロセスに組み込む体制整備が求められる。

      医療従事者調査では、AI利用について患者に「説明している」と回答した割合は31.5%にとどまった。一方で、説明できていない理由として、

      • 「制度が不明確なため」(51.1%)
      • 「時間が不足しているため」(21.2%)
      • 「医師の負担を懸念しているため」(17.5%)
      • 「資料が不足しているため」(15.3%)

      といった回答が上位を占めており、個々の医療従事者の意識の問題ではなく、医療機関としての仕組み不足が主要因であることが明らかである。医療機関は、AI利用の説明を「個人の裁量」に委ねるのではなく、標準的な説明項目・説明タイミング・記録方法を明示した院内ルールとして整備する必要がある。

      第二に、院内におけるAI倫理ガバナンス体制の明確化が重要である。

      自施設にAI倫理指針が「ある」と認識している医療従事者は20.0%にとどまった。医療機関は、AI倫理方針の策定を急ぐと共に、AI活用に関する責任主体(委員会、管理者、担当部署)を明確化し、倫理的判断やインシデント対応を個人に帰属させない組織的枠組みを構築すべきである。

      第三に、「人による監督(human oversight)」を明示したAI運用の徹底が求められる。

      患者調査では、「機械任せになる」ことが最大の不安要因として挙げられており、人間の関与が可視化されていないことが患者不信につながり得る。医療機関は、AIがどの段階でどのように利用され、最終的な判断責任は常に人間が負うことを、診療・説明・記録の各段階で一貫して示す必要がある。

      第四に、医療従事者向けの継続的なAI倫理教育と実務支援が不可欠である。

      AI倫理対応を「追加業務」として現場に押し付けるのではなく、診療の質と安全を高めるための基礎能力として位置づけ、教育・研修・ツール提供を通じて支援することが求められる。特に、患者説明に用いる標準資料やテンプレートの整備は、時間不足という制約を軽減する現実的手段となる。

      以上を踏まえ、医療機関に求められる役割は、AI倫理を「個々の医療従事者の善意」に依存させるのではなく、説明・監督・責任を制度として組み込むことで、患者の信頼を支える中核的存在となることである。

      1.3 患者会・市民団体への提言――「当事者の声」をAIガバナンスに接続する主体へ

      本調査結果は、ヘルスケアをめぐるAI倫理の課題が、政策・企業・医療機関だけでは十分に解決できないことを示している。とりわけ患者側では、AI医療に対する期待と不安が同時に存在しているにもかかわらず、その経験や懸念が制度設計や運用改善に十分反映されていない現状が明らかとなった。この点において、患者会・市民団体には、AI医療の「当事者の声」を社会的意思決定につなぐ不可欠な担い手としての役割が期待される。

      第一に、患者向けAIリテラシーおよび啓発活動の推進が求められる。

      患者調査では、AI医療に対する不安の理由として、

      • 「機械任せの印象」(37.3%)
      • 「費用負担」(35.3%)
      • 「誤診」(30.0%)

      が挙げられており、不安の多くは必ずしもAI技術そのものではなく、判断プロセスや責任構造、コストなど多様であることが明らかとなった。一方で、AIの仕組みや機能について説明を受けたと記憶している割合は51.0%にとどまり、患者が十分な情報を得た上でAI医療と向き合えているとは言い難い。患者会・市民団体には、こうした状況を踏まえ、

        • AIが医療でどのように使われているのか
        • AIと医療者の役割分担はどうなっているのか
        • 患者として最低限知っておくべきポイントは何か

        を、専門用語に依らない平易な言葉で伝える啓発活動を推進する役割が求められる。これは患者にAI医療を一方的に「受け入れさせる」ための活動ではなく、理解した上で納得・選択できる環境を整えるための支援である。

        第二に、患者の経験や不安を「政策・制度に翻訳する」役割を担う必要がある。

        本調査では、患者の不安が「誤診」よりも、説明不足や責任の不明確さにあることが明らかとなった。しかし、こうした不安は個々の患者の体験としては断片的であり、そのままでは政策や企業、医療機関の意思決定に反映されにくいことが懸念される。患者会・市民団体には、患者の声を

          • 個別の体験談として留めるのではなく、
          • 共通する構造的課題として整理し、
          • 政策立案者や企業、医療機関が理解・対応可能な形に翻訳する

          という役割が求められる。これは単なる「代弁」ではなく、当事者の感覚的な不安を、制度改善につながる社会的論点へと昇華させるプロセスである。

          第三に、医療への公平なアクセスとあらゆる人々が不利益を受けない環境づくりに貢献する。

          患者調査では、

          • 「医療サービスへのアクセス改善」(21.0%)

          が今後AIソリューション利用に際し期待することとして示されている。より多くの患者が医療サービスを享受できる環境整備への期待と受け止めることができる。患者会・市民団体には、

          • 社会的弱者・マイノリティへの対応

          も含めたアクセス改善を検討することが求められる。同時に、

          • データ利用の公平性
          • 多様な患者のプライバシー保護

          といった観点から、一部の患者層が不利益を被ることのないよう、AI医療の実装状況を継続的に監視し、必要に応じて問題提起を行う役割が期待され、公平で安心・安全な医療サービスへのアクセス環境を整えていくことが重要になる。監視機能は、AI医療の発展を阻害するものではなく、社会的信頼を下支えするセーフティネットとして機能する。

          第四に、「対立」ではなく「対話」を基軸とした関与が求められる。

          AI倫理をめぐる議論は、ともすれば「推進か反対か」という二項対立に陥りやすい。しかし本調査が示すように、患者の不安の多くはAIそのものへの拒否ではなく、説明と対話の不足に起因している。

          患者会・市民団体には、

          • 企業や医療機関と対峙する存在ではなく、
          • 患者の視点を持ち込みつつ、建設的な対話を促す存在

          として、信頼形成のハブとなる役割が求められる。そのためには、批判や要望の表明にとどまらず、改善に向けた具体的提案を伴う関与が重要となる。

          以上より、患者会・市民団体に求められるのは、AI医療に対する当事者の不安を「拒否」や「恐怖」として扱うのではなく、説明・責任・公平性を改善するための社会的資源として制度に組み込む役割である。

          1.4 政策立案者への提言――AI倫理を「理念」から「実装可能な制度」へ

          本調査結果は、医療AI倫理の課題が、個々の企業や医療従事者の意識不足によるものではなく、政策・制度レベルでの整理不足が現場の実装を妨げていることを示している。したがって政策立案者には、AI倫理を抽象的な原則として提示する段階から一歩進み、現場で運用可能な制度設計を担う役割が強く求められる。

          第一に、医療AI倫理ガイドラインの標準化と明確化が不可欠である。

          企業従業員調査では、自社にAI倫理ガイドラインが「ある」と回答した割合は24.7%にとどまり、75.3%は未整備・策定中・把握していない状態であった。また、外部規格(ISO/IEC等)への準拠状況についても、「把握していない」とする回答が相当数を占めていた。この結果は、現行のガイドラインや指針が乱立・抽象度が高く、現場にとって「何を最低限守ればよいのか」が分かりにくい状況にあることを示唆している。政策立案者には、WHOやOECDが示す国際原則を参照しつつ、

          • ヘルスケアに特化した共通のAI倫理フレームワーク
          • 医療機関・企業が最低限遵守すべき実装要件(説明、監督、記録等)

          を明確に示すことが求められる。標準化は必ずしも規制強化を意味するものではなく、現場の不確実性を下げ、倫理対応を進めやすくするための支援策として位置づけられるべきである。

          第二に、説明責任および責任分担に関する制度的整理が必要である。

          医療従事者調査では、AI利用について患者に説明できていない理由として、

          • 「制度が不明確」(51.1%)

          が最も多く挙げられた。また患者側でも、AI医療への不安理由として、

          • 「機械任せの印象」(37.3%)

          が明確に示されている。これらの結果は、AI倫理の実践が個人の善意や努力に委ねられており、制度としての責任分担が整理されていないことを示している。政策立案者には、以下の点を制度上明確にする役割がある。

          • AIの開発・提供・利用それぞれの段階における責任の整理
          • 医療現場における「最終判断責任は人間にある」ことの制度的明示
          • 説明責任を果たす主体(医師個人か、医療機関か、企業か)の役割分担

          これにより、医療従事者が「説明すべきだが、どこまで説明すればよいか分からない」という状態から解放され、安心して倫理対応に取り組める環境が整う。

          第三に、医療現場向けの倫理教育および説明支援に対する公的支援が求められる。

          医療従事者調査では、説明が困難な理由として、

          • 「制度が不明確なため」(51.1%)
          • 「時間が不足しているため」(21.2%)
          • 「資料が不足しているため」(15.3%)

          が上位に挙げられている。これらは、個々の医療従事者の努力では解決できない構造的問題であり、政策的介入なしには改善が難しい。AI倫理を「追加的な業務負担」として医療現場に過度な負担が生じないよう、以下のような支援策を講じる必要がある。

          • 標準的な患者向け説明資料・テンプレートの整備
          • 医療従事者向けAI倫理教育・研修プログラムへの公的支援
          • AI利用説明を診療報酬や評価制度とどう位置づけるかの検討

          これにより、倫理対応は「やるべきだが時間がない業務」から、医療安全と信頼を支える正当な業務として再定義される。

          第四に、政策立案者自身が「統合主体」としての役割を担う必要がある。

          本調査が示した構造的課題は、

          • 企業は制度の不確実性を恐れ
          • 医療従事者は時間と運用に縛られ医療従事者は時間と運用に縛られ
          • 患者は説明不足と責任不明に不安を抱く

          という、三者の分断状態である。この分断を埋めることができる立場にあるのは、個々の現場ではなく、制度全体を俯瞰できる政策立案者である。政策立案者には、ヘルスケアにおけるAI倫理を「技術政策」や「産業政策」の一部としてではなく、医療制度・患者保護・社会的信頼を横断するガバナンス課題として統合的に扱う視点が求められる。

          以上より、政策立案者に求められる役割は、AI倫理を現場に求めることではなく、現場が倫理的に行動できる制度条件を整えることにある。

          2.おわりに

          医療AIの社会実装を左右するのは、技術の進歩そのものではなく、「信頼の設計」である。本調査が示したのは、AI倫理がもはや専門家や技術者だけの議論ではなく、企業・医療現場・患者・市民が共に担う社会的課題であるという事実である。またこのような社会構造を踏まえた政策立案者による適切な対応が期待される。第三者による評価・監査のメカニズム構築も必ず求められることになるだろう。AI倫理を「守りの議論」から「信頼を生み出す社会インフラ」へと転換できるかどうか、それを下支えする社会的な対話のメカニズムが、今後の医療AIの持続可能性を決定づけると考えられる。


          執筆者

          あずさ監査法人
          ディレクター 小柴 巌和



          ヘルスケア領域のAI倫理に関する現在地と未来

          ヘルスケア領域のAI倫理に関する現在地と未来

          ヘルスケアにおけるAI利用が広がりつつある中、AI倫理(安全性・公平性・説明責任・プライバシー等)の実装は制度・現場(企業・医療機関)・患者の間で分断。 本レポートは企業/医療従事者/患者におけるAI活用に伴う倫理的課題やその対応状況を整理した。


          関連リンク

          エシックス形成のための「対話」の詳細、対話の柱となる倫理的リスク、さらに、各ステークホルダーが対話において担うべき役割について考察します。

          ヘルスケア領域におけるAI活用が加速度的に進展しているなか、AIにまつわるリスクにどう対処すべきか、国際社会の取組みにも触れながら解説します。

          監査・アドバイザリー・税務の知識とスキルを活かして連携し、ガバメント・パブリックセクター領域の課題解決に向けた横断的なサービスを提供します。

          KPMGジャパンは、ヘルスケア業界に精通した専門家が総合的にサービスを提供し、さまざまな課題解決を支援します。