新たな医療倫理としての「AI倫理」。人類に突き付けられた問いとリスクを考える
ヘルスケアに携わる者にとって「倫理的」であることは前提であり、規範であり、本来自然な振る舞いです。「倫理的(Ethical)」であることは、医療を受ける側にとって暗黙の了解となっています。それが故に、我々は時に疑うことすら忘れ、安心して医療サービスを享受しています。
しかし実際には、我々が普段意識することなく依拠している「医療倫理」は、必ずしも絶対ではありません。医療の世界では、古く「ヒポクラテスの誓い」が医療に係る職業倫理をギリシア神に宣誓した時から、医療技術の発展やその時々の人々の価値観を反映し、時代の変化にあわせ徐々に変容してきました。
近年、この医療倫理に対し、人類は新たな挑戦を突き付けられています。それが「AI Ethics(倫理)」問題です。AIがヘルスケア領域において、人知の制御を失い、暴走する懸念が高まっています。それは、ヘルスケア領域におけるAI活用が加速度的に進展してきたことの裏返しでもあります。この急速に進展する新たな領域に対し、医療倫理を確立する必要性に迫られています。
事実、ヘルスケアの多様なサービスがAIなくして成立しない時代が目前に迫るなか、これを先んじて制御しようとする政策的な検討もみられます。たとえば、OECD(経済協力開発機構)は2019年にAIの利用に関する包括的な原則(通称:OECD AI原則※1)を定めました。日本で開催されたG7伊勢志摩サミットが契機となり、同原則が定められましたが、この原則には、特にヘルスケアの観点で注目すべき項目があります。
まず、「公平公正な社会を築くためにAI活用に対して適切な介入を行うこと」。次に、「AIを利用した結果に対する透明性・責任ある情報開示を行うこと」。最後に、「AIの開発・流通・運用に関わる者は同原則を尊重し、AIが正常に扱われるよう責任を負うこと」。特に3点目の「開発・流通・運用」に関する原則が重要です。
つまり、AIを活用したヘルスケアサービスを提供する者は、「開発」「流通」「運用」という、ヘルスケア・バリューチェーンのあらゆるシーンにおいてAI倫理を遵守しなければなりません。「患者中心の医療(Patient-Centered Care)」がより重視されるなかで、活用するAIの透明性を担保し、説明責任を果たすことが、ある種の医療倫理として求められる時代になってきたと自覚する必要があります。別の角度から見れば、これはステークホルダーにとって非常に大きなリスクともいえます。
我々はどのようにAI倫理という課題に取り組んでいく必要があるのでしょうか。本稿では、いくつかの論点を提示します。
ヘルスケア領域におけるAI倫理は「患者中心の医療」を支えるか?
AIがヘルスケアの各領域に浸透するにつれ、その利活用に伴う倫理的リスクに対する懸念も生じます。ヘルスケア領域における倫理的リスクを検討する際に、はじめに認識すべき重要な前提が2つあります。
1点目は、この領域でのAI利用は、個人の健康に直接的な影響を及ぼし得ることです。このため、AIの出力結果が医師の判断等を左右し得るということへの配慮のみならず、病歴等を含む個人情報についてもより一層慎重な取扱いが求められます。
2点目は、近年、「患者中心の医療」という概念のもと、患者の声をより尊重した医療を提供することの重要性がより強く認識されるようになってきたことです。こうしたケアにAIがプラスにもマイナスにも作用し得るということです。
「患者中心の医療」とは、患者の声を尊重し、個々のニーズに応じたケアを提供することで、満足度および治療効果の向上を図るための包括的なアプローチです。患者中心の医療を実現するためには、以下のような観点が重要とされます。
|
AIは、患者等エンドユーザーのデータを用いて、よりパーソナライズされたヘルスケアを提供することができる一方で、配慮が十分でないと、上記に挙げたケアの基盤となるヘルスケア提供側と患者とのコミュニケーションを希薄化させ、「患者中心の医療」を損なう可能性もはらんでいます。
AI技術の急速な進歩とは対照的に、法規制や具体的指針の検討は限定的
こうした倫理的リスクを生じさせ得るAIに対し、現在の法規制はどのように対応しているのでしょうか。
ヘルスケア領域に限らないAI一般のガバナンスについては、世界的にもガイドラインの整備が進められ、国内においても既存の法規制やガイドライン等による対処がなされています。グローバルには、2019年にOECDおよびG20※2においてAIの利用に関する包括的な原則が定められました。また、2023年には、G7が合意した「広島AIプロセス※3」のもとに、特に生成AIのリスク評価や規制、指導等を行うための国際的な基準が策定されたところです。
国内においても、2019年に「人間中心のAI社会原則※4」が定められ、AI活用に関し、Dignity, Diversity & Inclusion, Sustainabilityの3つの基本理念が提示されました。また、2024年にはその理念のもと、AI事業者が倫理的にAI技術を利用するための指針として「AI事業者ガイドライン※5」が策定されています。
このように各国でAI活用に関する規制整備が進められる一方で、こうした法規制・ガイドラインはいずれも抽象度が高く、具体的なアクションに繋げることが難しいものも多いというのが実情です。原因としては、AI技術の進展の速さから規制整備が追い付かないこと、また、AIは利活用の幅が広く、個別具体的な領域を想定してすべてをカバーすることが現実的には難しいこと、さらに、拘束力の強い法令等による規制強化によって、AI技術の進展を停滞させることへの懸念が背景にあること等が挙げられるでしょう。
民間においても、AI倫理に関する企業支援サービスが展開されていますが、その支援の多くは、事業者がAIを開発・運用する際のリスク評価やガバナンス支援に焦点が当てられています。ヘルスケア領域においては、AI事業者側に焦点を当てたガバナンスのみならず、この領域特有の患者等エンドユーザーへの倫理的リスクへの十分な配慮の基に、AIを開発・利活用することが求められます。現状、ステークホルダーのアクションの指針となるような、具体性のあるフレームワークの提供は十分には行われていません。
ハードロー/ソフトローで規定されない「エシックス」に合意するために
日夜急速に発展するAI技術とともに、医療倫理もこれまでにないスピードで変容を迫られており、我々がアクションを取る際に十分に依拠することのできる明文化された指針は、いまだ公式には共有されていません。こうしたなかで、AI活用の社会的影響を十分に考慮し、倫理的リスクを回避しながらもAI技術の開発・利活用を促進するためには、我々自身もAIを利用する際の合意、共通認識を形成していく必要があるでしょう。
つまり、AIの開発者、医療者やヘルスケアサービスプロバイダー、患者等エンドユーザーを含めたステークホルダーが倫理的基盤として拠ることのできる「エシックス(=AI倫理のうち、まだハードロー/ソフトロー等によって明文化された法規制が整備されていない領域についての社会的合意)」を形成し、技術の進展に合わせて変容させていくことが肝要です。
では、どのようにエシックスを形成するのでしょうか。最も重要なプロセスとなるのが、ステークホルダーによる「対話」だとKPMGは考えています。この点については、本稿の続編であらためて考察を加えます。
※1:「AI principles 」(OECD)
※2:「G20 AI原則 」(G20)
※3:広島AIプロセス 公式サイト
※4:「人間中心のAI社会原則 」(内閣府)
※5:「AI事業者ガイドライン 」(経済産業省)
執筆者
あずさ監査法人
ディレクター 小柴 巌和
マネージャー 高澤 美恵子
シニアアソシエイト 植田 真美