第2回 AIの利用におけるセキュリティリスクの具体例
連載2回目となる本稿では、生成AIサービスの利用者側のセキュリティリスクと対策について解説します。
生成AIサービスの利用者側のセキュリティリスクと対策について解説します。
第1回で述べたように、現在、生成AIは、多様なコンテンツを効率的に生成することで、個人や企業の生産性向上や創造性の発揮に大きく貢献していますが、そうした利便性の向上に伴ってリスクも深刻化しています。
第2回となる本稿では、生成AIサービスの利用者側のセキュリティリスクと対策について解説し、第3回以降は、AIのシステム的な側面でのセキュリティリスクについて解説します。
1.生成AI利用時におけるセキュリティリスクの概要
生成AIは便利なツールである一方で、さまざまなリスクが顕在化しています。生成AIの不用意な利用による情報の漏えい、権利侵害、倫理的に不適切な対応など、いずれも実際に生じた場合、組織に深刻な影響を与えるものです。また、これらのリスクには、従来のITシステムには存在しなかったものも含まれるため、まずはリスクの正確な理解と、それに基づく対策の検討が重要となります。
下表は、生成AI利用時の代表的なリスクです。
生成AI利用時のリスク | 概要 |
---|---|
個人情報・機密情報の漏えい | 生成AIに個人情報・機密情報を入力することで、その情報が学習データとして利用されたり、外部に漏えいしたりする可能性がある。 |
著作権・商標権などの権利侵害 | 生成AIが生成したコンテンツが、既存の著作物や商標に類似または酷似している場合に、権利侵害に該当する可能性がある。 |
ハルシネーション | 生成AIが事実に基づかない、もっともらしい嘘の情報を生成する現象。 |
倫理的に不適切な回答 | 差別的、暴力的、または社会的に不適切な内容を含む回答を生成する可能性。 |
次章で、これらリスクへの対策について説明します。
2.生成AI利用時におけるセキュリティリスクと対応策
機密情報の漏えい
生成AIの利用において、機密情報の漏えいは特に重要なリスクの1つです。例えば、利用者が生成AIのプロンプト(生成AIに対する指示文)に、個人情報や機密情報を入力した場合、それらの情報は外部のサーバに保存され、生成AIに学習されることにより、意図しない形で第三者に情報が漏えいする可能性があります。その結果、組織の信用を損ねたり、法的なトラブルに発展したりする危険性があります。
このような情報漏えいのリスクを生成AI利用者が回避するためには、下記に示すように、利用者自身が入力内容に細心の注意を払うことが不可欠です。
個人情報・機密情報の入力を避ける
利用者が外部の生成AIサービスを利用する際は、個人情報や機密情報の入力を避け、公開しても問題の無い一般的な情報のみを入力し、プライバシーやセキュリティを守る意識が必要です。
生成AIサービスのプライバシーポリシーや利用規約の確認
生成AIサービスの利用規約には、入力された情報の取り扱いに関する規定や、情報漏えいが生じた場合の責任範囲などが記載されている場合があります。こうした内容を確認し、リスクを理解した上での利用が必要となります。
生成AI利用ガイドラインの策定と遵守
組織として生成AIを利用する際のガイドラインを策定し、遵守状況をモニタリングすることで、機密情報の漏えいなどのセキュリティリスクを低減します。
【図表1:機密情報の漏えいのリスク】
著作権・商標権などの権利侵害
生成AIの利用において、著作権や商標権などの知的財産権を侵害するリスクに注意が必要です。生成AIが生成した画像、動画、音声、音楽などが、既存の著作物と類似・酷似していた場合、それをそのまま業務に利用することで、訴訟リスクが発生します。
こうした問題は、利用した個人だけでなく、その利用を許可した組織全体の信用も損ねるものですが、現時点では、生成AIの利用に関する法的解釈が定まっているとは言えず、今後の法改正や判例によっても整理されるものと考えられます。
いずれにしても、このような権利侵害のリスクを回避するためには、利用者が生成AIを使用する際に、下記に示すような対応を行うことが必要です。
生成されたコンテンツの権利関係の確認
生成されたコンテンツを公開または利用する前に、著作権や商標権の侵害に該当しないか確認を行う。特に、商用利用する場合は、権利関係の確認を徹底する必要があります。
生成AIサービスの利用規約の確認
生成AIサービスの利用規約には、生成されたコンテンツの権利関係や利用範囲に関する規定が記載されています。特に商用利用や二次利用を行う場合は、利用規約の内容を確認し、それに沿った対応を行うことでリスクの低減を図ります。
生成されたコンテンツの編集/加工
生成されたコンテンツをそのまま利用するのではなく、編集・加工することで、権利侵害のリスクを低減できる可能性があります。ただし、編集・加工によっても権利侵害に該当する可能性は排除できないため、権利関係の確認は必要です。
【図表2:著作権・商標権などの権利侵害のリスク】
ハルシネーション
ハルシネーションとは、生成AIが事実に基づかない誤った情報や完全に架空の回答を生成するリスクを指します。生成AIは、学習データに基づき情報を生成するため、学習データに存在しない情報や誤った情報に基づいて回答する場合があります。このような回答を利用者が鵜呑みにし、不正確な意思決定を行った場合、深刻な問題に発展する可能性があります。そのため、利用者には下記に示すような対応が求められます。
生成された情報のファクトチェックの実施
生成された情報をそのまま信用せず、必ずファクトチェックを行います。特に、専門的な知識や重要な判断を伴う場合には、情報の信頼性を慎重に評価する必要があります。
情報源の確認
生成AIでは、その回答の元となった情報源を示すこともあるため、その情報源を確認するとともに、情報源が信頼できるものであるかの確認も行うことが重要です。
プロンプトによる明確化
プロンプトに、参照すべき情報源や範囲を明示すること等により、誤った情報を生成する可能性を低減できます。
倫理的に不適切な回答の生成
生成AIは、学習データに基づいて回答を生成しますが、その学習データに社会的な偏見や差別的な情報が含まれている場合、それを学習した生成AIは、倫理的に問題のある表現を生成することがあります。こうした回答をそのまま利用した場合、いわゆる炎上により、組織の社会的な信用を損なうリスクがあります。
批判的視点を持つ
ハルシネーション同様、生成AIの回答を鵜呑みにせず、常に批判的な視点を持つことが必要です。回答内容に偏見や差別的な内容を含んでいないか、常に疑問を持つ姿勢が求められます。
情報の精査と検証
これもハルシネーションと同様ですが、生成AIの回答に含まれる情報を、信頼できる情報源を用いて精査・検証することが必要です。特に、社会的な問題や倫理的な問題に関する情報は、複数の情報源を比較検討し、客観的な視点を持つことが重要です。
倫理ガイドラインの策定と遵守
こうした倫理的な問題に対応するために、組織には、生成AIの利用に関する倫理ガイドラインの策定が求められます。利用者は、このガイドラインに基づき倫理的に不適切な回答への対応を行うことで、リスクを低減します。
3.まとめ
このようにAI利用時におけるリスクは、組織に深刻な影響を与える可能性があります。ただし、さまざまな組織においてAIの利活用が進むなかで、こうしたリスクを過度に恐れることによって、AIに対して消極的になることこそ、組織における最大のリスクであるともいわれています。
重要なのは、AIの仕組みとその限界やリスクを正しく理解し、それらを踏まえて適切な対応を行って、組織の競争力を維持・強化するためにAIとうまく付き合っていくことだと言えるでしょう。
また、今回解説した利用者におけるセキュリティリスクだけでなく、AIシステムの提供者側のリスクも当然に存在します。本連載の第3回目以降では、AIシステムに対する具体的な攻撃手法と、その対策について解説します。
執筆
KPMGコンサルティング
マネジャー 田中 丈路