画期的なAIチャットボットは、すぐに名声を獲得できるでしょうか?AI研究企業であるOpenAIの対話型AI「ChatGPT(チャットGPT)」の人気が急上昇するなか、これは興味深い質問です。

テキスト生成や言語翻訳などの自然言語処理用に設計されたChatGPTは、カスタマーサービスボットの作成、ソーシャルメディア投稿の下書き、調査、オンラインの問い合わせへの対応、基本的なコード・詩の作成など、様々な用途に活用できます。人間の会話を再現するChatGPTの能力は、リリース以来、驚異的な注目を集め、広く利用されてきました。
最近の最もホットなスタートアップの事例と比べてみましょう。Netflixは、100万人のユーザーを達成するのに約3年※1、Facebookはわずか10ヵ月、Instagramはわずか2.5ヵ月だったのに対し※²、ChatGPTは、100万ユーザーに到達するのにわずか5日しかかかりませんでした※³
これらは確かに画期的な数字ですが、ChatGPTの爆発的な人気は、幅広いオンライン議論を巻き起こした別の興味深い質問を提起します。

ChatGPTは信頼できるのでしょうか※4?この質問に対する答えは単純ではなく、文脈とアプリケーションに依存します。

ChatGPTの何が問題か?

ChatGPTが企業や個人に計り知れない機会を提供し、その機能を拡張する大きな可能性を持っていることは間違いありません。一部の興奮したユーザーは、ChatGPTの新たな超能力を期待しているようですが、なかには失望する利用者もいるようです。AIプラットフォームは公開された情報を元に学習しますが、ChatGPTの回答が不適切に感じられたり、明らかに的外れだったりする事例もあります。
以下にいくつかその例を紹介します。

意図しない偏り
ChatGPTの回答のなかには、偏りを示すものがあります。Twitterでは、ユーザーがChatGPTのフィルターを回避し、偏った回答をする例が多数見られました。ChatGPTは一般に公開されている情報に基づいて学習するため、意図しないバイアスがかかっている可能性があります。

不正確な情報
インターネットには、誤った情報やフェイクニュースが溢れており、事実に基づいた情報よりも、議論を呼ぶような情報のほうが拡散されることがしばしばあります。そのため基礎となる知識ベースに欠陥がある場合、ChatGPTは誤った結果を提供する可能性があります。

論理的なエラー
ChatGPTは、単純で論理的な質問やなぞなぞに正しく答えることができません。たとえば、次のような質問をしてみましょう。"私が6歳のとき、妹が私の半分の年齢だったとしたら、私が70歳のとき、妹は何歳でしょう?" 意外なことに、ChatGPTは正解を導き出すことができません※⁵

日付の入った情報
ChatGPTは、新しい事実が以前の情報を否定したり、優先させたりしても、誤った情報を提供することがあります。現在のモデルは、2021年までの情報を使って学習しています(執筆当時)。この事実を強調しても、シナリオによっては誤った情報が提供される可能性があります。

AIによる正確な応答には、適切なクエリーが必要です。
では、なぜChatGPTには問題があるのか、そして、その能力は「あてにならない」ということになるのでしょうか?答えは、その限界を知ることにあります。

ChatGPTの限界とは?

第一に、ChatGPTは人工狭義知能(ANI)の一例であり、人工一般知能(AGI)ではないことに注意することが重要です。ANIシステムは、訓練されたある種のタスクの実行には非常に適していますが、訓練されていないタスクには、どんなに単純であっても適しません。たとえば、画像を生成するように設計されたANIシステムでは「5+7は何ですか」といった簡単な数学の問題を解くことはできないでしょう※⁶

次に、ChatGPTは生成型AIモデルであり、明確な入力とルールに基づき新しいコンテンツを生成するように設計されています。その主な用途は、人間のような反応を生成することですが、ChatGPTには人間のような推論能力がありません。ChatGPT自身の言葉を借りれば 、「前の単語の文脈から次の単語を予測し、人間らしい文章を生成できるように設計されています」。

したがって、ChatGPTが信頼されるためには、そのAI機能を適切なユースケースに適用することが、各ユーザーの責任となります。同様に重要なのは、開発者が信頼できるデータセットを使ってAIモデルを訓練し、関連するバイアスとコンテンツフィルターを適用することです。古典的なコンピューティングの場合、GIGO(Garbage in、 garbage out)という概念が浸透しており、そのとおりになっています。AIに関しては、GISGO(Garbage in、 Super garbage out)であり、開発者が信頼できるデータを使用してAIモデルを訓練することが非常に重要となります。
良いニュースは、ChatGPTがその限界をしっかりと認識しており、ユーザーに適切に対応できることです。ChatGPTは教師ありの学習と強化学習モデルを組み合わせており、報酬システムによる高速学習と人間の入力に基づく学習能力という利点を備えています。

AIのメリットを最大化するためのガードレールの確立

組織がChatGPTなどの強力かつ新しいAIソリューションのユースケースを模索する際、サイバーチームとリスクチームが安全な実装のためのガードレールを設定することが極めて重要です。
以下にそのためのいくつかのステップを挙げます(これは網羅的なリストではなく、AIが出現し続けるなかで考慮すべき最初のステップに過ぎません)。

  • 期待値を設定する
    ChatGPTや類似のソリューションが企業内でどのように使用されるべきかについて、期待値を設定する。使用に関するポリシーを策定し、信頼できるすべての承認済みソリューション、ユースケース、データのリストを定義し、回答の正確性を検証するためのチェックを確立することを義務付ける。
  • 社内プロセスを確立する
    認知自動化ソリューションの使用に関する規制の意味と進化、特に知的財産、個人データ、インクルージョンと多様性の管理を検討するための社内プロセスを確立する。
  • 従業員を教育する
    AIソリューションを使用するメリットとリスク、適切なユースケースや信頼できるデータセットでモデルをトレーニングすることの重要性など、AIソリューションを最大限に活用する方法について従業員を教育する。
  • 技術的なサイバーコントロールを導入する
    運用上の回復力をテストするコードや、悪意のあるペイロードのスキャンに特に注意を払う。その他のコントロールには、以下のものが含まれるが、これらに限定されるものではない。
    • 多要素認証と認証されたユーザーのみへのアクセスを可能にする
    • データ損失防止ソリューションの適用
    • ツールによって生成されたすべてのコードが標準的なレビューを受け、本番環境に直接コピーできないようにするためのプロセス
    • ウェブフィルタリングの設定により、スタッフが承認されていないソリューションにアクセスした際に警告を発する

賢明なAIの利用がカギ

ChatGPTのメリットは明確で、その導入によってビジネスや社会でのAIの導入が加速するでしょう。ただ、そのメリットを最大化し、ビジネスの成長を加速させ、デジタルの信頼を維持するためには、ChatGPTやその他の生成型AIモデルの責任ある利用が不可欠です。

※1 Netflix site, Annual Reports and Proxies, 2023.
※2 Shontell, Alyson, “Here's How Long It Took 15 Hot Startups To Get 1,000,000 Users,” Business Insider, Jan 8, 2012.
※3 @gdb (Greg Brockman). “ChatGPT just crossed 1 million users; it's been 5 days since launch.” Twitter, December 5, 2022, 3:32 a.m.
※4 Let’s be clear – ChatGPT isn’t the only solution of this nature. There are many, and what we cover in this blog applies to all.
※5 The good news is that ChatGPT is good at learning and now provides a correct answer to this question.
※6 All the AI systems currently available today, are narrow intelligence systems. No reliable general intelligence model has been developed so far.

※本文中に記載されている会社名・製品名は各社の登録商標または商標です。

本稿は、KPMGインターナショナルが2023年2月に発表した「Building trust in AI is a shared responsibility」を翻訳したものです。翻訳と英語原文に齟齬がある場合には、英語原文が優先するものとします。

全文はこちらから(英文)
Building trust in AI is a shared responsibility

お問合せ