生成型人工知能(生成AI)モデルが、前例のない速度と効率で特定のタスクを自動化および実行することにより、ビジネスが大きく変革されようとしています。しかしながら、責任ある、信頼できる、そして安全な方法で生成AIモデルの可能性を最大限に引き出すには、時間と人間の専門知識が必要です。生成AIを使用することを検討している場合は、組織内のすべての人が従うための一連の内部プロセスとコントロールを確立することが重要です。
本レポートでは、ChatGPTなどの生成AIアプリケーションを組織内で使用することを検討している場合に考慮すべき事項、潜在的なユースケースや機会について考察します。

生成AIについて知っておくべき10のこと

生成AIに関連する考察を始める前に、生成AIとはどのようなもので、何をすることができ、またどのようなリスク、そして可能性を秘めているのか、簡単にまとめてみたいと思います。

(1)最も一般的な生成AIソリューションは、大まかに、コンテンツ生成、情報抽出、スマートチャットボット、言語翻訳、コード生成の5つのカテゴリに分類されます。

(2)生成AIモデルは、記事を要約したり、メールを作成したり、画像や動画を作成したりすることができます。また、訓練により、追加の質問に答えたり、誤りを認めたり、不確かな仮定に挑戦したり、不適切な要求をフィルタリングしたり、拒否したりする会話も可能です。

(3)ChatGPTは、人間の指示に基づいて訓練されたチャットボットです。初期の基礎となる大規模言語モデルであるGPT-3.5はインターネットに接続されておらず、2021年9月までのデータで訓練されました。OpenAIの新しい大規模マルチモーダルモデルであるGPT-4は、以前の大規模言語モデルから進化しています。

(4)生成AIモデルは、IT、人事、オペレーション、財務、監査、法律、マーケティングなどのさまざまなビジネス機能で使用できます。

(5)生成AIはデータ入力またはパラメータを受け取り、学習して知識を構築します。アプリケーションによっては、著作権を譲渡する可能性もあります。利用者が入力したデータがどのように扱われるかは、それぞれの利用規約を確認することで把握できます。

(6)生成AIを使用する目的と実装方法によっては、知的財産や営業秘密を露出し、組織を不正リスクにさらす可能性があります。

(7)AIによって生成された情報やコードを成果物や製品にコピーすることで、著作権や他の知的財産権を侵害する可能性があります。これにより、組織が法的または風評上の損害を被る可能性があります。

(8)KPMGは、オープンソース版とブティック版の生成AIが、インターネットブラウザからクラウドベースのソフトウェアやインスタントメッセージングプログラムなど、組織がライセンスを取得するAI接続技術まで、多くの一般的なアプリケーション、システム、プロセスに統合され続けると予測しています。

(9)組織内で安全な使用ガイドラインを作成することは、生成AIアプリケーションの適切かつ効果的な使用を確保するうえで重要です。また、人間がかかわることでのみ得られる独自の洞察力や理解力を、生成AI単独では再現できないため、組織は自社の人材をスキルアップする必要があります。

(10)KPMGは、安全で信頼性があり、倫理的な方法でAIシステムを設計、構築、展開する責任あるアプローチを取っています。このアプローチにより、企業は消費者、組織、社会に対する価値の加速化を図ることができます。

生成AIモデルの市場概況

2022年9月にKPMGが実施したAIリスク調査レポートでは、回答者の85%がAIと予測分析モデルの利用増加を予測しています。また、2022年のKPMG米国のテクノロジー調査では、回答者の半数がAI技術への投資からROIを得たと回答しました。
生成AIモデルを学習するには、莫大なベンチャーキャピタル、人的労力、コンピューティングパワーが必要です。考え得るアプリケーションの範囲を考えると、生成AIモデルを有用にするための新しい産業が形成されつつあります。

生成AIモデルとは?

生成AIは、既存のデータを単に分析または処理するのではなく、コンテンツを生成できる人工知能を指します。GPT-4などの生成AIモデルは、収集されたデータセットで構築および学習されます。これらのモデルは、事前定義されたデータコレクションに基づいて一般的または専門的なものになることができ、特定の人間の指示に従って出力を生成するように設計されています。

生成AIモデルの仕組み ~ChatGPTの例~

ChatGPTは、Chat(conversation-based:会話ベースの)G(generative:生成する)P(pretrained:事前学習された)T(transformer(自然言語処理(NLP)タスクで使用される深層学習モデルの一種))を表しています。人間のフィードバックから強化学習を使用して微調整され、人間らしい音声を出力し、望ましくない応答を防止し、幻覚(事実を作り上げること)を回避するために、人間の好みを表す報酬モデルが学習されました。

ChatGPTは、大規模言語モデル(LLM)として作成され、その後、大規模マルチモーダル生成AIアプリケーションに進化しました。これは、ChatGPTが以前はテキスト入力のみを受け付けていたのに対し、画像とテキストの両方を受け付けることができるようになったことを意味します。加えて、未学習データを使用して予測結果を出すニューラルネットワークモデルを組み合わせることで、このタイプの生成モデルは、すでに学習したコンテンツの言語パターンと関係性の最も可能性の高いものを決定できます。
「大規模」とは、モデルが基づくデータの量や、モデル自体のサイズが大きいことを指します。これには、大量の公開電子文書のコレクションを使用してモデルを学習することも含まれます。

ChatGPTは最初に、WikipediaやThe New York Timesなどから100万以上のデータセットまたは5,000億トークン(単語または単語のフラグメント)で学習されました。これをわかりやすくするために補足すると、人間が一生で話す言葉の平均は8億6,030万語であり、このコレクション(AI用語では“コーパス”(自然言語の文章データ等を収集しデータベース化された言語資料)と呼ばれる)は語彙量としておよそ300年分に相当します。

生成AIモデルの潜在的な可能性とユースケース

ChatGPTが急速に人気を博している理由の1つは、技術的なバックグラウンドを持たない人でも利用できるということです。そのユーザー数は2023年2月現在、1億人に達しており、チャットボットのユーザー数が多ければ多いほど、その基盤となるAIの学習が進むことになります。

ChatGPTに代表される生成AIモデルには、IT、監査、人事、オペレーションなど、ビジネス機能全般においても応用できる可能性があります。しかし、これらのユースケースを検討する際、生成AIは多くの機会を提供する一方で、リスクがないわけではないことに留意する必要があります。

【生成AIモデルの分野別の活用例】

分野 想定される活用例
IT

・LMMベースのナレッジマネジメントシステム

・セルフサービス型ITサポート

・コーディングまたはコードのテスト

監査・コンプライアンス

・監査レビューの自動化

・独立性要件の評価

人事

・候補者選定

・セルフサービスアプリケーション

オペレーション

・サステナビリティとESGの報告

・バーチャルイベント運営

・ビジネスオペレーションの簡素化

金融/ロジスティクス

・支払いの分類と検証

・契約条項の作成・見直し

法的および組織的なガバナンス

・投資に関する個別の独立性の推奨事項を行うこと

・法的引用とソースリンクを提示すること

マーケティング

・キャンペーン文言の簡略化

・大規模なマーケティングコミュニケーションのローカライズ

・複雑な情報を簡潔にまとめる

生成AIモデルにおける現在の検討状況

生成AIモデルが消費者の助けとなり、組織プロセスを効率化し、従業員の時間を解放してより高い付加価値のある業務を担当できるようになる可能性がある一方、生成AIの使用には多くの制限や潜在的な問題があります。
ChatGPTのような大規模なマルチモーダルモデルは人間らしい応答を生成しますが、人間らしい推論力を持ちません。これらのモデルが信頼できると考えられるためには、ユーザーが適切なユースケースに彼らのAI機能を適用する責任があり、組織は従業員にこのようなプログラムの使用方法を教育する必要があります。同様に、開発者は信頼できるデータセットを使用してAIモデルを学習させ、関連するバイアスやコンテンツフィルターを適用する必要があります。

内部リスクと考慮事項

  • 機密性や知的財産の破壊
    多くの生成AIモデルは、ユーザーが入力したデータを吸収して基盤となるモデルを時間の経過とともに改善するように構築されていますが、そのデータは、代わりに他の誰かのプロンプトに答えるために使用されるかもしれず、公衆に個人情報や独自の情報が公開される可能性があります。この技術を使用するほど、機密性の高い情報が他人にアクセスされる可能性が高くなります。
  • 従業員の誤使用や不正確性
    生成AIモデルは入力に基づいて回答を生成するため、虚偽または悪意のあるコンテンツを提供する可能性があります。従業員が使用する際には、批判的な目と品質保証に重点を置いて、AIが生成したコンテンツを注意深く確認する必要があります。
    その他にも、個人データなどの機密情報を生成する可能性があること、その情報を用いてID盗難やプライバシー侵害が行われる可能性があること、不満を持つ従業員や怒った顧客が企業や従業員、役員の評判を傷つけるために偽の情報を作成する可能性があることなどが挙げられます。
  • 生成AIの進化
    AIの理解が進むにつれ、世界的な規制がますます増えています。意図的に生成AIを使用するつもりがなくても、これらの規制について常に最新情報を把握することが重要です。
  • 従業員への影響
    高品質で専門的なアウトプットは、高品質で専門的なクエリを用いてのみ達成できます。したがって、組織は従業員のスキルアップと独自の知識の維持を必要とし、クエリの文脈を理解して適切なプロンプトを提供する必要があります。
    生成AIの将来において、プロフェッショナルの役割は、問題解決から問題定義へと移行し、チームが機械と一緒になって新しいアプローチを生み出すことが予想されます。人間は、生成AIだけでは再現できない独自の洞察力と理解をプロセスにもたらします。人間が重要なフィードバックを提供することで、時間の経過とともにモデルを改善し、精度が高く、公正で、目的に沿ったアウトプットを実現します。

外部リスクと考慮事項

  • 誤情報、偏見、差別
    生成AIは、ディープフェイク画像や動画を作成するために使用されることがあります(視覚的なコンテンツが変更され、誰かが何かを言ったかのように見せかけることができます)。これらの画像や動画は、非常にリアルに見え、編集されたデジタルメディアに残されたフォレンジックトレースがないため、人間や機械でさえも検出することが困難です。
  • 著作権
    生成AIアプリケーションを通じて実行されたコンテンツの所有者は誰かという疑問がありますが、答えは1つではありません。ツールごとに利用規約が異なることや、素材の使用方法も重要な要素となります。
    他者が著作権を有する文章からコピー&ペーストし、ほとんど変更されないまま使用した場合、盗作と見なされる可能性があります。生成AIツールを通じて得られた情報を、どこまで変えれば正当に自分のものと言えるのか、断定はできません。
  • 財務、ブランド、風評上のリスク
    もし、組織の誰かがAIによって生成された情報やコードを成果物や製品にコピーした場合、それは著作権または他の知的財産権の侵害となる可能性があり、法的な問題やレピュテーション上の損害をもたらすおそれがあります。
  • サイバーセキュリティ
    サイバー犯罪者は、生成AIを使用して、より現実的で洗練されたフィッシング詐欺やシステムに侵入するための認証情報を作成することができます。さらに、AIアルゴリズムは、その基盤となるトレーニングデータセットを保護できません。データが匿名化され、スクラビングされたとしても、アルゴリズムが個人のアイデンティティを区別できることが研究で示されています。
    その他の生成AIに関するサイバーセキュリティのリスクとしては、モデルの学習に使用するデータが操作されるデータポイズニングや、生成AIのモデルに悪意のある入力を与えて騙そうとする敵対的攻撃などがあります。
  • 敵対的攻撃
    許容範囲内で動作するように訓練されていても、生成AIモデルは、他の分析モデルと同様に、巧妙な外部ユーザーによる意図的な操作に対して脆弱であることが証明されています。あなたの組織が生成AIソリューションの使用を計画している場合、ソリューションが一般に公開されたときに、このようなことが起こり得ることを認識しておく必要があります。

未来には何が起こるのか?

生成AIに関してテクノロジー企業が探究していることを見ると、この領域が今後どこへ向かうかのヒントが得られます。

  • ソフトウェアの開発・保守
    生成AIは、ソフトウェア開発全体のプロセスを進歩させ、より信頼性の高いソフトウェア製品やサービスをより速く提供できるようにする可能性を示しています。コード生成、メンテナンス、バグの修正などのプロセスを完全に自動化できる可能性があると予想されています。
  • 映像制作とバーチャルリアリティ
    没入感のあるビデオゲーム環境を作ったり、動画をデザインしたり、あるいはeコマースサイトの商品動画をパーソナライズしたりすることができます。将来的には、企業がバーチャルアシスタントや、ライブ映像に自動的にキャプションを付けるようなライブストリーミングアプリケーションに活用することも可能です。
  • メタバース
    メタバースでのリアルな3Dアセットを作成するには費用と時間がかかります。生成AIは、テキストから画像や音声に変換した3Dアセットの生成、2D画像から3Dシーンの生成、あるいは効果音の生成が可能です。また、人間の顔を生成し、メタバースのアバターによりリアルな特徴を与えることもできます。
  • 情報セキュリティの向上
    生成AIは、ある脆弱性がどのような重要リスクとなるかを個人に教え、適切なスクリプトの生成や、脅威行為者の攻撃方法を理解することを支援します。

※本文中に記載されている会社名・製品名は各社の登録商標または商標です。

本レポートは、KPMGインターナショナルが2023年4月に発行した「Generative AI models -the risks and potential rewards in business」を、KPMGインターナショナルの許可を得て翻訳したものです。翻訳と英語原文間に齟齬がある場合は、当該英語原文が優先するものとします。
また、本文中の数値、引用については英語原文の参照元を根拠としています。

全文はこちらから(英文)
Generative AI models -the risks and potential rewards in business

お問合せ