cancel

Les différents risques de l'IA générative

Découvrez les défis et les différents risques de l'IA générative et les précautions à prendre pour une utilisation responsable.

Publié le 11 octobre 2023

La création d'un outil d'IA générative demande beaucoup de temps, d'argent et d'efforts. C'est pourquoi, pour l'instant, la plupart des entreprises ont recours à des solutions d'IA générative tierces, telles qu'OpenAI et Stability AI, s’exposant à un risque accru de fraude ou de vol d'informations propriétaires ou privées. Lorsque ce ne sont pas les entreprises elles-mêmes qui y font appel, ce sont les employés qui passent par ce type de technologies, ajoutant à ces risques ceux d’une perte d’esprit critique dans l’exploitation des résultats et d’une opacité dans la gestion de leur temps.

Dans ce deuxième article de notre série consacrée aux applications d'IA générative, nous nous penchons sur la nature et la gestion des risques qu’elles comportent pour l’interne et l’externe. Nous soulignerons l'importance, pour les entreprises, de les identifier et de mettre en place des structures de gouvernance en favorisant une adoption responsable et une utilisation qui préserve la confiance dans ces technologies.

 

Risques d’origine interne

Propriété intellectuelle

La technologie de l'IA générative utilise des réseaux neuronaux qui peuvent être entraînés sur de grands jeux de données existants pour créer de nouvelles données ou objets, comme des textes, des images ou des sons. Cela comprend les données entrées par ses différents utilisateurs, que l'outil conserve pour continuellement améliorer son apprentissage et sa base de connaissances. Ces données pourraient à leur tour être utilisées pour répondre à une demande formulée par quelqu'un d'autre, exposant potentiellement des informations privées ou propriétaires au public. Plus les entreprises utilisent cette application, plus il est probable que leurs informations puissent être accessibles par d'autres. De plus, le contenu généré par l'IA en réponse aux demandes d'une entreprise pourrait contenir la propriété intellectuelle d'une autre entreprise. Cela pourrait entraîner des ambiguïtés concernant la paternité et la propriété du contenu généré, suscitant des accusations possibles de plagiat ou le risque de poursuites pour violation du droit d'auteur.

Utilisation abusive des employés

L'utilisation de l'IA générative offre aux entreprises de nombreux avantages, mais elle présente également de puissantes tentations d'abus par les employés. Les employés pourraient être tentés d'utiliser l'IA générative et de faire passer le résultat pour leur propre travail. Un exemple sérieux d'utilisation abusive serait l’automatisation de confirmations ou de revues juridiques, ne prenant pas en compte des considérations éthiques, réglementaires ou d’indépendance importantes, ce qui pourrait engager la responsabilité légale de l’entreprise.

Résultats imprécis

Même l'utilisation légitime de l'IA générative comporte des risques. Les employés qui utilisent l'IA générative devront faire preuve de vigilance en évaluant la qualité des résultats et en y appliquant un esprit critique professionnel. En s’appuyant sur une base de connaissances existante, les solutions d’IA Générative sont par exemple susceptibles de reproduire des biais historiques, et sont peu adaptées pour générer des contenus véritablement « nouveaux ». Une exploitation de résultats imprécis peut entraîner de mauvaises prises de décisions, impacter la réputation de l’entreprise et créer des risques légaux.

Risques d’origine externe

Les actions malveillantes sont légion sur le web, et l’IA générative peut faciliter leur exécution tout en les rendant bien plus difficiles à détecter.

L'IA générative peut également être utilisée pour créer ce que l'on appelle des images ou des vidéos deepfake, avec un réalisme troublant et sans laisser de traces forensiques, ce qui les rend difficiles à détecter. Ce type de support pourrait par exemple représenter une entreprise dans une situation scandaleuse ou encore servir de preuve pour des réclamations d'assurance frauduleuses.

Enfin, l'IA générative soulève également des risques en matière de cybersécurité. Les cybercriminels peuvent utiliser cette technologie pour créer des escroqueries au phishing plus réalistes et sophistiquées, ou pour générer des identifiants leur permettant de pirater des systèmes.

Comment KPMG peut vous accompagner ?

Nous avons tous la responsabilité de connaître les risques de l'IA générative et de les maîtriser afin de prévenir tout préjudice pour les clients, les entreprises et la société. Ces risques vont croître et évoluer à mesure que la technologie de l'IA avance et devient plus omniprésente, et sous la pression croissante des régulateurs.

L'offre d'IA responsable de KPMG propose un ensemble de méthodes, de contrôles, de processus et d'outils visant à garantir que les systèmes d'IA sont conçus et déployés de manière fiable et éthique, permettant ainsi aux entreprises d'accélérer la création de valeur. 

Nos huit principes fondamentaux orientent notre approche de l'IA responsable tout au long du cycle de vie de l'IA/ML

 

Nos huit principes fondamentaux orientent notre approche de l'IA responsable tout au long du cycle de vie de l'IA/ML

  1. Équité
    S'assurer que les modèles sont exempts de biais et équitables.
  2. Explicabilité
    S'assurer que l'IA peut être comprise, documentée et ouverte à l'examen.
  3. Responsabilité
    S'assurer que des mécanismes sont en place pour garantir la responsabilité tout au long du cycle de vie.
  4. Prévention
    Protéger contre l'accès non autorisé, la corruption ou les attaques.
  5. Confidentialité

    Garantir la conformité aux réglementations sur la protection des données et l'utilisation des données des consommateurs.

  6. Sécurité

    S'assurer que l'IA n'a pas d'impact négatif sur les êtres humains, les biens et l'environnement.

  7. Intégrité des données

    S'assurer de la qualité des données, des processus de gouvernance et des étapes d'enrichissement pour renforcer la confiance.

  8. Fiabilité

    S'assurer que les systèmes d'IA fonctionnent au niveau de précision et de cohérence souhaité.

La face cachée de l'IA générative :

Défis et risques liés à une utilisation responsable

Auteurs :

Romain Lamotte

Associé, Advisory, Connected Tech

KPMG en France

Bertrand Aubry

Associé, Advisory, Connected Tech

KPMG en France

Vincent Maret

Associé, Responsable du pôle Cybersécurité et Protection des données personnelles

KPMG en France

Aller plus loin

notes ARTICLE

Gouvernance des données, nouvelle génération

Les Chief Data Officer, nouveaux acteurs stratégiques de la transformation de leur organisation.

notes ARTICLE

Transformation data

La transformation data, un enjeu majeur pour les entreprises. Quel modèle économique permet de maximiser son ROI ? KPMG vous expose son point de vue.

notes ARTICLE

Modèles d'IA générative pour les entreprises : risques, bénéfices potentiels

Découvrez comment l'ia générative peut être mise en place sans risques dans votre entreprise de manière efficace et bénéfique


 

Restez informés des dernières actualités de KPMG en vous abonnant dès maintenant à nos communications personnalisées.