Comme l’intelligence artificielle générative (l’« IA générative ») évolue plus rapidement que les contrôles conçus pour la gérer, les organisations doivent définir clairement comment l’utiliser et comment préparer leur main‐d’œuvre à cette fin.
Les organisations commencent à mettre à l’essai l’intelligence artificielle générative, laquelle permet la production rapide de contenu, notamment des textes, des images et des vidéos, avec un minimum d’intervention humaine. Les résultats semblent prometteurs pour ce qui est de l’élaboration de comptes rendus de réunions, de la rédaction de courriels et du codage. Or, en exploitant ce capital intellectuel, les organisations pourraient divulguer involontairement des informations confidentielles et s’exposer au risque de fraude ou de vol.
La création d’outils d’IA générative exclusifs exige du temps, de l’argent et des ressources. Par conséquent, la plupart des organisations optent plutôt pour des solutions tierces comme ChatGPT, OpenAI et Stability AI. Toutefois, il est essentiel de comprendre les risques associés à l’IA générative pour pouvoir se prémunir contre son utilisation abusive et pour trouver des façons de la rendre plus productive et plus innovante.
Nous pourrions éventuellement assister à l’émergence d’une « singularité », c’est-à-dire lorsque l’IA générative devient plus intelligente que les humains. Bien qu’il soit difficile de planifier en fonction de ce scénario, les dirigeants d’entreprise feraient bien d’adopter des stratégies à moyen et à long terme qui tiennent compte de la façon dont l’IA générative transformera leur organisation. Les stratégies à court terme ne fonctionneront pas, car elles deviendront rapidement obsolètes.
Compte tenu de ces risques possibles, certaines organisations interdisent l’utilisation de certains outils d’IA ou sensibilisent rapidement leurs employés aux « pratiques exemplaires ». Plusieurs intervenants du secteur demandent qu’on ne pousse pas plus loin le développement de ces outils sans d’abord tenir compte collectivement des conséquences de l’utilisation de l’IA et de GPT, laquelle se généralise à une vitesse sans précédent. Même si l’interdiction d’utiliser des outils d’IA générative pourrait servir de mesure temporaire pour les organisations à mesure que la technologie évolue, une interdiction permanente n’est pas une solution permanente – les employés trouveront toujours des moyens de la contourner. Voici quelques éléments clés à prendre en considération pour adopter une stratégie à long terme et préparer votre main‐d’œuvre à l’IA générative.
Élaborer une politique – même si vous n’utilisez pas encore l’IA générative
Il est impératif d’élaborer une politique bien définie et de fournir des cas d’utilisation et des exemples précis. Les organisations doivent savoir comment les employés utilisent les solutions tierces d’IA générative afin de pouvoir ensuite élaborer des politiques et des procédures appropriées pour protéger les données sensibles. De même, elles doivent instaurer et bâtir un lien de confiance avec leurs employés afin de s’assurer de l’utilisation judicieuse de cette technologie.
L’élaboration de politiques, de paramètres et de cadres entourant l’IA générative est impérative, mais elle doit se faire sans tarder – parce que nous sommes déjà à l’ère de l’IA générative.
Sensibiliser votre main-d’œuvre
À mesure que les gens deviennent plus à l’aise et disposés à expérimenter les outils d’IA, il importe que leur sentiment d’euphorie et leur enthousiasme ne les amènent pas à poser des gestes à « haut risque », comme divulguer involontairement des informations sensibles. L’application d’une politique peut atténuer les conséquences de façon rétroactive, mais la sensibilisation peut s’avérer un mécanisme proactif pour les organisations qui veulent partir du bon pied.
Comprendre la conformité réglementaire et son incidence
Les dirigeants doivent bien comprendre les répercussions de l’IA générative sur la confidentialité des données, la protection des consommateurs, la violation des droits d’auteur et d’autres exigences réglementaires ou juridiques. Cela suppose de personnaliser les modèles d’IA à l’aide de données licites, et ce, conformément à la législation telle que le Règlement général sur la protection des données (« RGPD ») de l’UE. Même si les utilisateurs utilisent uniquement des données internes, vous voulez éviter qu’ils divulguent involontairement des informations confidentielles privées ou exclusives au public, ni à vos concurrents.
La plupart des organismes de réglementation exigent que les décisions qui sont fondées sur des données analytiques soient traçables et justifiables. Si un système n’est pas en mesure de justifier pourquoi ou comment une décision est prise, les décisions significatives doivent pouvoir être retracées à un ensemble de critères décisionnels très concrets. Si ce n’est pas possible, les organismes de réglementation auront de la difficulté à permettre que la technologie appuie les décisions d’affaires critiques.
Se protéger contre les risques liés à la sécurité et à la confidentialité
Comme un moteur d’IA est en constant apprentissage, il existe un risque qu’il assimile une propriété intellectuelle confidentielle et la mette à la disposition de tiers. Il importe de sauvegarder les données utilisées pour l’apprentissage des modèles d’IA en mettant en place des protocoles de sécurité, comme les contrôles d’accès, le chiffrement et le stockage sécurisé. Chez Samsung, par exemple, des développeurs utilisant ChatGPT ont téléversé involontairement un code source exclusif sur des serveurs OpenAI. Les politiques devraient donner des directives concernant les ensembles de données qui peuvent être intégrés à un moteur d’IA sans violer aucune loi en matière de confidentialité ou de propriété intellectuelle.
Vous ne voulez pas qu’un moteur d’IA divulgue votre propriété intellectuelle; vous devez donc établir des contrôles à l’égard de ce que vos moteurs cognitifs peuvent assimiler. Pour protéger la propriété intellectuelle dans un contexte d’IA, les organisations doivent mettre en place une combinaison de sauvegardes techniques, juridiques et organisationnelles.
Vérifier les biais et les inexactitudes
À mesure que les moteurs d’IA assimilent des données et « apprennent », ils pourraient involontairement introduire des biais dans le processus. Déterminez quelles applications ne sont pas particulièrement susceptibles de faire l’objet d’un biais (par exemple, un agent conversationnel qui achemine les appels) et commencez votre parcours génératif en IA. Certains membres de l’équipe devraient être chargés d’évaluer les résultats aux fins du contrôle des biais. Cela peut comprendre l’analyse des données d’entraînement pour identifier les sources possibles de biais, des tests de système portant sur divers éléments et l’application de cas d’utilisation pour s’assurer que le système fonctionne avec justesse et exactitude pour tous les groupes, et l’évaluation de conception du système pour repérer et traiter toute source possible de biais. En bout de ligne, la vérification des biais est une étape essentielle pour veiller à ce que les systèmes d’IA soient justes, équitables et conviennent à tous.
Les outils d’IA sont entraînés par leur utilisateurs. Si la communauté des utilisateurs a un parti pris pour des secteurs particuliers de l’économie et de la société, cela se reflétera sur les résultats d’IA. Cette situation posera un défi de taille au début, et rendra les versions d’IA disponibles au public plus vulnérables aux personnes mal intentionnées qui ont une influence à grande échelle.
Développer les compétences de votre main-d’œuvre
Les organisations doivent également se pencher sur la planification du développement des compétences de leur main‐d’œuvre à l’ère de l’IA générative. Par exemple, avec l’IA générative, les environnements d’apprentissage virtuels qui simulent des scénarios du monde réel permettront aux utilisateurs de pratiquer et d’appliquer leurs compétences dans milieu sécurisé et contrôlé. Un certificat de microcrédits personnalisé et polyvalent en IA générative sera-t-il plus utile qu’un diplôme universitaire? Si tel est le cas, comment peut-on s’adapter à cet état de fait?
Quelles sont les prochaines étapes?
Il est possible de favoriser une culture de l’expérimentation, tout en gardant à l’esprit vos objectifs commerciaux, en ayant recours à des bacs à sable protégés qui permettent de faire des tests dans un environnement isolé. Bien que le concept de bac à sable ne soit pas nouveau, il faut quand même adopter une approche prudente quant à savoir qui y a accès et quels ensembles de données le moteur d’IA peut utiliser. Toutefois, il permet aux utilisateurs de commencer à former des moteurs d’IA avec des ensembles de données qui peuvent être délimités, gérés et contrôlés.
Le fait de comprendre les risques et de s’assurer que des mesures de protection sont en place peut aider les dirigeants à se concentrer sur les avantages potentiels de l’IA générative, comme l’amélioration des processus ou l’amélioration de l’expérience client. Dans sa version actuelle, l’IA générative est le meilleur moyen de trouver des occasions d’affaires qui ont des conséquences éthiques ou réglementaires limitées, comme aider les agents conversationnels à mieux acheminer les appels des clients.
L’IA permet d’accéder à un monde de possibilités. Les organisations doivent faire preuve d’une grande prudence afin d’atteindre un juste équilibre entre le rythme d’adoption de cette technologie et leur état de préparation. En établissant des attentes réalistes, les dirigeants peuvent préparer leur main‐d’œuvre à l’IA générative et en tirer des bénéfices, tout en atténuant les risques. Découvrez comment KPMG peut vous aider.
Nos huit principes de base guident notre approche en matière d’IA responsable tout au long du cycle de vie de l’IA et de l’apprentissage machine :
- Équité: S’assurer que les modèles sont équitables et exempts de préjugés.
- Explicabilité: S’assurer que l’IA peut être comprise, documentée et révisée.
- Responsabilisation: S’assurer que des mécanismes sont en place pour favoriser la responsabilisation dans tout le cycle de vie.
- Sécurité: Assurer la protection contre l’accès interdit, la corruption et les attaques.
- Protection de la vie privée: Veiller à la conformité avec les règles de confidentialité des données et l’utilisation des données des consommateurs.
- Sûreté: S’assurer que l’IA n’a pas de répercussions négatives sur les humains, la propriété et l’environnement.
- Intégrité des données: S’assurer que la qualité, la gouvernance et les étapes d’enrichissement des données intègrent la confiance.
- Fiabilité: Veiller à ce que les systèmes d’IA fonctionnent au degré désiré de précision et de constance.
Communiquez avec nous
Tenez-vous au courant de sujets qui vous intéressent.
Inscrivez-vous aujourd’hui pour avoir accès à du contenu personnalisé en fonction de vos intérêts.
Communiquez avec nous
- Trouvez des bureaux kpmg.findOfficeLocations
- kpmg.emailUs
- Médias sociaux @ KPMG kpmg.socialMedia