Maîtriser les risques de l’IA agentique

      À l’aube d’une nouvelle ère de systèmes d'Intelligence Artificielle.

      Publié le 19 novembre 2025

      L’IA entre dans une nouvelle phase avec l’essor de l’IA agentique. Ces systèmes ne se contentent plus de générer : ils sont désormais capables, en autonomie, de mémoriser sur le temps long, de raisonner, de planifier des tâches et de les exécuter en utilisant des outils. Les agents IA ne se contentent plus de générer des contenus, ils agissent sur le monde réel. 

      Mais, dans un environnement numérique de plus en plus complexe, ces nouvelles solutions engendrent des nouvelles menaces liés à la fiabilité, à la protection des données, à la cybersécurité, aux interactions avec les personnes, au respect des exigences réglementaires.

      Envie d'en savoir plus ? Téléchargez dès maintenant notre étude.

      La révolution de l'Intelligence Agentique

      Des capacités impliquant de nouveaux risques

      Les capacités de réflexion, de planification, de mémorisation sur le temps long et d’action autonome des agents IA ouvrent des perspectives considérables pour les entreprises : automatisation avancée des processus, gains d’efficacité et de productivité, résilience opérationnelle renforcée, et enrichissement de l’expérience humaine au travail. L’IA agentique s’impose ainsi comme un levier stratégique majeur de création de valeur.

      Mais en élargissant leur champ d’action, les agents intelligents exposent les entreprises à des menaces proportionnelles à leurs capacités :

      Comportements imprévisibles et erreurs difficiles à expliquer ;

      Cyberattaques via la manipulation ou la corruption de la mémoire et des outils ;

      Supervision humaine fragilisée par la complexité et la vitesse d’exécution ;

      Non-conformité réglementaire.

      Pour intégrer au mieux l’IA agentique dans leur système d’information et leurs processus métiers, les entreprises doivent inscrire cette transformation dans un cadre de sécurité, de conformité et de responsabilité, avec un objectif clair : renforcer la confiance et la performance.

      Quels impacts pour les entreprises ?

      Les risques liés à l’IA agentique vont au-delà des vulnérabilités propres aux modèles d’IA générative. En dotant ces systèmes de capacités d’action autonome, de prise de décision et de traitement d’information, de nouvelles zones d'exposition apparaissent — à la fois sécuritaires, opérationnelles, réputationnelles et réglementaires.

      • Sécuritaire
        • Usurpation d’identité et compromission d’accès.
        • Fuites de données sensibles.
        • Fraudes et contournement du contrôle interne.
        • Atteinte à l’intégrité des données.
      • Opérationnel
        • Erreurs ou décisions inappropriées.
        • Dysfonctionnements dans les processus métiers.
        • Surcoûts opérationnels, ESG ou financiers (tokens, cloud, API, supervision).
      • Réputationnel
        • Dégradation de l'image de marque.
        • Perte de confiance auprès des clients, partenaires ou autorités.
      • Réglementaire
        • Non-conformité réglementaire (RGPD, AI Act).
        • Sanctions.

      Vers des agents de confiance

      Les agents IA autonomes constituent un puissant vecteur de transformation pour les entreprises et les services, mais leur déploiement impose d’évoluer dans un champ d’incertitude à la fois technique, opérationnel et éthique. L’enjeu est de construire un cadre équilibré entre performance, sécurité de l’information et contrôle des risques, permettant d’exploiter  le potentiel de ces technologies tout en maîtrisant leurs impacts.

      Pour y parvenir, plusieurs axes d’action s’imposent :

      • Adapter la gouvernance et la gestion des risques

        pour encadrer l’autonomie et les comportements des agents IA ;

      • Intégrer les agents IA dans le système d’information et les dispositifs de cybersécurité

        (gestion des identités, contrôle des accès, supervision, protection des données) ;

      • Redéfinir les rôles et responsabilités humaines,

        notamment en matière de validation, de supervision et de diligence ;

      • Garantir la conformité aux réglementations,

        au droit en matière de protection des données (RGPD, AI Act, critères ESG) et aux principes éthiques.

      Face à ces enjeux, l’ensemble des fonctions clés de l’entreprise — IT, Cybersécurité, Conformité, Risques, RH, etc. — doit se préparer à l’essor de l’IA agentique. L’étude KPMG propose une feuille de route opérationnelle pour anticiper les chantiers à mener afin de déployer cette nouvelle génération d’IA au sein d’un cadre garantissant performance, sécurité et responsabilité.

      Auteur : 

      Vincent Maret

      Associé, Responsable du pôle Cybersécurité et Protection des données personnelles & AI Trust Lead

      KPMG en France

      Aller plus loin

      newspaper TRIBUNE

      Découvrez comment l'IA agentique révolutionne les processus cognitifs en entreprise en optimisant l'automatisation et la prise de décision.

      insights ÉTUDE

      Un modèle d’IA par cas d’usage à tout un écosystème de flux intelligents et autonomes qui captent la valeur de l’IA et bouleverse les modèles d’affaires.

      Restez informés des dernières actualités de KPMG en vous abonnant dès maintenant à nos communications personnalisées.

      KPMG. Make the Difference.