L'essentiel

      En 2025, KPMG publie les résultats de la plus grosse étude mondiale jamais réalisée sur le sujet de la confiance en matière d'Intelligence Artificielle. Réalisée avec l’Université de Melbourne, l'étude interroge plus de 48 000 personnes de la société civile, issues de 47 pays.

      Cette étude nous apprend, qu'en France, 67 % des Français utilisent déjà l’IA de manière volontaire. Mais seulement 33 % déclarent faire confiance aux systèmes d’Intelligence Artificielle.

      Confiance, perception, expérience utilisateur, IA au travail…Découvrez ce que disent les français et quel est leur positionnement au regard des autres nationalités ?

      Une enquête mondiale sur les usages, perceptions et attentes à l’égard de l’intelligence artificielle.

      Usage et perception de l’IA : une vision contrastée 

      Quelle est la position des français ?


      En France, les usages se multiplient, notamment chez les plus jeunes qu'ils l'utilisent au cours de leurs études (90 %) ou bien pour un usage personnel (65 %). Mais les sentiments à l’égard de la technologie restent ambivalents :

      • 61% des répondants français et internationaux se disent inquiets face à l’essor de l’IA
      • 60% des français restent pourtant optimistes; ils sont 69% des répondants à l’international
      • 33% des français accordent leur confiance aux systèmes d’IA, alors qu'ils sont 46% dans le monde. Globalement, les pays aux économies avancées sont plus méfiants que les pays émergents.

      Comment ces chiffres se traduisent-ils dans l’expérience utilisateur des français ?

      • Conséquences négatives liées à l'usage de l'IA
        • 81% des français ont cette crainte;
        • 34% en font le constat.
      • Conséquences positives
        • 81% l'anticipent;
        • 59% le confirment

      La confiance : clé de voûte de l’adoption responsable


      79% des répondants sont plus enclins à faire confiance à un système d’Intelligence Artificielle s’il est jugé digne de confiance. 

      Développer cette confiance et une utilisation responsable demande des efforts de structuration. Quels leviers mettre en œuvre ?

      La communication interne permet aux salariés de l'entreprise de connaître la politique de leur société et aux dirigeants de partager leurs convictions.

      Afin d'obtenir la confiance de toutes les parties prenantes, il est important que les entreprises bénéficient d'une supervision claire de toutes les technologies IA utilisées, qu'elles centralisent la gestion des risques et qu'elles disposent de règles d'usage précises et de processus transparents.

      Afin de soulever les freins et toute forme de réticence dans l'adoption de l'IA, l'entreprise doit former ses salariés autant sur les enjeux de l'outil que sur la maîtrise de son fonctionnement.

      Il est fondamental de respecter les normes de confidentialité et de sécurité pour favoriser une adoption responsable et transparente de l'IA.

      Tag : AI Trust

      Contacts :

      Laurent Gobbi

      Associé, Deal Strategy, Responsable international Trusted AI & Tech Risk

      KPMG en France

      Vincent Maret

      Associé, Responsable du pôle Cybersécurité et Protection des données personnelles & AI Trust Lead

      KPMG en France

      Aller plus loin

      insights INSIGHT

      Découvrez comment l'AI Act influence les entreprises françaises en matière de risque et d'IA. Étude KPMG sur la conformité et les défis à relever.

      insights INSIGHT

      Adoption de l'Intelligence Artificielle en France : impacts & perspectives par métier.

      notes ARTICLE

      Découvrez comment l'ia générative peut être mise en place sans risques dans votre entreprise de manière efficace et bénéfique


       

      Restez informés des dernières actualités de KPMG en vous abonnant dès maintenant à nos communications personnalisées.