Publié le 10 avril 2026

       

       

      • Depuis quelques années, un mot hante les discours technologiques, économiques et politiques : superintelligence.

        Il évoque une intelligence artificielle générale, capable de dépasser l’humain dans toutes ses facultés, de le supplanter, voire de le dominer. Certains acteurs de la tech annoncent son avènement imminent. D’autres appellent à tirer des lignes rouges face à un risque qualifié d’existentiel. D’autres encore dénoncent une peur mal posée, presque hors sujet.

         

        C’est dans ce paysage saturé de projections que s’inscrit le débat proposé par Futurs + Humains, réunissant trois regards complémentaires : Laurence DevillersBenoît Bergeret et Marie Guillemot.

         

        La superintelligence n’est pas le vrai sujet. Pendant que l’on fantasme un futur hypothétique, l’IA est déjà là — dans les entreprises, les écoles, les décisions, les relations — et transforme en profondeur nos manières d’apprendre, de travailler, de juger et de faire société.
         

         

      Invités

      • Laurence Devillers

        Professeure en intelligence artificielle et sciences informatiques à la Sorbonne, chercheuse au CNRS, spécialiste des interactions affectives avec les machines. Laurence Devilliers est aussi Présidente du conseil stratégique de la Fondation Blaise Pascal qui se consacre à la médiation en mathématiques et informatique. Son dernier livre : IA ange ou démon, paru en 2025 aux éditions du Cerf.

      • Benoît Bergeret

        Expert de l’IA, serial entrepreneur, avec un parcours en France, aux USA et en Asie, actuellement Président de strategies.ai et Co-fondateur du Hub France IA qui milite pour l’adoption d’une IA responsable. Il est corédacteur d'un recueil d'essai : Intelligence artificielle et dé-coîncidence, éd Presse des Mines, 2025.


      Marie Guillemot

      Présidente du Directoire, Country Senior Partner, Membre du Global Board de KPMG International

      KPMG en France


      La superintelligence : une construction narrative plus qu’un fait scientifique

      Dès l’ouverture du débat, Laurence Devillers pose un cadre sans ambiguïté. Il n’existe aujourd’hui aucune preuve scientifique attestant de l’arrivée prochaine d’une intelligence artificielle générale capable de surpasser l’humain dans sa globalité. L’idée d’une superintelligence imminente relève davantage du storytelling que de la science.

      Ce récit n’est pas neutre. Il sert des intérêts économiques, oriente les investissements, influence les régulations, et façonne l’imaginaire collectif, en particulier en Europe. Or, dépasser l’humain sur une tâche donnée — calcul, prédiction, optimisation — ne signifie en rien comprendre, ressentir, juger ou être conscient.

      Les modèles de langage, fondés sur du code et des architectures de système intelligent, aussi impressionnants soient‑ils, travaillent « hors sol ». Ils manipulent des données numérisées, pré‑enregistrées, sans ancrage dans le monde vécu, sans expérience corporelle, sans émotion. Ils produisent des réponses, pas du sens. Ils n’ont ni intention, ni compréhension, ni conscience de leurs propres limites.

      Pourquoi avons‑nous pourtant l’impression que l’IA “pense” ?

      C’est l’un des paradoxes les plus troublants de l’IA générative : elle donne l’illusion de la compréhension. Elle parle bien, contextualise, reformule, argumente. Elle imite avec une efficacité redoutable les formes du raisonnement humain.

      Pourtant, rappelle Laurence Devillers, cette impression est trompeuse. Certains systèmes artificiels peuvent faire preuve d’une créativité apparente et dépasser l’humain, par exemple sur des tâches techniques ou combinatoires. Mais cette créativité est pseudo‑créative : elle repose sur l’exploitation de métadonnées, sur l’apprentissage de tâches, sur des interpolations statistiques. Elle n’est ni intentionnelle, ni incarnée.

      L’intelligence humaine, elle, est sociale, émotionnelle, contextualisée. Elle s’inscrit dans un corps, une histoire, une relation à autrui. Même les IA multimodales, capables de traiter texte, image, son ou geste, n’ont pas de cognition comparable à la nôtre. Elles peuvent détecter des émotions, les exprimer, y réagir — mais elles ne les ressentent pas.

      L’entreprise : un projet humain avant d’être un système technique

      L’entreprise, rappelle Marie Guillemot, est avant tout une aventure humaine, un projet collectif, une alchimie de compétences, de gestes, d’expériences et de relations.

      Toutes les tâches ne sont ni digitalisables ni automatisables. Dans certains secteurs — artisanat, métiers du geste, savoir‑faire incarnés — la valeur réside précisément dans ce qui ne peut être remplacé. L’IA peut soutenir, assister, augmenter. Elle ne peut se substituer.

      Dans les métiers de la prestation intellectuelle, comme l’audit ou le conseil, l’IA est plus présente. Elle interroge la qualité des données, la fiabilité des résultats, la tentation de la délégation. Mais les clients ne viennent pas chercher une simple puissance de calcul. Ils cherchent un regard critique, une expérience humaine, une capacité de jugement indépendant, une relation de confiance. On ne délègue ni sa signature, ni sa responsabilité, ni ses convictions à une machine.

      Intelligence hybride : augmentation ou abdication ?

      L’idée d’une intelligence hybride, combinant humains et machines, traverse l’ensemble du débat. Mais cette hybridation n’a rien d’évident. Elle peut être féconde ou dangereuse.

      Pour Benoît Bergeret, le problème commence dès les mots. Nous parlons mal de l’IA. Or, mal nommer les choses, comme le rappelait Albert Camus, c’est déjà produire du malheur. Il distingue clairement l’IA prédictive de l’IA générative, cette dernière représentant une délégation cognitive forte.

      Il propose une métaphore biologique : l’IA générative comme symbiote, à la manière des holobiontes. Elle s’insère dans notre système cognitif. La question n’est pas de la refuser, mais de prendre la mesure de ce que nous lui déléguons. Accepter qu’une IA « pense à notre place » n’est jamais neutre.



      Des risques majeurs… déjà à l’œuvre

      Les intervenants convergent sur un point essentiel : les risques les plus graves de l’IA ne sont pas futurs, ils sont présents. Et ils ne sont pas techniques, mais cognitifs, sociaux et politiques.

      Le premier est le biais de confiance. L’IA parle avec assurance, sans douter, sans hésiter. Elle nourrit l’anthropomorphisme. Des citoyens non experts peuvent en venir à la considérer comme plus fiable qu’un médecin ou qu’un savoir scientifique établi. La machine se voit attribuer une autorité qu’elle n’a pas.

      Le second concerne le rapport à l’intime. Les modèles deviennent toujours plus voraces en données personnelles. Le langage devient un outil de nudge, de manipulation subtile. La frontière entre assistance et influence se brouille. La santé mentale est directement concernée : si les fonctions de soin, d’écoute ou d’accompagnement psychologique sont captées par des machines, que devient le lien humain ?

      Enfin, un risque plus diffus mais fondamental apparaît : celui du désapprentissage. À force de déléguer, l’humain peut s’appauvrir cognitivement. Perdre l’effort, le doute, la capacité à aller au‑delà de la réponse fournie. D’où l’urgence de challenger l’IA, de ne pas la sacraliser, de ne pas désapprendre.

      Éducation, formation, esprit critique : le véritable champ de bataille

      L’école et l’université apparaissent comme des lieux décisifs. Il est essentiel de remettre les fondamentaux au centre, de préserver des espaces d’apprentissage sans machine, de cultiver la métacognition : réfléchir à ce que l’on apprend, comment on apprend, et ce que l’on délègue.

      Former à l’IA, ce n’est pas seulement former des ingénieurs ou des experts en informatique, mais des citoyens capables de comprendre, utiliser et questionner cette technologie :

      • détecter les biais culturels,
      • lire l’absence autant que la réponse,
      • comprendre d’où viennent les données,
      • interroger les visions du monde véhiculées par les modèles, majoritairement anglophones.

      Derrière l’IA se joue aussi une guerre psychologique, économique et culturelle. Les discours ne sont pas neutres. Les modèles intègrent des choix politiques implicites. Ne pas les questionner, c’est s’exposer à une forme de domination cognitive.

      La confiance comme boussole

      Pour Marie Guillemot, bâtir la confiance dans un monde outillé par l’IA demande plus d’exigence, pas moins. Cela implique :

      • des choix technologiques responsables,
      • des modèles sécurisés et contrôlés,
      • une vigilance constante sur les biais,
      • un refus du cynisme et de la délégation aveugle.

      L’IA ne doit jamais devenir un dogme. Elle doit rester un outil au service des usages, des intentions et des valeurs.

      En conclusion : agir avec raison dans l’incertain

      Les trois voix se rejoignent dans leurs convictions finales. Laurence Devillers cite Pascal : agir avec raison dans l’incertain. Machines et humains peuvent se tromper. D’où la nécessité de cultiver l’esprit critique. Benoît Bergeret interroge la délégation cognitive et l’émergence d’un nouveau clergé algorithmique. Marie Guillemot rappelle la puissance de l’authenticité, de la relation humaine, du lien de confiance comme source de créativité et de questionnement.

      La superintelligence, souvent présentée par des penseurs comme Nick Bostrom comme un scénario de rupture scientifique majeur, n’est peut‑être au fond qu’un miroir. Elle révèle moins ce que les machines pourraient devenir que ce que nous risquons de cesser d’être. L’enjeu n’est pas de déléguer notre intelligence aux machines, mais de renforcer la nôtre, individuellement et collectivement.

      Pour approfondir cette thématique, écoutez l’intégralité de l'épisode, et découvrez tous les épisode du podcast "Futurs + Humains" : le podcast de l’innovation positive.


      Contact :

      Albane Liger-Belair

      Directrice Associée, Innovation

      KPMG en France


      Dans la même thématique

      podcasts PODCAST

      Le podcast de l’innovation positive: l' IA comparable à l’intelligence humaine? Quelles relations pour innovation et progrès, hybrider les intelligences ?

      notes ARTICLE - PODCAST

      Esprits créatifs et curieux qui associent la puissance de l’IA à l’ingéniosité humaine.

      notes ARTICLE - PODCAST

      Quand l’IA rencontre l’urgence environnementale.

      Restez informés des dernières actualités de KPMG en vous abonnant dès maintenant à nos communications personnalisées.

      KPMG. Make the Difference.