• 1000
Laurent Bibard, responsable de la filière Management & Philosophie à l’Essec et auteur d’ouvrages dont L’intelligence artificielle n’est pas une question technologique

Découvrez l’interview de Laurent Bibard, responsable de la filière Management & Philosophie à l’Essec et auteur d’ouvrages dont L’intelligence artificielle n’est pas une question technologique, écrit avec Nicolas Sabouret (Éditions de l’Aube, 2023).


Vous venez de publier un ouvrage sur les dangers des usages de l’IA. En quoi résonne-t-il avec le titre donné à une des tendances du Book 2024 : « reprendre la main » ?

Laurent Bibard : Reprendre la main, c’est se retourner vers notre part d’humanité et s’interroger sur ce que nous voulons en termes de développement de telles technologies. Cela me paraît nécessaire, car nous nous laissons trop souvent déborder par notre naïveté et notre désir de puissance à leur égard. En disant cela, je ne m’inscris pas en opposition avec l’IA ni avec les autres avancées techniques dont nous pouvons bénéficier. Ces technologies nous sont indispensables car en tant qu’humains, nous naissons avec une mémoire biologique bien plus pauvre que celle des animaux, qui portent sur eux leurs outils et leurs armes. Notre adaptation à l’environnement requiert de la technique et donc des technologies. Le problème qui se pose est celui de leurs usages.

Vous réfutez d’ailleurs le terme d’intelligence artificielle, qui est pour vous impropre et porte en lui certaines dérives de nos usages. Pour quelles raisons ?

L. B. : Il ne s’agit en effet pas d’intelligence, mais de puissance de calcul. Notre intelligence repose sur un socle émotionnel, celui de la tension constitutive entre notre désir d’infini et la réalité de notre finitude. L’IA est localement exacte mais dès qu’il s’agit d’usages simultanés de la vie courante – donc de l’expression de notre être au monde global –, sa puissance de calcul atteint ses limites puisqu’elle ne sait pas faire plusieurs choses hétérogènes à la fois (comme faire le café et étendre le linge). Qui plus est, les traitements de données de nos comportements ne reposent que sur l’existant, autrement dit sur les données de nos actions et de nos choix passés. Cela restreint la vision de nous-mêmes, qui sommes continuellement constitués d’élans vers l’inconnu. Cela peut déboucher sur des erreurs et des biais qu’il faut impérativement savoir prévenir « Les cadres de réflexion qui se constituent autour des usages de l’IA vont dans le bon sens. »

Qu’est-ce que cela implique en termes d’encadrement des usages associés ?

L. B. : L’enjeu central est bien évidemment l’éducation. Autrement dit, un apprentissage qui se fasse tout au long de la vie, et qui ne repose pas seulement sur la maîtrise technique de ces technologies mais aussi sur une réflexion autour des finalités à leur donner. Les récentes crises sanitaires et climatiques nous conduisent à poser plus fortement la question du sens de tout ce que nous entreprenons. C’est dans cette perspective que doit s’inscrire l’éducation à ces technologies.

Différentes structures et groupes de réflexion se montent dans des entreprises sur ces questions. Quel intérêt le philosophe que vous êtes y voit-il ?

L. B. : De tels cadres de réflexion vont dans le bon sens, même si je suis prudent sur le terme d’IA responsable qui y est souvent associé. Je le répète : l’IA n’est responsable de rien, c’est à nous de nous poser la question de cette responsabilité et de nos usages. Je suis assez optimiste sur la capacité à faire évoluer ces usages. En tant qu’enseignant, je collabore aux programmes d’Executive MBA de l’Essec. Les dirigeants que je voyais il y a encore quatre ans étaient souvent indifférents aux questions de responsabilité numérique ou écologique. Ce n’est plus le cas maintenant.


Ces contenus pourraient vous intéresser


Aller plus loin