Pourquoi maintenant?

L’année 2022 tirait à sa fin lorsque l’intelligence artificielle (IA) générative a suscité l’engouement à l’échelle mondiale. En 2023, nous avons assisté à la prolifération de logiciels qui promettaient d’améliorer les nombreuses facettes de notre quotidien. Maintenant que les entreprises développent et adoptent l’IA à grande vitesse, le secteur de l’enseignement supérieur occupe une place de choix pour guider les instances dans la transformation imminente de nos méthodes de travail. Et si les universités forment la nouvelle génération de décisionnaires et de scientifiques, l’IA générative pourrait quant à elle transformer radicalement leur façon de vivre, d’apprendre et de collaborer.

Les étudiantes et les étudiants savent que leur future carrière reposera de plus en plus sur la collaboration entre partenaires humains et artificiels, et veulent acquérir et maîtriser des connaissances sur les technologies utiles dans leur champ d’études. D’ailleurs, le Répertoire sur l’adoption de l’IA générative de KPMG au Canada montre qu’en six mois, le nombre de personnes au Canada ayant déclaré utiliser l’IA générative au travail a augmenté de 16 %, ce qui représente un taux de croissance annualisé de 32 %. Parmi les personnes interrogées, pas moins de 90 % ont affirmé que l’IA générative avait amélioré la qualité de leur travail. KPMG a aussi mené un sondage auprès d’étudiantes et d’étudiants de 18 ans ou plus : 52 % utilisaient déjà l’IA générative dans le cadre de leurs études et 87 % trouvaient que cela avait amélioré la qualité de leur travail.

Les données du Répertoire sur l’adoption de l’IA générative au Canada indiquent clairement que cette technologie est promise à un bel avenir. Les modèles d’IA améliorent de nombreux produits et services numériques dont nous dépendons, tandis que les grands acteurs se lancent dans une course à de nouvelles offres axées sur la valeur. Au sein de l’enseignement supérieur, on voit des applications possibles de l’IA générative en enseignement et apprentissage, en recherche, et dans les principaux services, comme les ressources humaines, les finances, les technologies de l’information et les services administratifs. Mais pendant qu’une vague d’applications déferle sur les entreprises et les universités, de grandes interrogations quant au rôle fondamental des humains et des robots mènent à des questions d’ordre philosophique sur l’avenir collectif.

Aussi, devant l’arrivée de ces nouveaux outils, de nombreux établissements, dont l’Université de la Colombie-Britannique, appuient des expérimentations avec précaution.

Tout le monde explore ce nouveau domaine ensemble, alors l’accompagnement, le soutien, l’expérimentation et la réflexion sont incontournables.

Simon Bates, vice-recteur et
vice-président adjoint, enseignement et apprentissage,
Université de la Colombie-Britannique

De plus, des processus permettant de saisir les cas d’utilisation potentiels sont nécessaires, afin de s’assurer que des protections adéquates sont en place, et que des mécanismes de développement d’outils adaptés en facilitent l’utilisation.

Relever les défis actuels posés par l’IA

Alors que les outils d’IA continuent de perturber le monde de l’enseignement supérieur, les conséquences présumées de leur utilisation passent de la fiction à la réalité. Les facultés mesurent l’effet que ces outils auront sur le cursus et la manière d’enseigner; l’optimisme quant aux possibilités offertes par ces technologies est nuancé en raison de certaines limites et difficultés grandement médiatisées (les biais, la transparence, la confidentialité et la protection des données). Selon Jennifer Burns, la directrice des systèmes d’information de l’Université de la Colombie-Britannique, une autre préoccupation majeure dans le milieu universitaire est de protéger les données et les renseignements personnels des étudiantes et des étudiants.

« En Colombie-Britannique, lorsqu’une étudiante ou un étudiant doit utiliser une plateforme grand public qui l’identifie, elle ou il doit s’assurer de la présence d’une option d’exclusion ou d’anonymisation », explique-t-elle. Elle soulève aussi un enjeu entourant la conservation des données d’entraînement.

En effet, les données utilisées pour entraîner les algorithmes mettent en évidence le besoin de contrôles diligents rigoureux dans les processus d’approvisionnement et d’attribution de contrats.

Adopter une saine gouvernance : l’IA de confiance de KPMG

Bien que l’intelligence artificielle soit extrêmement puissante, elle reste dépourvue de jugement. D’où l’importance de garder un humain dans le circuit en phase d’expérimentation, et de le tenir responsable de l’utilisation – ou de la non-utilisation – de ce qui ressort de l’IA. La communauté universitaire dans son ensemble, y compris la clientèle étudiante, doit se doter des compétences nécessaires pour faire cause commune.

Circular diagram showing KPMG's 8 core principals for trusted AI across the AI/machine learning journey.

KPMG suit un cadre de référence en vue de guider le développement interne et externe de l’IA. Ce cadre comprend 10 grands axes éthiques correspondant aux jalons critiques de la feuille de route des organisations. Ce cadre s’articule autour de trois principes fondamentaux : l’IA doit être axée sur les valeurs, centrée sur l’humain et digne de confiance.

Notre cadre fait appel à une approche multidisciplinaire de l’utilisation éthique et responsable de l’intelligence artificielle. Aux compétences techniques s’ajoutent des compétences en éthique, en philosophie, en sociologie et en durabilité, ce qui permet d’évaluer les tenants et aboutissants de l’IA sous différents angles. Compte tenu de l’éventail d’expertises qu’offrent les facultés, les établissements d’enseignement supérieur sont particulièrement bien placés pour favoriser une approche multidisciplinaire qui pourra contribuer positivement aux stratégies de gouvernance de façon générale.

Comprendre la nature cyclique de l’innovation : regarder le passé pour envisager l’avenir de l’IA

Certes, les avancées rapides de l’IA bouleversent la société, mais nous n’en sommes pas à nos premiers bouleversements. Au cours de l’histoire, les percées technologiques nous ont forcés à nous arrêter pour mieux réfléchir aux implications et aux risques qu’elles comportaient.

Dans les années 1990, la démocratisation d’Internet et des ordinateurs portables a perturbé et transformé l’univers de l’enseignement supérieur. Mais ce n’était pas la fin des enseignants pour autant, comme certains l’annonçaient. Au contraire, les professeurs se sont adaptés, ont saisi les occasions et ont surmonté les défis, en faisant de leur mieux. Dans le domaine des technologies de l’éducation, le temps cyclique l’emporte sur le temps linéaire.

Simon Bates, vice-recteur et
vice-président adjoint, enseignement et apprentissage,
Université de la Colombie-Britannique

Le discours actuel entourant l’IA de confiance soulève des questions importantes : pourquoi n’avons-nous pas réfléchi plus tôt et collectivement aux implications des données et de la technologie (biais, notion de responsabilité)? Les principes d’une IA de confiance, du point de vue technique et humain, trouvent écho dans toutes les organisations et les sphères technologiques, sans égard à leur état d’avancement sur le chemin de la transformation numérique.

Avec la déferlante de l’IA qui nous assaille de toutes parts, il peut être difficile de prévoir la prochaine étape, de savoir sur quoi se concentrer et ce qu’il faut faire. Si votre organisation ne dispose pas d’un plan d’action détaillé pour la gouvernance des données, c’est le temps d’agir.

La directrice des systèmes d’information de l’Université de la Colombie-Britannique, Jennifer Burns, croit qu’à l’ère de l’IA, notre réflexion doit aller au-delà de la gouvernance des données pour englober d’autres types de gouvernances propres aux technologies de l’information.

L’astuce consiste à adapter la gouvernance pour être en mesure de réagir à la vitesse du changement. Une bonne stratégie de gouvernance est indépendante de la technologie, ce qui permet à de nouvelles évolutions technologiques d’émerger et d’être évaluées avec la même rigueur. Cela englobe les initiatives critiques de gouvernance informatique qui existent déjà : évaluation des répercussions sur la confidentialité, évaluation de la sécurité informatique, révision de l’architecture, planification des ressources.

Jennifer Burns
Directrice des systèmes d’information,
Université de la Colombie-Britannique

Ces mécanismes s’appliquent directement à une approche de développement durable de l’IA, déjà adoptée par la plupart des organisations. Celles qui se démarquent ont des structures de gouvernance en place et la capacité humaine collective à réagir à la vitesse du changement. Grâce à l’établissement d’une base solide pour la gouvernance dans son ensemble, les organisations pourront passer en douceur de l’évaluation au déploiement.

Le présent article a été corédigé par C.J. James, leader nationale, Éducation, KPMG au Canada, Jameel Ahamed, associé, Stratégie technologique et transformation numérique, KPMG au Canada, et Aya Ladki, directrice, Centre Ignition, KPMG au Canada.

Restez à l’affût de notre prochaine publication sur l’IA de confiance en enseignement supérieur.

Communiquez avec nous

Tenez-vous au courant de sujets qui vous intéressent.

Inscrivez-vous aujourd’hui pour avoir accès à du contenu personnalisé en fonction de vos intérêts.

Communiquez avec nous