L'intelligence artificielle (IA) est partout autour de nous.
Les algorithmes d'IA sont largement utilisés dans tous les secteurs et de multiples façons, qu'il s'agisse de diagnostics médicaux, de gestion du trafic, de modélisation du changement climatique, de prédiction des tendances boursières, de détection des fraudes ou, ce qui peut en inquiéter certains, d'identification des personnes par reconnaissance faciale.
On a également recours à l'IA pour analyser les données et définir les modèles sous-jacents, améliorer la planification et l'optimisation, renforcer la saisie et l'extraction des connaissances, automatiser les processus administratifs et analyser les images ou les vidéos. Au niveau des entreprises, l'IA favorise le développement de nouveaux produits, permet de renouveler l'expérience client et modifie la nature même du travail. Mais lorsqu'il s'agit d'utiliser l'IA au sein du gouvernement, il est essentiel de trouver un équilibre entre l'innovation et l'utilisation éthique et responsable des technologies émergentes.
La pandémie accélère l'adoption de l'IA dans le monde, mais le rythme du changement exige que nous ne perdions pas de vue ses applications éthiques.
Dans aucune industrie, l'utilisation éthique de l'IA n'est plus vitale que dans le secteur de la défense qui doit traiter un volume colossal de données provenant de multiples sources et domaines, et prendre des décisions rapides et efficaces.
Dans ce domaine, l'intelligence artificielle – soutenue par le personnel militaire et divers matériels tels que les systèmes d'armes autonomes (SAA) – permet d'accélérer la prise de décision du commandement, de contrer les menaces et de protéger la sécurité nationale. Mais il ne fait aucun doute que l'IA est aussi en train de remodeler les opérations sur le terrain et de redéfinir la nature même de la guerre, et pourrait même modifier l'équilibre des forces dans les conflits internationaux. Les enjeux sont élevés et les risques, énormes.
En plus d'intégrer et de refléter nos valeurs démocratiques, conformément aux principes des Nations unies et de l'OCDE1, l'IA doit être déployée de manière responsable tant dans les fonctions de combat que dans les autres opérations. La façon dont l'IA est exploitée est importante. La confiance est indispensable.
L'IA doit aussi être responsable, équitable, traçable, fiable et conforme aux règles de gouvernance2. Bien que la formulation diffère, ces principes fondamentaux, qui émanent du Defense Innovation Board des États-Unis, rejoignent les principes directeurs énoncés par le gouvernement du Canada.3
D'autres défis et facteurs entrent en ligne de compte. Comment trouver le juste équilibre concernant le financement et le partage essentiel des données entre les secteurs public et privé? Comment assurer un partage et un stockage sécuritaires des ensembles de données qui servent à l'analyse de l'ennemi entre les pays membres de l'OTAN? Et comment, en Occident, rivaliser avec les régimes autoritaires qui n'adhèrent pas au développement et à l'utilisation éthiques de l'IA?
L'utilisation responsable de l'IA exige des mesures concrètes. Dans le secteur privé, nous aidons les entreprises à orienter leurs activités d'IA vers un objectif vital axé sur l'éthique organisationnelle et civile. Les cinq éléments phares élaborés à leur intention s'appliquent également au secteur de la défense4 :
- Préparer les employés : Les progrès réalisés en analyse des données et en prise de décision automatisée ont fondamentalement modifié les rôles et les tâches. Les dirigeants doivent se préparer dès maintenant à gérer le changement à grande échelle. De nouvelles compétences sont nécessaires et les employés ont besoin d'aide pour s'adapter à l'intégration des machines dans leur travail. Une récente étude de KPMG, Thriving in an AI World, révèle que près de quatre leaders gouvernementaux américains sur cinq souhaiteraient un recours accru à l'IA et 71 % ont déclaré que leurs employés possédaient les compétences requises à cette fin.5
- Élaborer un cadre robuste de supervision et de gouvernance : Établir des politiques claires concernant le déploiement de l'IA, notamment l'utilisation des données, les normes de confidentialité et la gouvernance.
- Aligner la cybersécurité et l'IA éthique : Incorporer des mesures robustes de sécurité dès la création des algorithmes et du cadre de gouvernance des données (la sécurité et la gouvernance des données sont cruciales pour assurer l'intégrité globale du modèle) et établir un protocole hiérarchique clair afin de définir les responsabilités.
- Réduire la partialité : S'assurer que le but et l'utilité des algorithmes clés sont clairement définis et documentés. Les attributs qui entrent dans la composition des algorithmes doivent être pertinents et adaptés à l'objectif, et leur utilisation doit être autorisée. Chaque leader devrait adhérer au principe moral voulant qu'on réduise la partialité en régissant l'IA tout au long de son cycle de vie – ce qui signifie comprendre et être en mesure d'expliquer le contenu de la « boîte noire ».
- Créer des « contrats de confiance » : Signifier aux gens votre engagement à faire preuve de transparence et à leur communiquer l'impact que les décisions concernant leurs données personnelles peuvent avoir pour eux.
Le secteur de l'IA évolue constamment et il est peu réglementé.
D'importants travaux sont en cours au Canada et dans le monde entier concernant l'utilisation responsable de l'IA et la gouvernance des données.
Le Canada et la France ont codirigé la création du Partenariat mondial sur l'intelligence artificielle (PMIA) qui met en commun l'expertise de 15 pays (dont ceux qui forment le Groupe des cinq). Le Canada a récemment accueilli le sommet inaugural du PMIA, auquel ont participé des représentants des milieux scientifiques, industriels, gouvernementaux et universitaires, afin de favoriser l'innovation et de guider le développement et l'utilisation responsables de l'IA.6
Comme l'indique le Commandement du renseignement des Forces canadiennes (CFINTCOM), l'IA a le potentiel de transformer considérablement les activités de la Défense, mais, à l'heure actuelle, des obstacles techniques et culturels entravent ce potentiel. Pour gérer efficacement les répercussions éthiques de l'IA, le ministère de la Défense et les Forces armées canadiennes ont besoin d'un examen détaillé des effectifs, des processus et des systèmes.7
L'intégration de l'IA dans l'armée se fera de façon progressive, sans bouleversement. Ce qui est sûr, c'est qu'elle aura bel et bien lieu et que l'absence de contrôle dans ce domaine représente un risque que le monde ne peut se permettre.