L'adoption de l'intelligence artificielle (« IA ») en milieu de travail s'accentue à vue d'œil. Un sondage réalisé par KPMG au Canada en 2023 a montré que, aux États-Unis, 65 % des sociétés ont fréquemment recours à ChatGPT pour améliorer leurs activités. En comparaison, ce chiffre est de 37 % au Canada.1 Alors que les entreprises canadiennes rattrapent leur retard, les employeurs devront s'appuyer sur la planification préalable pour s'assurer d'être en conformité avec la loi. Le présent article aide à mieux cerner les principales conséquences et les considérations pertinentes pour les employeurs qui ont recours aux technologies d'IA en milieu de travail.

L'IA dans le processus d'embauche

L'IA générative, qui est capable de produire différentes formes de contenu original en réponse à des requêtes, révolutionne le paysage de l'embauche et du recrutement. L'emploi de la technologie dans le recrutement s'est longtemps limité aux sites d'emploi et aux systèmes de suivi des candidats. Aujourd'hui, l'IA aide les recruteurs à accéder à toute une série d'outils plus évolués et plus efficaces qui permettent aux employeurs d'entrer en relation avec des employés potentiels. Vous trouverez ci-dessous quelques-unes des utilisations notables de l'IA et des considérations clés concernant l'intégration de l'IA dans ces processus.

Accessibilité, utilisation et conséquences globales pour l'emploi

Aujourd'hui, la technologie de l'IA est partout et relativement facile à utiliser. Ces derniers mois, l'IA s'est généralisée avec l'investissement de nombreuses sociétés et entreprises en démarrage dans la création d'un écosystème de l'IA en code source libre. Le code source libre désigne un logiciel facilement accessible au public qui permet aux utilisateurs de modifier le code et qui est généralement gratuit ou peu coûteux, alors que le code source fermé se limite à un public restreint et est généralement coûteux.2 Par conséquent, dans un environnement en code source libre, l'utilisation des outils d'IA, tels que ChatGPT et d'autres robots conversationnels, pour générer des résultats pratiques et créatifs est à la portée de chacun, quelles que soient ses qualifications. Cette démocratisation des outils d'IA a accéléré les progrès technologiques en peu de temps. L'adoption rapide de l'IA est un phénomène sans précédent. En effet, ChatGPT 3.5 comptait déjà plus d'un million d'utilisateurs cinq jours après son lancement par OpenAI.3

Les capacités de l'IA générative s'étendent à différents rôles et secteurs d'activité. Selon des études menées par OpenAI, l'IA générative est en mesure de s'intégrer aux flux des travaux d'environ 80 % des emplois.4 Le vaste champ d'application de l'IA constitue un tournant majeur dans la gestion des talents et des emplois, et s'étend au-delà des méthodes traditionnelles.

Repenser le recrutement et accélérer l'intégration

L'IA a transformé le processus de recrutement, principalement de deux manières : en améliorant les descriptions de poste et la personnalisation du recrutement. L'IA générative aide les gestionnaires à rédiger des exigences de poste précises en déterminant les compétences essentielles. Le contrôle humain est toutefois encore nécessaire. En outre, l'IA renforce l'engagement des candidats grâce à la personnalisation des communications selon le profil des candidats, ce qui peut simplifier le processus de recrutement dans les grandes organisations.

De plus, l'IA générative peut accélérer l'intégration en offrant aux nouveaux employés un accès instantané aux connaissances institutionnelles d'une organisation. Aux fins des évaluations de rendement, elle peut contribuer à la rédaction des évaluations en synthétisant des données provenant de différentes sources. Elle s'appuie toutefois sur une saisie de données uniformes par les gestionnaires, ce qui permet de créer des évaluations de rendement exhaustives et de favoriser des conversations de rétroaction constructives.

À l'échelle mondiale, l'IA facilite la transition des titres de compétences traditionnels aux évaluations fondées sur les compétences. En identifiant les données non structurées, l'IA peut repérer les candidats ayant une expérience et des compétences pertinentes, même s'ils ne possèdent pas de diplômes officiels. De nouvelles perspectives s'offrent ainsi aux personnes dotées d'une expérience pratique acquise sur le terrain, ce qui contribue à rendre le processus d'embauche plus inclusif.

L'IA dans la sélection des candidats et la rédaction des contrats de travail

Outre le recrutement et l'intégration, l'IA s'insère de plus en plus dans la présélection des candidats et la rédaction des contrats de travail.

En effet, les outils de sélection ayant recours à l'IA sont de plus en plus répandus dans le processus d'embauche. Ces outils permettent de passer efficacement au crible un grand nombre de candidatures et de trouver les candidats les plus qualifiés en fonction de critères prédéfinis. Le recours à l'IA dans la rédaction des contrats de travail constitue également une nouveauté d'envergure. L'IA permet de simplifier le processus de rédaction de contrats, en assurant l'uniformité et en réduisant le temps nécessaire aux professionnels du droit pour rédiger les documents.

Risques et dangers de l'IA dans le cadre de l'embauche

Le recours à l'IA dans le processus d'embauche comporte son lot de risques. Les « hallucinations » sont une préoccupation majeure. Il s'agit des cas dans lesquels l'IA peut donner des résultats qui semblent logiques, mais qui sont factuellement incorrects.5 Un autre problème est la possible perte de créativité. Par exemple, si un journaliste se sert de l'IA pour publier un plus grand nombre d'articles, il consacrera involontairement moins de temps à la pensée créative, à laquelle il s'adonne le plus souvent lors des périodes moins occupées.

Bien que l'IA soit un outil de recrutement efficace pour certains rôles bien définis pour lesquels il existe un vaste bassin de talents, elle a plus de difficulté avec les nouveaux emplois ou les emplois considérablement modifiés. La validation des critères relatifs aux nouveaux rôles nécessite des données détaillées qui sont souvent difficiles à recueillir sans risquer que les outils d'IA portent atteinte aux renseignements personnels. Cela dit, il est essentiel de s'assurer que les algorithmes d'IA sont entraînés à partir d'ensembles de données diversifiés et représentatifs pour éviter de perpétuer les partis pris existants.

Il est également important de garder à l'esprit que certains cadres réglementaires, en particulier dans l'Union européenne, exigent un contrôle humain dans les domaines à haut risque, tels que l'emploi, afin de garantir la transparence et l'équité.6 À ce titre, si l'IA peut améliorer le processus de recrutement, l'exercice du jugement humain demeure nécessaire pour atténuer les risques associés à cette technologie balbutiante.

Dans le domaine juridique en particulier, le recours aux contrats générés par l'IA doit être contrebalancé par un examen approfondi réalisé par des avocats qualifiés. Comme nous le verrons plus loin, c'est là un élément crucial pour assurer la conformité juridique et la prise en compte des nuances contractuelles particulières.

Considérations d'ordre juridique et directives à l'intention des professionnels du droit

L'intégration de l'IA dans les processus juridiques a entraîné d'importants bouleversements dans les normes professionnelles en matière de déontologie. À titre d'exemple, en Colombie-Britannique, une avocate s'est vu infliger des pénalités, car elle avait utilisé des cas fictifs générés par l'IA dans des documents juridiques.7 L'avocate ne l'a pas fait dans l'intention de tromper, mais cet incident a mis en évidence le fait que les professionnels du droit devaient se doter de compétences technologiques. Par conséquent, plusieurs codes de déontologie provinciaux exigent maintenant que les compétences technologiques soit la norme pour les cabinets juridiques qualifiés.

Le Barreau de l'Ontario a récemment publié un livre blanc contenant des directives sur l'utilisation de l'IA générative à l'intention de ses membres.8 Ce document souligne l'importance de comprendre les risques associés à l'IA tels que les inexactitudes potentielles et les considérations éthiques. Les professionnels du droit doivent demeurer informés et instruits au sujet de ces risques afin de préserver l'intégrité du système juridique tout en adoptant les nouvelles technologies.

Par ailleurs, l'IA est déjà bien présente dans le domaine de l'arbitrage. Elle est notamment utilisée afin de produire des éléments de preuve, comme les évaluations de rendement générées par l'IA dans le cadre des décisions disciplinaires à l'égard des employés, et les arbitres s'appuient sur l'IA pour la prise de décisions.9 Toutefois, de nombreux risques associés à ces avancées demeurent en suspens.

En particulier, l'exactitude et la fiabilité des éléments de preuve, qui sont primordiales dans le cadre de l'arbitrage, peuvent être remises en question si elles sont le fruit de l'IA. L'une ou l'autre des parties peut très bien tenter de s'opposer à l'exécution d'une sentence au motif que l'utilisation de l'IA par la partie adverse ne devrait pas être autorisée. La question des preuves numériques contrefaites, comme les images générées par l'IA, présente également des difficultés particulières en arbitrage. Les avocats devront peut-être bientôt fournir des déclarations d'authenticité à l'égard des pièces.10

Préoccupations relatives à la vie privée, aux données et aux droits de la personne

L'intégration de l'IA générative en milieu de travail suscite également de vives inquiétudes au regard de la vie privée, de la sécurité des données et des droits de la personne. Ces questions nécessitent que les employeurs accordent une attention particulière et appliquent des mesures proactives pour atténuer les risques et respecter les normes de déontologie.

Confidentialité des données et propriété intellectuelle

Premièrement, les modèles d'IA générative peuvent divulguer par inadvertance des renseignements sensibles provenant des données des utilisateurs. Les employés qui ont recours à ces outils d'IA risquent de contrevenir aux lois sur la protection des renseignements personnels et aux obligations en matière de confidentialité s'ils entrent des renseignements confidentiels ou personnels dans l'outil. Des données sensibles pourraient alors être divulguées de façon involontaire dans les réponses données aux autres utilisateurs. De même, les employeurs risquent de violer les droits à la vie privée de certaines personnes ou la propriété intellectuelle d'autres organisations lorsqu'ils utilisent les résultats générés par l'IA.

Pour atténuer ce risque, les employeurs devraient examiner les politiques en matière de confidentialité et les pratiques en matière de données des développeurs d'IA générative afin de s'assurer de leur conformité aux lois applicables, et entreprendre des évaluations des facteurs relatifs à la vie privée avant de mettre en œuvre des outils d'IA dans leur milieu de travail. Dans certaines organisations, comme le secteur public fédéral du Canada, ces évaluations sont obligatoires, car elles jouent un rôle important dans l'évaluation des conséquences potentielles de l'IA sur les citoyens, tout en assurant la transparence des algorithmes.

Résultats biaisés

Deuxièmement, l'IA générative peut produire des résultats biaisés qui ont des répercussions néfastes sur les citoyens et qui constituent des motifs interdits en vertu des lois sur les droits de la personne, comme la Loi canadienne sur les droits de la personne ou la Charte canadienne des droits et libertés. Cette situation peut être particulièrement problématique dans le cadre du service à la clientèle, des médias sociaux, du marketing, des évaluations de rendement des employés et de la sélection des candidats au cours des processus d'embauche.

Parmi les stratégies d'atténuation, mentionnons l'examen des résultats de l'IA destinés au public afin d'éviter les résultats biaisés, ou la restriction de l'utilisation de l'IA aux cas d'utilisation à faible risque, dans lesquels le processus décisionnel est transparent et explicable. Le recours à l'IA générative dans le cadre des prises de décisions importantes devrait être réduit au minimum, à moins que ses résultats puissent être parfaitement compris et justifiés. Les autres stratégies spécifiques que les employeurs peuvent mettre en œuvre pour éviter une dépendance excessive à l'IA sont l'exigence selon laquelle les employés qui utilisent l'IA générative fournissent une explication des résultats, la verbalisation des expressions d'incertitude à la première personne en plus des résultats générés, et le fait de poser des questions à l'aide de requêtes pour favoriser la pensée critique.11

Complexité liée aux enquêtes en milieu de travail

Troisièmement, la capacité de l'IA générative à créer des imitations convaincantes à l'aide de la technologie de l'hypertrucage présente des risques pour les enquêtes en milieu de travail. Cette technologie peut être utilisée à mauvais escient pour fabriquer des preuves et ainsi compliquer le processus d'enquête. Par exemple, les preuves électroniques soumises par un employé pour appuyer ses allégations, comme les captures d'écran, pourraient aisément être falsifiées à l'aide de l'IA.12

Par conséquent, en milieu de travail, les enquêteurs devraient être formés de façon à détecter et à atténuer le risque d'utilisation abusive de l'IA générative. La mise en œuvre de techniques et de protocoles de détection pour repérer et gérer les contenus issus de l'hypertrucage peut contribuer à préserver l'intégrité des enquêtes en milieu de travail. Par exemple, donner à l'accusé l'occasion de répondre aux allégations, examiner d'autres sources d'information pour vérifier les allégations et avoir recours à la vérification en direct des preuves électroniques pour confirmer la crédibilité d'une personne sont autant de mesures clés que les enquêteurs en milieu de travail devraient prendre pour renforcer les conclusions fondées sur l'IA.

Risques liés à la cybersécurité

Enfin, l'IA générative relève le niveau de sophistication de l'hameçonnage, des offensives de logiciels malveillants et des techniques d'ingénierie sociale. Lorsqu'elle est utilisée pour usurper des identités de manière convaincante, elle peut entraîner des atteintes à la cybersécurité plus efficaces et plus fréquentes.

Les employeurs qui cherchent à atténuer ce risque devraient mettre en place des politiques et des protocoles permettant de vérifier l'identité des individus dans le cadre des communications virtuelles, ce qui réduit le risque d'attaques d'ingénierie sociale. Des formations fréquentes sur les contrôles de cybersécurité et la sensibilisation à la cybersécurité devraient également être données aux employés pour les aider à détecter les cybermenaces sophistiquées et à savoir comment réagir.

Préoccupations liées au remplacement des employés

L'IA générative est capable d'accomplir des tâches rapidement et efficacement, souvent avec une qualité équivalente ou supérieure à celle du travail humain. La perspective d'une augmentation de productivité cumulée à une baisse des coûts rend donc l'IA attrayante aux yeux des employeurs. Toutefois, puisque sa mise en œuvre peut fragiliser la sécurité de l'emploi et les conditions de travail, il convient de garder à l'esprit certaines considérations juridiques tant pour les milieux de travail syndiqués que non syndiqués.

Milieux de travail non syndiqués

Dans les milieux non syndiqués, les conséquences juridiques de l'utilisation de l'IA générative à des fins de remplacement des employés sont régies par les considérations habituelles liées à la cessation d'emploi. Les employeurs doivent s'assurer que les employés remplacés reçoivent les droits appropriés prévus par la loi, les contrats et la common law.

  1. Considérations relatives à la cessation d'emploi : Les employeurs prennent les décisions de cessation d'emploi de bonne foi, sans recourir à des pratiques arbitraires ou discriminatoires. Il faut veiller en particulier à éviter la discrimination fondée sur l'âge et le préjugé selon lequel les employés plus âgés ne peuvent pas (apprendre à) utiliser l'IA générative.
  2. Risques de congédiement déguisé : Si l'IA générative bouleverse les tâches et les responsabilités liées à l'emploi, elle peut donner lieu à des allégations de congédiement déguisé, une situation dans laquelle un employeur change unilatéralement les conditions d'emploi fondamentales. Les employeurs qui font preuve de prudence devraient prévoir des dispositions contractuelles en vertu desquelles des changements unilatéraux dans les tâches liées à l'emploi sont autorisés, et donner un préavis raisonnable à tout changement contractuel afin d'atténuer le risque de congédiement déguisé.

Milieux de travail syndiqués

Dans les milieux syndiqués, les employeurs peuvent généralement modifier les tâches liées à l'emploi en vertu de leurs responsabilités de gestion, sous réserve du libellé de la convention collective et de toute loi applicable. Néanmoins, ils sont souvent tenus d'entamer des discussions avec les syndicats et d'émettre un préavis avant d'introduire toute modification liée à l'IA qui pourrait avoir une incidence sur les conditions d'emploi.

  1. Restrictions relatives aux conventions collectives : Les employeurs pourraient être confrontés à des restrictions quant au recours aux employés ou aux travailleurs indépendants non liés aux négociations et formés à l'IA générative pour exécuter des tâches traditionnellement effectuées par des employés syndiqués, car cela pourrait être considéré comme de l'impartition ou de la sous-traitance.
  2. Dispositions relatives aux changements technologiques : Les conventions collectives obligent souvent les employeurs à consulter les syndicats et à les aviser avant de mettre en œuvre des changements technologiques qui ont une incidence sur la sécurité d'emploi ou les conditions de travail. Les employeurs pourraient également être tenus de payer des primes au moment de la cessation d'emploi des employés affectés par ces changements.
  3. Exigences légales : Le Code canadien du travail et d'autres lois du travail exigent que les changements technologiques de nature à influer sur les conditions et la sécurité d'emploi fassent l'objet d'un avis.13 La question de savoir si ces exigences s'appliquent à l'IA générative dépend de facteurs tels que la définition des changements technologiques apportés et leurs répercussions sur les employés.

Considérations générales et pratiques exemplaires

En ce qui concerne les pratiques exemplaires, les employeurs devraient mettre à jour les contrats, les politiques et les procédures afin de tenir compte des questions liées à l'IA en milieu de travail, y compris les droits de la personne, la vie privée et les obligations contractuelles. Ils devraient également veiller à donner aux employés la formation et le soutien nécessaires en lien avec l'utilisation des technologies d'IA à mesure qu'elles sont déployées au sein de l'organisation. Enfin, pour éviter d'enfreindre les lois fédérales et provinciales sur l'emploi et le travail, les employeurs devraient mettre en place des garde-fous lors de l'introduction de l'IA.

Mises à jour sur la législation relative à l'IA

Alors que la technologie d'IA évolue et s'intègre rapidement dans différents secteurs, les cadres législatifs évoluent de façon à tenir compte des enjeux et des implications spécifiques de ces avancées. Il est indispensable que les employeurs se tiennent au courant de ces mises à jour pour s'assurer d'être en conformité avec la loi et de s'adapter efficacement à l'évolution du cadre juridique.

Projet de loi C-27 : Loi sur la mise en œuvre de la Charte du numérique

Le projet de loi C-27, la première loi canadienne sur l'IA, vise à apporter des changements importants au cadre réglementaire canadien en matière de protection de la vie privée et d'IA en remplaçant certaines parties de la Loi sur la protection des renseignements personnels et les documents électroniques (« LPRPDE ») par la Loi sur la protection de la vie privée des consommateurs et en promulguant la Loi sur l'intelligence artificielle et les données.14 S'il est adopté, ce projet de loi comblera les lacunes existantes dans la loi et réglementera directement l'IA dans des secteurs particuliers.

Loi sur l'intelligence artificielle et les données

La Loi sur l'intelligence artificielle et les données, qui est actuellement à l'étude au Parlement du Canada dans le cadre du projet de loi C-27, vise à mettre en place une réglementation exhaustive pour les systèmes d'IA à incidence élevée.15 Le principal objectif de cette loi est de veiller à ce que la mise en œuvre des technologies de l'IA ne compromette pas la vie privée, l'équité et la transparence.

Le texte de loi initial prévoyait que des réglementations ultérieures définiraient les systèmes d'IA « à incidence élevée ». Ce manque de clarté a incité les parties prenantes à exiger du gouvernement du Canada qu'il donne des critères plus explicites, alors que les modifications proposées à la Loi sur l'intelligence artificielle et les données prévoient sept catégories de systèmes à incidence élevée. Il s'agit notamment des systèmes d'IA utilisés pour les décisions liées à l'emploi, comme le recrutement, l'embauche, la promotion et la cessation d'emploi. Comme nous l'avons mentionné, ces règlements visent à répondre à la préoccupation selon laquelle l'IA peut perpétuer les partis pris existants et avoir des répercussions sur des décisions cruciales en matière d'emploi.

Projet de loi 149 de l'Ontario : Loi de 2024 visant à œuvrer pour les travailleurs, quatre

Le projet de loi 149, qui a reçu la sanction royale le 21 mars 2024, instaure de nouvelles exigences en matière de transparence salariale et d'usage de l'IA dans les annonces de poste. L'une des principales dispositions oblige les employeurs à divulguer le recours à l'IA dans les annonces publiques de poste.16 L'objectif de cette mesure est de veiller à la transparence, de protéger la vie privée des travailleurs et d'empêcher les partis pris de la technologique d'exclure des candidats. Il convient toutefois de noter qu'il existe des critères spécifiques en vertu desquels l'obligation de divulgation peut ne pas s'appliquer. Ces critères seront définis dans des règlements futurs.

Le projet de loi 149 prévoit également la publication de règlements de clarification qui fourniront des directives détaillées quant aux critères de transparence salariale et de divulgation du recours à l'IA. Nous conseillons aux employeurs de se tenir informés des développements concernant ces règlements pour s'assurer d'être prêts lorsque ceux-ci entreront en vigueur. En attendant, ils devraient examiner de façon proactive les pratiques en matière d'annonces de poste et de présélection des candidats.

Quelles tâches l'IA peut-elle accomplir?

La technologie d'IA générative est sur le point de révolutionner la main-d'œuvre. Des études réalisées par OpenAI montrent qu'environ 80 % des emplois peuvent intégrer les capacités de l'IA dans leurs activités actuelles.17 KPMG a récemment effectué une analyse comparative de haut niveau qui décrit les forces de l'IA au regard de certaines capacités clés (voir la figure 1). Ces retombées considérables potentielles reposent sur une approche stratégique de la part des dirigeants pour moderniser les capacités des talents et gérer efficacement l'évolution de la main-d'œuvre.

Figure 1 : Présentation de KPMG s.r.l./S.E.N.C.R.L. « The emergence of a right-brain economy »

Capacité Humain AI générative Exemple comparatif
Capacités analytiques Excellente Bonne Analyser des données financières complexes à des fins de décision d'investissement.
Traitement du langage Excellente Bonne Prendre part à des conversations naturelles et comprendre le contexte.
Pensée critique Excellente Bonne Cerner et résoudre les problèmes dans le cadre d'un projet complexe.
Créativité et imagination Excellente Médiocre Peindre une œuvre qui suscrite des émotions.
Représentation spatiale Excellente Acceptable Composer avec une topographie complexe et inconnue.
Traitement des émotions Excellente Acceptable Détecter les indices émotionnels subtils dans une conversation.

Modernisation des capacités et gestion de la main-d'œuvre

Les dirigeants jouent effectivement un rôle essentiel dans la modernisation de leurs fonctions et dans la gestion de l'évolution de la main-d'œuvre découlant de l'intégration de l'IA. Étant donné que 80 % de la main-d'œuvre pourrait être touchée par l'IA, les dirigeants doivent orienter la transition pour s'assurer qu'elle profite tant à l'organisation qu'à ses employés.

En ce qui concerne les ressources humaines, l'IA offre aux services de RH la possibilité de mieux tirer parti des occasions pour un large segment de la main-d'œuvre. Elle peut aider les gestionnaires à améliorer leurs niveaux de performance en réduisant les tâches administratives et en fournissant des informations plus rapides et plus précises. Ce changement permet aux professionnels des RH de se concentrer sur les initiatives stratégiques et d'améliorer la productivité de l'ensemble de la main-d'œuvre.18

Risques liés aux domaines créatifs et incidences sur la conception du flux des travaux

Si l'IA est capable d'automatiser de nombreuses tâches, son utilisation dans les domaines créatifs présente un risque de baisse de créativité. Le recours aux contenus générés par l'IA pourrait entraîner une perte d'originalité et de singularité, ce qui nuirait à la qualité globale et à l'intérêt des résultats créatifs.

De plus, bien que l'intégration de l'IA offre une occasion de gestion du changement par une redéfinition des rôles, des flux des travaux et des modèles de collaboration, les organisations devraient analyser attentivement comment la technologie transforme la nature du travail. Ce faisant, elles devraient veiller à ce que tout gain de temps supplémentaire soit redirigé uniquement vers des activités à valeur ajoutée.

Conclusions et cas d'utilisation de KPMG

Bien que l'IA offre de nombreuses occasions d'augmenter la productivité et de rationaliser les activités, les employeurs doivent composer soigneusement avec les risques qui y sont associés et veiller à ce que l'intégration des technologies d'IA au sein de leur organisation permette de rehausser plutôt que de diminuer la qualité du travail et la satisfaction des employés.

Pour les employeurs qui sont à la recherche d'exemples précis de l'utilisation de l'IA en milieu de travail, KPMG propose un cas d'utilisation récent de l'IA pour stimuler la transformation au sein d'une organisation. À l'appui de ce point, le paragraphe suivant a été entièrement généré à l'aide de Kleo.

« KPMG Kleo est doté d'un robot conversationnel généralisé (alimenté par le GPT-4), ainsi que de robots conversationnels fonctionnels spécifiques aux fonctions RH, TI et Gestion des risques, qui ont été conçus pour aider les employés et leur direction sur le lieu de travail. Kleo offre une gamme de services tels que répondre aux questions sur les politiques de la société, fournir des informations sur les avantages du personnel et aider à effectuer des tâches liées aux RH. Pour les directeurs, Kleo peut fournir des renseignements sur le rendement de l'équipe, participer à la gestion des talents et contribuer à la prise de décisions. De plus, Kleo peut automatiser les tâches courantes, ce qui permet aux employés et aux directeurs de se concentrer sur des tâches plus complexes et plus stratégiques. Cela améliore non seulement l'efficacité, mais aussi la productivité globale de l'équipe. »

L'équipe Droit de l'emploi et du travail de KPMG cabinet juridique est prête à aider votre organisation à gérer la mise en œuvre des robots conversationnels d'IA dans votre milieu de travail. Communiquez avec nos avocats pour obtenir de plus amples renseignements sur nos services.

Nous remercions tout particulièrement Camille Arseneault pour sa contribution à cet article.


  1. « Adoption de l'IA : les États-Unis devancent le Canada », KPMG au Canada, 19 avril 2024.
  2. « Open Source vs Closed Source: What's the Difference? », Kinsta, 29 mai 2024.
  3. « Generative AI and the future of HR », Hancock, B. et al., McKinsey & Company, 5 juin 2023.
  4. Supra, note 3.
  5. « What are AI hallucinations », IBM, 29 mars 2023.
  6. « Entrée en vigueur du règlement sur l'IA », Direction générale de la communication, Commission européenne, 1er août 2024.
  7. « Court hits B.C. lawyer with costs over fake AI-generated cases, despite no intent to deceive », Little, S., Global News, 26 février 2024.
  8. « Licensee's use of generative artificial intelligence », Barreau de l'Ontario, 11 avril 2024.
  9. « Artificial intelligence and performance management », Varma, A. et al., Organizational Dynamics, 28 février 2024.
  10. « Judicial Errors: Fake Imaging and the Modern Law of Evidence », Alon, G. et al., UIC Review of Intellectual Property Law, 2022.
  11. « Appropriate reliance on GenAI: Research synthesis », Passi, S. et al., 21 mars 2024.
  12. « AI and Deepfakes Complicate Evidence in Workplace Investigations », Dill, J., Bloomberg Law, 27 février 2024.
  13. L.R.C. 1985, ch. L-2, par. 52.
  14. « Bill C-27: Canada's first artificial intelligence legislation has arrived », Medeiros, M. & Beatson, J., Norton Rose Fulbright, 23 juin 2022.
  15. « The Great Attrition is making hiring harder. Are you searching the right talent pools? », De Smet, A. et al., McKinsey & Company, 13 juillet 2022.
  16. « Ontario's Bill 149 proposes new requirements for pay transparency, use of AI in job postings and other changes », Silverman, J., Osler, 28 novembre 2023.
  17. Supra, note 3.
  18. Supra, note 1.

Communiquez avec nous

Tenez-vous au courant de sujets qui vous intéressent.

Inscrivez-vous aujourd’hui pour avoir accès à du contenu personnalisé en fonction de vos intérêts.

Communiquez avec nous