Auteurs(trice)
Associé, Droit du travail et de l’emploi, Toronto
Associé, Technologie, Toronto
Sociétaire, Droit du travail et de l'emploi, Toronto
Stagiaire en droit, Toronto
Les outils d’intelligence artificielle (IA) changent la façon dont les employeurs prennent leurs décisions et gèrent leur personnel. À mesure que l’IA s’intègre de plus en plus dans les activités quotidiennes des milieux de travail modernes (p. ex. recrutement, gestion du rendement et enquêtes en milieu de travail), les employeurs de l’Ontario doivent être conscients de leurs obligations légales, des pratiques exemplaires et des risques.
Dans le milieu de travail, ce qui rend l’IA unique, c’est qu’elle produit des résultats probabilistes sans révéler comment elle a tiré ses conclusions. Une telle imprévisibilité soulève des questions familières, mais sous des formes inhabituelles, notamment en ce qui concerne les préjugés, la confidentialité, l’équité et la responsabilité.
Dans ce contexte, l’Ontario a commencé à prendre des mesures progressives en vue de régir l’utilisation de l’IA en milieu de travail.
L’IA sous le régime de la LNE ontarienne
À l’heure actuelle, contrairement au fédéral et aux provinces de la Colombie-Britannique, de l’Alberta et du Québec, l’Ontario ne dispose d’aucune loi sur la protection des renseignements personnels dans le secteur privé. Toutefois, sa Loi de 2000 sur les normes d’emploi (LNE) comprend des exigences qui se rapportent ou pourraient se rapporter à l’utilisation de l’IA en milieu de travail :
- Les employeurs qui emploient 25 employés ou plus sont tenus à avoir en place une politique écrite sur la surveillance électronique des employés. Si l’employeur a recours à l’IA pour surveiller ses employés (ce qui peut inclure, entre autres, la surveillance de la productivité, du rendement, de l’assiduité, des communications ou de l’activité sur Internet), la politique doit contenir une description de la manière dont l’employeur effectue une telle surveillance, les circonstances dans lesquelles il peut le faire et les fins auxquelles il peut utiliser les renseignements obtenus. (Pour plus de détails, consultez le bulletin d’actualités Osler de novembre 2022, intitulé « Les exigences de la politique de surveillance électronique de l’Ontario sont maintenant en vigueur ».)
- À compter du 1er janvier 2026, les employeurs qui font une annonce publique de poste et ont recours à l’IA pour trier, évaluer ou sélectionner des candidats au poste devront inclure dans l’annonce une déclaration divulguant le recours à l’IA. (Pour plus de détails, consultez le billet de blogue de décembre 2024, intitulé « Loi de 2024 visant à œuvrer pour les travailleurs, quatre : obligation en matière de divulgation liée à l’“intelligence artificielle” »).
Ensemble, ces exigences indiquent que le cadre législatif ontarien en matière d’emploi commence à reconnaître et à régir les interactions pratiques entre l’IA et le milieu de travail, même en l’absence (ou en plus) d’une législation expresse sur l’IA ou la protection des renseignements personnels.
L’exactitude et l’équité sont importantes : un contrôle humain est recommandé
En common law, les employeurs ont envers leurs employés une obligation implicite d’agir de bonne foi, ce qui implique notamment de prendre des décisions en matière d’emploi qui reposent sur des renseignements exacts et complets. Ce qui change avec l’IA, ce n’est pas cette obligation en soi, mais la manière dont celle-ci peut être modifiée par l’utilisation de l’IA. À mesure que l’IA s’intègre dans les outils utilisés par les employeurs, le risque que ces systèmes déforment, omettent ou dénaturent les renseignements sur lesquels s’appuient les décideurs humains augmente. Les employeurs doivent donc être attentifs aux inexactitudes ou omissions qui peuvent découler de l’utilisation de l’IA afin de s’assurer d’utiliser cet outil de manière équitable en milieu de travail.
Par exemple, un employeur peut recourir à un outil d’IA pour l’aider à enregistrer, à résumer et à analyser un entretien avec un employé dans le cadre d’une enquête en milieu de travail. Les résultats de l’IA peuvent contenir des erreurs dues à une interprétation incorrecte de l’argot, du ton ou des expressions idiomatiques, ce qui peut donner lieu à des résumés inexacts ou trompeurs. En outre, les résultats de l’IA pourraient ne pas tenir compte de renseignements non verbaux pertinents, tels que le ton, les expressions faciales ou le comportement général de l’employé, qui peuvent tous être essentiels à l’évaluation du remords de l’employé à l’égard de sa faute ou de la crédibilité de son témoignage. Ces erreurs pourraient également nuire à l’équité ou réduire la valeur probante de ces résultats s’ils devaient être présentés comme éléments de preuve dans le cadre d’un procès. Pour ces raisons et d’autres encore, les résultats de l’IA doivent être examinés par un décideur humain informé (par exemple, dans l’exemple précédent, par l’enquêteur qui a mené l’entretien) avant d’être utilisés pour éclairer toute décision ou tout dossier en matière d’emploi.
Conformité aux politiques internes et aux obligations contractuelles
Les employeurs doivent s’assurer d’utiliser l’IA d’une manière conforme aux politiques internes existantes, aux contrats de travail et aux conventions collectives (le cas échéant). Dans le cas contraire, l’utilisation de l’IA pourrait être contestée, même si elle est par ailleurs conforme aux pratiques juridiques exemplaires recommandées.
Avant de mettre en œuvre des systèmes d’IA, les employeurs devraient examiner les documents précités afin de s’assurer que l’introduction ou l’utilisation de l’IA n’entre pas en conflit avec les droits, obligations ou processus existants, en particulier lorsque l’IA peut avoir une incidence sur la surveillance ou l’évaluation. Et avant de modifier leurs politiques, procédures ou clauses contractuelles existantes, les employeurs devraient discuter des risques liés à l’IA avec un conseiller juridique.
En particulier, les employeurs dont les employés sont syndiqués peuvent faire l’objet de griefs quant au caractère raisonnable de l’utilisation de l’IA en milieu de travail. Par exemple, si l’employeur introduit des outils d’IA pour surveiller la productivité ou évaluer le rendement des employés, les syndicats pourraient faire valoir que ces systèmes d’IA équivalent à une surveillance accrue, ce qui pourrait être considéré comme une atteinte au droit à la vie privée, d’autant plus que les sentences arbitrales rendues dans un contexte syndical ont donné lieu à une jurisprudence en faveur du droit à la vie privée des employés. L’employeur qui entend utiliser l’IA d’une manière qui pourrait porter atteinte au droit à la vie privée des employés devrait, avant son déploiement, consulter un conseiller juridique.
IA et droits de la personne
Les employeurs ne doivent pas utiliser l’IA d’une manière qui contrevient, directement ou indirectement, au Code des droits de la personne de l’Ontario.
L’efficacité des systèmes d’IA dépend de la qualité des ensembles de données avec lesquels on les entraîne, ce qui signifie que, tout au long de son entraînement, un système d’IA peut intégrer des biais ou de la discrimination de nombreuses façons, notamment si les ensembles de données sont incomplets ou contiennent des biais. Par exemple, un outil de sélection de CV pourrait favoriser involontairement les candidats dont le CV fait état de postes qui sont traditionnellement réservés à des personnes d’un sexe particulier ou appartenant à certain groupe démographique, ou un programme de tri des candidatures pourrait involontairement classer les candidats à un rang inférieur en raison de schémas linguistiques associés à un motif de discrimination interdit.
En novembre 2024, la Commission ontarienne des droits de la personne (la Commission) a publié l’Évaluation de l’impact de l’intelligence artificielle sur les droits de la personne (EIDP) [PDF]. Cadre pratique appuyé sur une série de questions, l’EIDP vise à aider les organisations à identifier, à évaluer et à atténuer les risques liés aux droits de la personne tout au long du cycle de vie d’un système d’IA. Il souligne que l’évaluation d’un système d’IA pour déterminer s’il donne lieu à des biais et à de la discrimination doit être intégrée dans toutes les étapes de la conception et de la mise en œuvre du système. En outre, l’EIDP souligne l’importance d’examiner les systèmes d’IA afin de détecter tout effet discriminatoire, même lorsque l’analyse semble neutre en soi. Les employeurs doivent faire preuve de prudence lorsqu’ils s’appuient sur des renseignements produits par l’IA et être attentifs à la possibilité que le système d’IA soit, en soi, biaisé. De plus, en intégrant des outils tels que l’EIDP dans ses processus d’achat et de gouvernance, l’employeur contribue à renforcer la confiance de ses employés et du public dans le fait qu’il utilise l’IA de manière responsable.
Autres pratiques exemplaires et points à retenir
Les risques liés au déploiement de l’IA en milieu de travail sont réels, mais gérables. Les employeurs peuvent réduire de manière significative les risques juridiques et réputationnels auxquels ils sont exposés en intégrant des pratiques responsables en matière d’IA dans leurs processus d’achat et de gouvernance et leurs activités quotidiennes, notamment en faisant ce qui suit :
- Commencer dès l’achat : Vous devez comprendre les outils d’IA que vous acquérez, notamment les données qu’ils utilisent, la manière dont ils génèrent des résultats et les mesures prises par les fournisseurs pour tester les biais, l’exactitude et la sécurité. L’étape de l’achat est la meilleure pour l’établissement des responsabilités de chacun et la définition des attentes en matière d’utilisation responsable de l’IA.
- Renforcer la gouvernance de l’IA : Le contrôle de l’IA ne doit pas incomber uniquement aux équipes informatiques ou juridiques. L’équipe des ressources humaines joue un rôle central dans la compréhension de l’impact des systèmes d’IA sur les employés, la confidentialité et l’équité. Elle doit participer à la prise des décisions touchant la gouvernance et les achats afin de garantir que les outils sont conformes aux valeurs de l’entreprise et à ses obligations en matière d’emploi.
- Adopter des contrôles : Vous devriez mettre à jour les politiques existantes en matière de surveillance, de confidentialité et d’utilisation des données afin qu’elles traitent explicitement de l’IA. Vous devriez tenir en interne un inventaire des systèmes d’IA, attribuer des responsabilités claires en matière de contrôle et examiner régulièrement les résultats de l’IA pour en vérifier l’exactitude, l’impartialité et l’équité.
- Offrir de la formation : Même les meilleures politiques et les meilleurs contrôles et processus ne sont efficaces que si les personnes qui les appliquent le sont également. Vous devriez offrir de la formation continue aux professionnels et à l’équipe des ressources humaines sur le fonctionnement des outils d’IA, leurs limites et les pratiques exemplaires.
Ensemble, ces pratiques indiquent aux employés, aux syndicats et aux autorités de réglementation que l’entreprise aborde l’adoption de l’IA de manière responsable.
Conclusion
Les systèmes d’IA devraient être utilisés comme complément du jugement humain, et non comme substitut. Si elle peut améliorer l’efficience, l’IA ne peut comprendre ni juger le contexte, contrairement aux humains chargés de prendre les décisions sur le lieu de travail.
Les employeurs doivent considérer l’IA comme un instrument parmi d’autres dans leur boîte à outils décisionnels et veiller à ce que les décisions importantes en matière d’emploi, en particulier celles qui sont ou pourraient être défavorables aux employés, fassent l’objet d’un contrôle humain significatif. Les professionnels des ressources humaines, qui, en règle générale, sont à l’interne les personnes qui connaissent le mieux les politiques internes, la culture d’entreprise et les exigences de conformité, devraient avoir leur mot à dire dans l’achat et la mise en œuvre des systèmes d’IA susceptibles d’avoir une incidence sur les risques et les responsabilités éventuelles de l’employeur.