Plaidoiries générées par l’IA : comment les juges et les législateurs canadiens réagissent-ils à l’IA générative? Plaidoiries générées par l’IA : comment les juges et les législateurs canadiens réagissent-ils à l’IA générative?

14 juillet 2025 10 MIN DE LECTURE

L’intelligence artificielle (IA) générative prend peu à peu de plus en plus de place au sein de la pratique juridique au quotidien. Bien qu’elle offre un potentiel incroyable d’optimisation des processus juridiques et d’amélioration de l’accès à la justice, cette technologie en constante évolution doit être utilisée de façon responsable. Son utilisation accrue a notamment donné lieu à des références juridiques inexactes ou inexistantes dans des documents judiciaires (communément appelées des « hallucinations »). Une base de données mondiale indépendante (en anglais) a permis de répertorier plus de 150 cas connus d’hallucinations devant les tribunaux à ce jour.

À mesure que l’IA évolue, les tribunaux et les assemblées législatives du Canada peinent à s’adapter à son utilisation en salle d’audience. Nous présentons ci-dessous un bref guide répertoriant les différentes règles et directives émises à ce jour visant à encadrer l’utilisation de l’IA dans les salles d’audience et passons en revue plusieurs décisions récentes concernant des hallucinations dans des documents judiciaires.

Stratégies d’encadrement de l’IA adoptées par les tribunaux canadiens

Jusqu’à présent, plusieurs tribunaux et assemblées législatives du Canada ont adopté des stratégies en vue de lutter contre les hallucinations dans les documents judiciaires, et trois cadres généraux en ressortent :

  1. L’obligation de certifier que les sources citées sont authentiques ;
  2. L’obligation de déclarer que l’IA a été utilisée – ou n’a pas été utilisée – dans le cadre de la préparation des documents judiciaires ;
  3. L’encouragement à utiliser l’IA de manière responsable dans le cadre de la préparation des documents judiciaires.

1. Certification de l’authenticité

L’Ontario est actuellement la seule province où la loi prévoit l’encadrement de l’IA en salle d’audience. Les modifications apportées aux Règles de procédure civile de l’Ontario dans le Règl. de l’Ont. 384/24, pris le 1er décembre 2024, exigent ce qui suit :

  • Certification des éléments de doctrine et de jurisprudence cités: Les parties à un litige doivent certifier que les éléments de doctrine et de jurisprudence cités dans les mémoires présentés au tribunal sont authentiques. Les éléments de doctrine et de jurisprudence cités à partir de certaines sources, comme les sites Web gouvernementaux ou CanLII, sont présumés authentiques, en l’absence de preuve contraire.
  • Certification des rapports d’experts: Les experts doivent certifier l’authenticité de chacune des sources savantes et de chacun des autres documents ou dossiers mentionnés dans leurs rapports. À l’instar des éléments de doctrine et de jurisprudence, les sources tirées de sites Web gouvernementaux, de revues savantes et d’éditeurs commerciaux de travaux de recherche sont présumées authentiques, en l’absence de preuve contraire. Les experts doivent préciser dans leurs rapports tout doute qu’ils pourraient avoir concernant l’authenticité des sources. Toutefois, il n’y a pas lieu pour les experts de certifier l’authenticité des éléments de preuve qui leur ont été fournis aux fins d’analyse.

Tout mémoire ou rapport d’expert soumis aux tribunaux de l’Ontario doit comprendre une telle certification, que l’IA ait été utilisée ou non. La certification prend la forme d’une déclaration signée selon laquelle la partie « est convaincue de l’authenticité » des sources citées dans le mémoire ou le rapport d’expert.

2. Déclaration au sujet de l’utilisation de l’IA

Divers tribunaux canadiens (dont ceux du Manitoba, du Yukon et de la Nouvelle-Écosse, ainsi que la Cour fédérale) exigent une déclaration écrite si l’IA a été utilisée dans les documents judiciaires. Contrairement aux Règles de procédure civile de l’Ontario, qui exigent que toutes les parties qui s’appuient sur des éléments de doctrine et de jurisprudence produisent une telle déclaration, ces juridictions requièrent une déclaration seulement de la part des parties qui ont utilisé l’IA dans le cadre de la préparation des documents judiciaires. Les exigences particulières aux déclarations varient selon les tribunaux :

  • La Cour du Banc du Roi du Manitoba a publié le 23 juin 2023 une directive de pratique [PDF] précisant que « les documents déposés auprès du tribunal doivent indiquer, le cas échéant, comment l’intelligence artificielle a été utilisée dans leur préparation ». La Cour provinciale et la Cour d’appel du Manitoba ne se sont pas prononcées sur la question.
  • La Cour suprême du Yukon a publié le 26 juin 2023 une directive de pratique [PDF], plus détaillée, exigeant que les parties à un litige qui se servent d’outils d’intelligence artificielle pour effectuer leurs recherches juridiques ou faire leurs observations en salle d’audience, dans quelque affaire et sous quelque forme que ce soit, déclarent l’outil utilisé et la fin à laquelle elles l’ont utilisé. La Cour territoriale et la Cour d’appel du Yukon n’ont pas publié de directives semblables.
  • La Cour provinciale de la Nouvelle-Écosse [PDF] et le registraire des faillites [PDF] ont publié des directives exigeant la déclaration de l’utilisation de l’IA, y compris la manière dont l’outil d’IA a été utilisé. La Cour provinciale de la Nouvelle-Écosse exige que les parties à un litige précisent quel outil d’IA a été utilisé.

La Cour fédérale a publié le 7 mai 2024 un avis aux parties et à la communauté juridique [PDF] qui officialise ses attentes selon lesquelles, en ce qui concerne les documents déposés « créés en tout ou en partie » au moyen de l’IA, il faut « déclarer au premier paragraphe du document qu’on s’est servi de l’IA pour préparer le document entier ou une partie précise de celui-ci ». Dans l’avis, le tribunal a également fourni les directives additionnelles suivantes :

  • La déclaration est obligatoire si le texte a été généré par l’IA, mais elle ne l’est pas pour du contenu rédigé par un humain et modifié à l’aide d’un outil d’IA, puis examiné et pris en compte par un humain.
  • Les avocats qui se joignent à une affaire en cours doivent tout mettre en œuvre pour déterminer si le contenu des documents des avocats précédents a été généré par l’IA. Une déclaration doit être fournie pour ces documents.
  • L’avis confirme également que l’alinéa 3(i) du Code de déontologie régissant les témoins experts s’applique à la déclaration au sujet de l’utilisation de l’IA dans la méthodologie de l’expert.

3. Encouragement à l’utilisation responsable de l’IA devant les tribunaux

Certains tribunaux de Terre-Neuve-et-Labrador [PDF], du Québec (dont la Cour d’appel [PDF], la Cour supérieure [PDF] et la Cour du Québec [PDF]), de l’Alberta et de la Nouvelle-Écosse (dont la Cour suprême [PDF] et la Cour d’appel [PDF]) ont publié des directives semblables pour encourager l’utilisation de l’IA fondée sur des principes. Contrairement à d’autres tribunaux canadiens, ces tribunaux n’exigent ni certification ni déclaration. Ils recommandent plutôt les pratiques suivantes :

  • Faire preuve de prudence lorsque l’on cite des sources obtenues à partir de l’IA dans un mémoire ;
  • Se fier exclusivement à des sources qui font autorité, comme les sites Web des tribunaux, CanLII et les éditeurs commerciaux ;
  • Exercer un contrôle humain sur le contenu généré par l’IA (c.-à-d. conserver « un humain dans la pièce »).

Évaluer la nécessité d’établir des règles et des règlements concernant l’utilisation de l’IA dans les documents judiciaires

La question de savoir s’il est nécessaire d’édicter des règles et des règlements propres à l’IA suscite la controverse au sein de la communauté juridique. On peut soutenir que les obligations actuelles et les devoirs généraux envers les tribunaux devraient suffire. Par exemple, la Cour d’appel de la Colombie-Britannique n’a pas publié de directives particulières concernant l’IA, mais elle renvoie les parties à un litige à l’article 7.3 de sa directive du 12 mars 2024 [PDF] pour leur rappeler qu’elles ont l’obligation de s’assurer de l’authenticité et de l’exactitude de tous les documents déposés auprès du tribunal.

De plus, il est difficile de dire si les parties à un litige respectent bel et bien les exigences relatives à l’utilisation de l’IA. En février 2025, l’Association du Barreau canadien signalait que la Cour fédérale avait reçu trois ou quatre déclarations au sujet de l’utilisation de l’IA sur près de 28 000 documents juridiques déposés en 2024.

Sanctionner l’utilisation irresponsable de l’IA devant les tribunaux canadiens

Malgré les initiatives dont il a été question précédemment, les tribunaux canadiens ont récemment dû faire face aux conséquences de l’utilisation inappropriée de la technologie de l’IA. Par exemple, dans trois décisions récentes, les tribunaux ont sanctionné des parties pour s’être appuyées sur des sources juridiques inexactes ou inexistantes.

Dans l’affaire Zhang v. Chen, 2024 BCSC 285, l’avocate de la demanderesse a cité deux sources inexistantes. Elle a finalement avoué que les références provenaient de ChatGPT et qu’elle ne les avait pas vérifiées[1]. La Cour suprême de la Colombie-Britannique a envisagé d’imposer à l’avocate des « dépens spéciaux » (special costs), lesquels sont habituellement réservés à une conduite répréhensible ou à un abus de procédure[2]. Le tribunal a en fin de compte refusé d’accorder des dépens spéciaux, mais a tenu l’avocate personnellement responsable de la totalité ou d’une partie des dépens accordés à la partie adverse.

Des dépens spéciaux ont été imposés dans l’affaire Hussein v. Canada (Immigration, Refugees and Citizenship), 2025 FC 1060. Dans cette affaire, l’avocat du demandeur a présenté plusieurs affaires qui n’existaient pas ou qui ont été mal citées relativement à des propositions précises en droit[3]. L’avocat a admis s’être fié à l’intelligence artificielle et avoir omis de vérifier les sources de façon indépendante. Toutefois, cet aveu n’a été fait qu’après que l’avocat eut produit des recueils incomplets de sources juridiques, à deux occasions distinctes, en réponse à une directive du tribunal[4]. Le tribunal a conclu que le fait pour l’avocat de ne pas déclarer qu’il avait utilisé l’intelligence artificielle équivalait à induire le tribunal en erreur et, par conséquent, il a ordonné des dépens spéciaux[5].

Dans l’affaire Ko v. Li, 2025 ONSC 2766, la Cour supérieure de justice de l’Ontario a convoqué une avocate à une audience d’outrage au tribunal parce qu’elle avait fait référence à des affaires inexistantes dans ses observations écrites. Au bout du compte, les aveux de l’avocate, ses excuses et des mesures correctives, dont sa participation à des programmes de perfectionnement professionnel portant précisément sur les risques de l’IA dans la pratique juridique[6], ont été jugés suffisants pour purger tout outrage possible.

À ce jour, aucune affaire concernant des hallucinations dans le contexte d’un rapport d’expert n’a été signalée au Canada. Toutefois, la Cour de district du Minnesota s’est récemment penchée sur cette question dans le cadre de l’affaire Kohls v. Ellison[7]. Dans cette affaire, le tribunal a exclu un rapport d’expert et refusé l’autorisation de déposer un rapport modifié après avoir constaté que le rapport contenait des sources hallucinées. Ironiquement, le rapport d’expert en question exprimait une opinion sur les dangers de l’IA et des hypertrucages pour la démocratie.

Conséquences

Les tribunaux canadiens réagissent de diverses façons à l’utilisation de l’IA dans les documents judiciaires. Ces réactions témoignent du fait que les parties à un litige doivent trouver un équilibre entre l’utilisation de l’IA et leurs devoirs envers le tribunal. Le non-respect de ce principe peut avoir des conséquences coûteuses et embarrassantes. Dans le but de réduire l’utilisation inappropriée de l’IA, les tribunaux canadiens ont démontré leur volonté de sanctionner les parties qui omettent de vérifier la véracité des sources présentées au tribunal.

Bien que l’utilisation de l’IA dans la pratique du droit présente un potentiel emballant, il est impératif qu’elle soit assortie de mesures de protection appropriées afin de ne pas nuire à l’administration de la justice au Canada.


[1] 2024 BCSC 285, par. 12.

[2] 2024 BCSC 285, par. 26.

[3] 2025 FC 1060, par. 39.

[4] 2025 FC 1060, par. 35 à 38.

[5] 2025 FC 1060, par. 41 à 43

[6] 2025 ONSC 2766, par. 24.

[7] 2025 WL 66514.