Passer au contenu

Le Conseil canadien de la magistrature publie des Lignes directrices sur l’utilisation de l’intelligence artificielle dans les tribunaux canadiens

Le Conseil canadien de la magistrature, l’organisme fédéral créé pour superviser les juges de nomination fédérale du Canada et pour maintenir et améliorer la qualité des services judiciaires dans les cours supérieures du Canada, a récemment publié la première édition de ses Lignes directrices sur l’utilisation de l’intelligence artificielle dans les tribunaux canadiens. En voici un survol qui met en évidence les risques et les mesures d’atténuation à l’intention des décideurs administratifs.

person seated at computer keyboard - only torso and hands are visible - dressed in black with fingers on keyboard and illustration of scales of justice floating above keyboard

Le Conseil canadien de la magistrature (CCM), l’organisme fédéral créé en vertu de la Loi sur les juges, L.R.C. 1985, ch. J-1, pour superviser les juges de nomination fédérale du Canada et pour maintenir et améliorer la qualité des services judiciaires dans les cours supérieures du Canada, a récemment publié la première édition de ses Lignes directrices sur l’utilisation de l’intelligence artificielle dans les tribunaux canadiens.

Un aperçu des Lignes directrices

Le CCM a publié les Lignes directrices en septembre 2024. Les Lignes directrices reconnaissent que les juges sont exclusivement responsables de leurs décisions judiciaires et qu’ils ne sont pas autorisés à déléguer leur pouvoir décisionnel, que ce soit à un assistant judiciaire, à un assistant administratif ou à un programme informatique d’intelligence artificielle (IA), quelles que soient leurs capacités. Cela dit, les Lignes directrices reconnaissent également que certains juges ont déjà adopté des outils d’IA pour améliorer leur efficacité et leur précision, tandis que d’autres peuvent s’appuyer sur des outils d’IA sans même s’en rendre compte. L’objectif des Lignes directrices est donc de sensibiliser aux risques liés à l’utilisation de toute forme d’IA dans l’administration des tribunaux et la prise de décision judiciaire et d’empêcher la délégation du pouvoir décisionnel tout en encourageant l’utilisation sûre, efficace et appropriée de l’IA par la magistrature.

Le CCM fournit sept lignes directrices particulières, qui peuvent être résumées comme suit :

  1. Protéger l’indépendance de la magistrature : De nombreuses applications d’IA générative dont l’usage est proposé pour les tribunaux, y compris les systèmes de gestion des instances et les modes alternatifs de résolution des litiges, sont susceptibles d’éroder l’autorité et l’indépendance des juges. Une trop grande dépendance à l’égard d’une IA privée (qu’elle soit commerciale ou financée par des fonds publics) pourrait compromettre l’indépendance de la magistrature. Il faut comprendre que le rôle des juges va au-delà de la résolution des litiges individuels : il leur incombe la tâche cruciale d’interpréter la loi, de la faire évoluer et de constituer une troisième branche stable et distincte du gouvernement. Même si les gouvernements progressent dans l’élaboration de lois régissant l’utilisation de l’IA, l’indépendance de la magistrature doit être préservée.
     
  2. Utiliser l’IA conformément aux valeurs fondamentales et aux règles éthiques : Tout examen de l’utilisation par les juges d’une technologie d’IA d’assistance doit toujours être compatible avec les valeurs fondamentales que sont l’indépendance, l’intégrité et le respect, la diligence et la compétence, l’égalité et l’impartialité, l’équité, la transparence, l’accessibilité, l’opportunité et la certitude.
     
  3. Tenir compte des aspects juridiques de l’utilisation de l’IA : L’intégration de l’IA dans toute procédure judiciaire doit systématiquement respecter les lois applicables, y compris celles qui régissent la vie privée, la propriété intellectuelle et les activités criminelles. Les tribunaux devraient être particulièrement attentifs à la nature du matériel source utilisé pour former les systèmes d’IA proposés, de manière à garantir un équilibre optimal entre sécurité et précision.
     
  4. Les outils informatiques doivent être soumis à des normes strictes en matière de sécurité de l’information (et à des mesures de protection des résultats) : Un programme d’information et de cybersécurité rigoureux doit être mis en place afin d’accorder une attention particulière à la lutte contre les menaces relatives à l’IA, comme le risque que les algorithmes de l’IA exposent par inadvertance des données d’entraînement sensibles (c’est-à-dire provenant de dossiers judiciaires placés sous scellés) et le risque que les algorithmes de l’outil d’IA ou que les données d’entraînement utilisées pour le nourrir soient manipulés sans autorisation dans le but d’influencer les résultats ou de provoquer des effets pernicieux.
     
  5. Tout outil d’IA utilisé pour répondre aux demandes de nature judiciaire doit pouvoir fournir des explications intelligibles quant aux résultats du processus décisionnel : L’explicabilité concerne la nécessité pour les outils d’IA de fournir des explications claires et compréhensibles sur leurs résultats, ce qui permet aux utilisateurs (et aux personnes concernées) d’interpréter, de respecter, de contester ou d’accepter plus facilement les résultats transmis par l’IA dans les flux de travail stratégiques. L’explicabilité s’apparente à l’obligation pour les juges de fournir des explications motivées pour leurs décisions en droit.
     
  6. Les tribunaux doivent surveiller régulièrement l’impact des déploiements d’outils d’IA : Avant d’introduire une technologie d’IA au sein d’un tribunal, les administrateurs doivent procéder à une évaluation complète, formelle et impartiale de son impact sur l’indépendance de la magistrature, la charge de travail, la réduction des arriérés, la protection de la vie privée, la sécurité, l’accès à la justice et la réputation du tribunal (par exemple, avec un projet pilote ou un environnement d’essai contrôlé avant un déploiement à grande échelle). Les analyses d’impact doivent être réalisées de manière continue, même une fois le déploiement réalisé.
     
  7. Élaborer un programme de formation et fournir une assistance aux utilisateurs : La formation des juges et la prestation d’un service de soutien technique pour l’intégration de l’IA dans l’administration des tribunaux sont des éléments indispensables. L’IA ne devrait pas être utilisée sans que les utilisateurs n’aient suivi un processus de formation complet et sans qu’ils maîtrisent les meilleures pratiques pour interagir avec la technologie, qu’il s’agisse d’un service autonome ou d’un composant intégré au logiciel utilisé par le tribunal.

À retenir

Les Lignes directrices du CCM fournissent un cadre précieux pour l’utilisation de l’IA, non seulement pour les tribunaux, mais aussi pour les décideurs administratifs comme les responsables de la réglementation. Les Lignes directrices soulignent les risques liés à l’utilisation de toute forme d’IA dans la prise de décision et l’administration, tout en fournissant une feuille de route pour atténuer ces risques afin que toute mise en œuvre d’outils d’IA respecte des normes strictes en matière de déontologie et de sécurité. 

Une version de cet article a été publiée sur la page des articles de la section du droit administratif de l’ABO.