image d'un maillet
Le programme de recherche de l’Institut canadien de la sécurité de l’intelligence artificielle a sélectionné une équipe composée des professeures Karen Eltis et Jacquelyn Burkell pour mener un réseau de solutions d'une durée de deux ans dédié à la lutte contre la prévalence croissante des contenus synthétiques générés par l'IA dans le système judiciaire.

Le CIFAR a lancé ses deux premiers réseaux de solutions pour la sécurité de l'IA, financés par le programme de recherche de l’Institut canadien de la sécurité de l’intelligence artificielle (ICSIA), qui soutiendront les équipes travaillant à l'élaboration de nouveaux outils visant à rendre l'intelligence artificielle plus sûre et plus inclusive.

Parmi les nouveaux réseaux de solutions financés figure le réseau Safeguarding Courts from Synthetic AI Content (protéger les tribunaux contre les contenus synthétiques générés par l'IA) mené par une équipe composée notamment de la professeure Karen Eltis, chercheure au Centre de recherche en droit, technologie et société et professeure titulaire de droit à la Section de droit civil de la Faculté de droit, de l'Université d'Ottawa, et de la professeure Jacquelyn Burkell, chercheur associée au Centre et professeure agrégée à la Faculté des sciences de l'information et des médias de l'Université Western Ontario.

Cette initiative vise à lutter contre l'utilisation croissante de preuves synthétiques générées par l'IA dans les procédures judiciaires, notamment des images et des vidéos falsifiées, ainsi que des documents judiciaires rédigés à l'aide de grands modèles linguistiques pouvant contenir des hallucinations. L'équipe a pour objectif de développer un système gratuit et en accès ouvert afin d'aider les tribunaux à identifier les contenus potentiellement problématiques, une étape importante dans l'adaptation du système judiciaire à l'évolution rapide des technologies.

Les enjeux sont importants : la capacité à distinguer les preuves réelles des éléments fabriqués peut avoir une incidence directe sur les décisions judiciaires. Comme les analyses d'experts sont souvent coûteuses ou indisponibles, l'objectif du réseau est de créer un outil transparent et convivial, adapté à la fois aux fonctionnaires de justice et aux justiciables qui se représentent eux-mêmes.

Financés par le programme de recherche de l’ICSIA au CIFAR, ces réseaux de solutions s'inscrivent dans le cadre d'un investissement plus large du gouvernement canadien dans la sécurité de l'IA, lancé en novembre 2024 pour faire face à l'évolution des risques liés à l'IA. Le programme souligne l'importance de développer des technologies fiables et responsables qui renforcent la confiance du public dans un environnement axé sur l'IA.

Félicitations aux professeures Eltis et Burkell.