Dans le cadre du Colloque sur l’IA de l’Université d’Ottawa, des membres de la communauté de recherche de toutes. les. facultés. ont participé à des débats et à des discussions sur plusieurs facettes de l’IA, offrant des repères pour les technologues, les décisionnaires et le grand public.
Dès le départ, un message a résonné clairement : l’IA n’est pas qu’un outil technique. Il s’agit d’un système sociotechnique qui façonne le monde, et est façonné par lui. Les conversations ont mis en lumière les deux côtés de la médaille de cette technologie, les spécialistes réclamant qu’elle soit établie comme une innovation inclusive, transparente et durable.
Un moteur d’innovation à travers les secteurs
Les panélistes ont évoqué les diverses manières dont l’IA transforme déjà la médecine, le droit, l’éducation et les télécommunications, en renforçant l’efficacité et en ouvrant la porte à de nouvelles possibilités.
- La professeure Tanya Schmah a expliqué que l’IA était utilisée en imagerie médicale pour détecter des anomalies, ce qui aide les chercheuses et chercheurs à reconnaître les changements dans les structures du cerveau associés à la maladie d’Alzheimer.
- En ce qui concerne les télécommunications, la professeure Melike Enrol-Kantarci a prédit l’arrivée des réseaux 6G d’ici 2030, qui répondront à la demande grandissante de l’IA en matière de vitesse et de bande passante; elle a qualifié l’IA de « prochain Internet ».
- Le professeur Richard Naud a expliqué en quoi l’IA et les sciences du cerveau évoluaient de pair. L’apprentissage par renforcement, qui permet aux algorithmes d’« apprendre » par essais et erreurs et d’être « récompensés » pour leurs bonnes décisions, aide la communauté de recherche à modéliser la manière dont le cerveau humain traite la sérotonine. En parallèle, les avancées en neuroscience inspirent des innovations en matière d’IA, comme des puces économes en énergie qui imitent le fonctionnement cérébral.
Si ces exemples illustrent d’intéressantes occasions de croissance et de recherche, d’autres discussions ont fait ressortir le besoin d’établir des cadres de gouvernance adaptés aux innovations de chaque secteur.
Renforcement de l’infrastructure d’IA
Selon les chercheuses et chercheurs, pour bâtir des systèmes d’IA fiables, il faut assurer leur robustesse (leur résilience par rapport aux erreurs), leur explicabilité (la compréhension de leur processus de prise de décision) et leur efficacité énergétique; une IA fiable et évolutive repose sur une analyse approfondie de ses fondements, de son architecture et de ses règles d’apprentissage.
L’informaticienne Diana Inkpen a traité des grands modèles de langage (GML), soit la technologie sur laquelle s’appuient des outils comme ChatGPT, Gemini et Copilot. Ses travaux visent à faire la lumière sur la manière dont les GML se représentent le savoir. Ces modèles apprennent des motifs à partir d’imposants ensembles de données, mais surtout, ils présentent des lacunes pour ce qui est du raisonnement et du contexte. Or, il est essentiel de comprendre les faiblesses de ces outils de plus en plus intégrés à notre quotidien.
Justice sociale, équité et inclusion en matière d’IA
Puisque l’IA est façonnée par le monde où elle s’intègre, elle risque d’amplifier les iniquités et les préjugés systémiques qui touchent de manière disproportionnée les populations marginalisées. Les panélistes ont fait cette mise en garde : sans un encadrement délibéré, l’IA pourrait aggraver les inégalités et les dommages environnementaux.
Parmi les exemples d’effets sociaux délétères, notons le harcèlement axé sur l’hypertrucage ciblant les femmes et les filles, et les biais algorithmiques dans les soins de santé et le maintien de l’ordre. L’empreinte environnementale de l’IA, dont les centres de données consomment des quantités énormes d’eau et d’énergie, représente une autre source de préoccupation.
La professeure d’éthique juridique Amy Salyzyn a ajouté que bien que le marché des outils juridiques spécialisés fondés sur l’IA ait pris son essor, seuls les grands cabinets disposant de ressources considérables y ont accès. Il en résulte un système à deux vitesses dans le cadre duquel les organisations bien nanties profitent d’outils de pointe, tandis que les cabinets plus modestes et les particuliers risquent d’être laissés pour compte, ce qui accentue le manque d’équité en justice.
Pour prévenir les biais et la discrimination automatisée, la communauté de recherche insiste sur la nécessité de favoriser la conception inclusive, les processus fondés sur la délibération et une gouvernance participative qui donne aux personnes marginalisées voix au chapitre. L’accès équitable à l’IA repose sur des cadres qui préféreront la sécurité à la confiance aveugle.
« L’IA reflète les données utilisées pour l’entraîner et les valeurs des personnes qui l’ont conçue et qui l’utilisent. La transparence et la responsabilisation sont critiques pour protéger la démocratie. »
Panélistes du symposium sur la désinformation et démocratie
Désinformation et démocratie : le rôle de l’IA dans la définition du discours public
Ces préoccupations révèlent une grande vérité : l’IA, ni neutre ni impartiale, est bien plus qu’un outil technique. Comme l’a déclaré la professeure Kelly Bronson, « elle n’est pas née de l’Immaculée Conception ».
Dans le cadre de ses travaux sur la communication politique, la professeure Elizabeth Dubois montre en quoi les outils d’IA modifient le paysage informatif : l’hypertrucage favorise la désinformation et mine la confiance, tandis que les plateformes d’engagement fondées sur l’IA permettent l’hyperciblage. Ces façons de faire soulèvent des préoccupations en matière de représentation, de transparence et d’éventuelles chambres d’écho.
Les panélistes ont donné l’exemple d’élections récentes lors desquelles du contenu généré par l’IA avait alimenté des campagnes de désinformation, qui ont remis en question l’engagement citoyen et les normes démocratiques. Ce virage met en lumière un autre impact sociétal de l’IA : elle a transformé l’accès à l’information fiable et de grande qualité, ébranlant la confiance de la population et compromettant les processus démocratiques.
Comme l’IA reflète les données utilisées pour l’entraîner et les valeurs des personnes qui l’ont conçue et qui l’utilisent, la transparence et la responsabilisation sont d’autant plus essentielles pour protéger la démocratie.
« Loin de nuire au progrès, des politiques bien conçues créent la stabilité propice à une dynamique d’innovation. »
Panélistes du symposium sur la confiance, la transparence et la surveillance
Confiance, transparence et supervision : concilier innovation et réglementation
La fiabilité s’est imposée comme un thème central des discussions. Comme l’a dit le professeur Jason Millar, expert de l’ingénierie éthique : « Pour que la population lui fasse confiance, un système doit prouver qu’il est fiable. » Pour rendre les systèmes plus sûrs et plus fiables, il faut donc miser sur la transparence et la responsabilisation.
Par exemple, des affaires inexistantes générées par l’IA ont déjà été citées devant des tribunaux, ce qui illustre bien le risque de se fonder sur des outils insuffisamment réglementés. Pour mettre un terme à de tels abus, Teresa Scassa, professeure de droit de l’information, réclame des règlements applicables, des audits, des documents, et des vérifications continues de la transparence.
S’il est légitime d’appréhender que la réglementation étouffe l’innovation, les panélistes ont convenu qu’il était essentiel d’établir des règles claires pour renforcer la confiance du public et garantir la fiabilité de l’IA. Loin de nuire au progrès, des politiques bien conçues créent la stabilité propice à une dynamique d’innovation.
Ces principes s’appliquent aussi à l’éducation, où l’on s’interroge de plus en plus sur le rôle de l’IA dans l’apprentissage. L’utilisation généralisée de l’IA pour les devoirs peut nuire à la rétention et à la compréhension, ce qui compromet l’apprentissage à long terme. Microsoft interdit même l’utilisation de l’IA aux enfants de moins de 13 ans.
Or, dans les faits, l’IA est partout : c’est la voie de l’avenir. Les spécialistes ont conclu qu’au lieu de la bannir, on doit enseigner aux étudiantes et étudiants à l’utiliser de manière éthique et responsable. Ces personnes doivent apprendre à porter un regard critique, à comprendre les limites de l’IA et à vérifier l’exactitude de l’information.