Hypertrucage: l'intelligence artificielle dans la désinformation

Expertise universitaire
Generic artificial intelligence montage
Expertise universitaire disponible pour commenter ou contextualiser le sujet suivant :

Hypertrucage: l'intelligence artificielle dans la désinformation

Céline Castets-Renard (français et anglais)

Chaire de recherche de l’Université sur l’intelligence artificielle responsable à l'échelle mondiale, et professeure titulaire, Faculté de droit - Section de droit civil.

Celine.Castets-Renard@uottawa.ca

« Les hypertrucages (deepfakes) sont à la mode et souvent utilisés pour faire rire. Mais ils peuvent nuire à une population, lorsqu'il s'agit de faire dire des fausses nouvelles (fake news) ou quand ils sont utilisés à des fins de désinformation et manipulation politique. On touche ici aux fondements de la démocratie, de la liberté d'opinion et d'information et de la liberté de la presse.

« Les enjeux pour les droits fondamentaux et la démocratie sont majeurs et il est temps d'encadrer ces pratiques au moment où le projet de loi C-27 comportant une partie sur l'IA et les données se trouve en discussion devant la Chambre des Communes. Le projet de règlement européen (AI act) prévoit de créer une obligation d'information, ce qui pourrait inspirer le législateur canadien.


« Art. 52(3) lit : "Les utilisateurs d’un système d’IA qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d'autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques («hypertrucage») précisent que les contenus ont été générés ou manipulés artificiellement." »

WanSook Lee (anglais seulement)

Professeure titulaire, École de science informatique et de génie électrique, Faculté de génie.

wslee@uOttawa.ca

Les recherches de la professeure WanSook Lee portent sur l’apprentissage machine / profond et l’intelligence artificielle. 

« Le manière de créer du contenu falsifié par l’apprentissage profond est si sophistiquée que toute méthode de détection peut ensuite servir à concevoir des systèmes d’IA encore plus puissants, qui produiront à leur tour du contenu falsifié encore plus convaincant. Afin de prévenir l’utilisation de falsifications trompeuses comme l’hypertrucage, il faut que le gouvernement mette en place des règles et des politiques pour combattre ce phénomène. »