Grammarly
Dmitry Spravko (Unsplash)
L'outil de rédaction en ligne Grammarly fait l'objet de poursuites judiciaires pour avoir utilisé un logiciel d'IA afin d'usurper l'identité d'universitaires et d'auteurs reconnus – vivants ou décédés – pour évaluer les travaux des utilisateurs.

Les médias peuvent communiquer directement avec :

Jasmin Manseau (français et anglais)

Professeur adjoint, École de gestion Telfer

jasmin.manseau@telfer.uOttawa.ca

Les recherches du professeur Manseau portent sur les technologies émergentes en intelligence artificielle, en particulier l’intelligence générative et les assistants conversationnels. Il s’intéresse aux volets obscurs de la technologie, en examinant comment les systèmes numériques peuvent favoriser la déshumanisation et comment les innovations biométriques soulèvent d’importantes questions éthiques liées à la surveillance et à la vie privée.

« L’IA peut parfois contribuer à des formes subtiles de déshumanisation en réduisant les connaissances humaines, les interactions sociales et le travail intellectuel à des “points de données” qui peuvent être réutilisés ou reproduits par des machines. Dans cette perspective, lorsque des systèmes d’IA réutilisent ou simulent le travail ou la voix intellectuelle de chercheurs sans reconnaissance claire, cela soulève des questions plus larges sur la manière dont ces technologies peuvent transformer la valeur, la dignité et la reconnaissance des contributions humaines. »

David Fewer (français et anglais)

Professeur à temps partiel, Faculté de droit (Section de common law) et directeur intérimaire de la Clinique d’intérêt public et de politique d’Internet du Canada Samuelson-Glushko (CIPPIC).

dfewer@uOttawa.ca

Les travaux de recherche du professeur Fewer portent sur les enjeux de propriété intellectuelle et de droit des technologies. Dans le cas qui nous intéresse, il peut traiter des questions de droits d’auteur, de droits de la personnalité et de protection des consommatrices et consommateurs.

« Tout d’abord, cette affaire soulève d’importantes questions au chapitre des droits d’auteur. Quand une entreprise entraîne ses modèles à partir d’œuvres protégées, puis commercialise un produit conçu pour imiter leurs particularités, on peut raisonnablement avancer qu’il y a reproduction non autorisée d’une expression protégée. Le droit canadien n’a pas encore tranché sur la question, mais il s’agit d’une cause majeure et crédible entourant la violation des droits d’auteurs.

Ensuite, il y a de toute évidence un enjeu du côté des droits de la personnalité. Si le nom et l’identité de vraies personnes sont accolés à un produit pour promouvoir des conseils générés par l’IA, le droit cherchera à déterminer s’il y a exploitation de leur personnalité – sans leur consentement – à des fins commerciales. Au Canada, on peut parler d’usurpation d’identité. Par ailleurs, certaines provinces ont adopté des mesures législatives pour protéger la vie privée précisément en lien avec l’usage non autorisé du nom ou de l’image d’une personne à des fins promotionnelles.

Enfin, la question de la protection des consommateurs et consommatrices entre elle aussi en jeu. Même si l’entreprise appose des formulations qualificatives comme “inspiré par”, il faut considérer l’impression globale créée à l’intention du public visé. Si celui-ci est amené à croire que les personnalités nommées approuvent l’outil, ont pris part à sa création ou sont bel et bien à l’origine des conseils prodigués, l’entreprise s’expose à des allégations de représentation fausse ou trompeuse. »

Mayur Joshi  (anglais seulement)

Professeur adjoint en systèmes d’information et titulaire de la Bourse de recherche Père-Edgar-Thivierge en IA et en transformation du travail, des professions et des organisations à l’École de gestion Telfer.

mayur.joshi@telfer.uOttawa.ca

Le champ de recherche du professeur Joshi se situe à l’intersection des systèmes d’information et de la théorie de l’organisation. Il a récemment copublié un article dans le Journal of Management Studies, dans lequel il défend l’idée que l’IA est le fruit des relations entre acteurs humains et algorithmiques.

« Les préoccupations éthiques sont évidentes, mais je pense que le problème sous-jacent est d’ordre épistémique. Il existe une différence fondamentale entre l’imitation et la production de connaissances. Un outil qui apprend à partir de mes propres contributions, avec ma participation active, peut se rapprocher de certains aspects de mon expertise, puisque je demeure au cœur du processus d’apprentissage. Or, si les systèmes tels que l’IA ont effectivement accès aux données qui leur sont fournies, notons qu’ils emmagasinent principalement des traces textuelles et des tendances de révision, et non le jugement contextuel, la capacité de définir les problèmes et les normes d’évaluation propres à toute expertise.

Par conséquent, inférer une expertise à partir d’artéfacts publiés revient à en reproduire l’expression, tout en négligeant les processus sous‑jacents de production des connaissances. La situation nous incite à concevoir des systèmes d’IA qui mobilisent l’expertise de manière relationnelle, en la coproduisant avec des spécialistes, plutôt qu’en cherchant à l’extraire et à la marchandiser à partir de traces textuelles statiques. »

Rafid Mahmood (anglais seulement)

Professeur adjoint, École de gestion Telfer, Université d’Ottawa

Mahmood@telfer.uOttawa.ca

Les recherches du professeur Mahmood portent sur les applications des grands systèmes d’intelligence artificielle; il analyse la création de modèles prédictifs et prescriptifs pour automatiser la prise de décisions, ainsi que la gestion de l’approvisionnement en données nécessaire pour les opérationnaliser.

« Si une entreprise utilise l’identité d’une vraie personne, sans son autorisation, pour donner davantage de crédibilité à du contenu généré par une machine, il faut y voir de sérieuses préoccupations en matière de consentement, de fausse représentation et de confiance du public. Ça devient un enjeu de gouvernance. Les organismes qui conçoivent des produits d’IA doivent se doter de normes plus claires en matière de consentement et se montrer plus transparents lorsqu’ils s’inspirent de personnes réelles et reconnaissables. »