Nous joindre
X
Rechercher
Publicité

Rapport de l'Université d'Ottawa

Des experts réclament des balises pour encadrer le recours à l'IA en politique

durée 18h00
1 février 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Une femme vêtue d’une chemise gris-marron est assise à côté d’un homme, comme si elle écoutait attentivement quelqu’un hors du cadre. Elle a les bras croisés sur une table – mais aussi un troisième bras qui soutient son menton...

Des électeurs y ont regardé à deux fois en parcourant le programme d'un candidat à la mairie de Toronto, l'été dernier, et en voyant l'image de cette mystérieuse «femme à trois bras».

Il était évident que l'entourage d'Anthony Furey avait utilisé l'intelligence artificielle (IA) – et il l'a confirmé plus tard. L'incident constitue un exemple très médiatisé de la façon dont l’IA a fait son entrée dans la politique canadienne.

Mais cet usage peut aussi être exploité de manière beaucoup plus subtile. Sans aucune règle en place, le citoyen ne saura pas dans quelle mesure l'IA est utilisée, déclare la coauteure d'un nouveau rapport sur «les utilisations politiques de l'IA au Canada».

«Nous n'en sommes qu'aux débuts, et nous sommes encore dans cette période étrange où il n'y a pas de règles sur la divulgation de l'IA, et il n'y a pas encore de normes sur la divulgation des utilisations de l'IA générative», déclare Elizabeth Dubois, professeure agrégée au département de communication de l'Université d'Ottawa. «On ne sait pas forcément tout ce qui se passe.»

Dans un rapport publié mercredi, Mme Dubois décrit les façons dont l'IA est utilisée au Canada et aux États-Unis – pour les sondages, la prévision des résultats des élections, la préparation de stratégies de lobbying et la détection de publications abusives sur les réseaux sociaux pendant les campagnes.

L'IA générative, une technologie permettant de créer du texte, des images et des vidéos, s'est généralisée avec le lancement de ChatGPT d'OpenAI à la fin de 2022.

De nombreux Canadiens utilisent déjà la technologie dans leur vie quotidienne, et elle est également utilisée pour créer du contenu politique, comme du matériel de campagne. Aux États-Unis l’année dernière, le Parti républicain a publié sa première publicité d’attaque générée par l’IA — «un montage photographique d’images synthétiques accompagnées de clips audio imitant des bulletins d’information», lit-on dans le rapport.

Il est parfois évident que l’IA a été utilisée, comme dans le cas de la «femme à trois bras». Lorsque le Parti de l'Alberta a partagé en ligne une vidéo de soutien d'un citoyen en janvier 2023, les gens sur les réseaux sociaux ont rapidement souligné que ce n'était pas une personne réelle, indique le rapport. La vidéo a été supprimée.

Mais le recours à l'IA peut être difficile à identifier si le contenu semble réel, souligne la professeure Dubois. L'absence de règles et de normes établies sur l'utilisation et la divulgation de l'IA constitue un «réel problème», dit-elle. «Si on ne sait pas ce qui se passe, alors on ne peut pas garantir que ça se produira d'une manière qui soutienne des élections équitables et des démocraties fortes, n'est-ce pas?»

Dangereux hypertrucage

Nestor Maslej, directeur de recherche à l'Institut pour l'intelligence artificielle centrée sur l'humain de l'Université de Stanford, convient qu'il s'agit d'une «préoccupation tout à fait valable».

L’IA pourrait notamment nuire réellement aux élections en utilisant l'hypertrucage. Ces fausses vidéos existent depuis des années. M. Maslej cite des exemples très médiatisés de fausses vidéos de l'ex-président américain Barack Obama tenant des propos désobligeants, ainsi qu'une fausse vidéo du président ukrainien Volodymyr Zelensky qui se rend aux Russes.

Ces exemples «se sont produits dans le passé, lorsque la technologie n’était pas aussi bonne et aussi performante, mais la technologie ne fera que continuer à s’améliorer», rappelle le professeur Maslej.

Le chercheur souligne que les nouvelles versions de l’IA générative rendent plus difficile encore la détection des images ou des vidéos fausses. Il existe également des preuves que les humains ont du mal à identifier les sons générés de manière synthétique, note-t-il.

Cela ne veut pas dire que l'IA ne peut pas être utilisée de manière responsable, souligne M. Maslej, mais elle peut également être utilisée dans des campagnes électorales à des fins malveillantes. Les recherches montrent qu’«il est relativement facile et peu coûteux de mettre en place des pipelines de désinformation liés à l’IA», dit-il.

Tous les électeurs ne sont pas également vulnérables. Les personnes qui ne sont pas aussi familières avec ces types de technologies pourraient être «beaucoup plus susceptibles d'être confuses et de prendre pour réel quelque chose qui est en fait faux», note M. Maslej.

Une façon de mettre en place des garde-fous consiste à intégrer des «filigranes» pour rendre le contenu de l’IA plus identifiable, dit-il.

Quelle que soit la solution retenue par les décideurs politiques, «le moment est venu d’agir», insiste M. Maslej. «Il me semble que l'ambiance politique canadienne est parfois devenue un peu plus clivante et conflictuelle, mais on pourrait espérer que tous les intervenants comprennent toujours que quelque chose comme la désinformation sur l'IA peut créer une atmosphère pire pour tout le monde.

«Si nous attendons qu'il y ait, je ne sais pas, une sorte d'hypertrucage du (premier ministre Justin) Trudeau qui ferait perdre les élections aux libéraux, alors je pense que nous allons ouvrir une très vilaine boîte de Pandore politique.»

Certaines utilisations malveillantes de l’IA sont déjà couvertes par la loi en vigueur au Canada, souligne la professeure Dubois. L’utilisation de vidéos hypertruquées pour usurper l’identité d’un candidat, par exemple, est déjà illégale en vertu de la loi électorale actuelle.

«D'un autre côté, il existe des utilisations potentielles qui sont nouvelles ou qui n'entrent pas clairement dans les limites des règles existantes, dit-elle. Et là, il faut vraiment que ce soit une sorte de cas par cas, dans un premier temps, jusqu'à ce que nous trouvions les limites de la manière dont ces outils pourraient être utilisés.»

Anja Karadeglija, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


durée Hier 14h00

Dévoilement des lauréats du Prix Reconnaissance Luc DESILETS

Le député de Rivière-des-Mille-Îles, Luc Desilets, a dévoilé les grands gagnants de cette nouvelle édition des Prix Reconnaissance Luc DESILETS, hier soir lors d’un gala à la petite église Cabaret-Spectacle de Saint-Eustache. L’événement a été animé par le député, Luc Desilets, accompagné par, la directrice générale et fondatrice ...

durée Hier 10h00

Rosemère dépose son rapport financier pour l’exercice 2023

Conformément à la Loi sur les cités et villes, la Ville de Rosemère a déposé, lors de la séance du conseil du 13 mai 2024, ses états financiers pour l’exercice se terminant le 31 décembre 2023. Les états financiers 2023 affichent un surplus de 441 800 $. « La dotation des ressources financières est toujours au cœur des préoccupations ...

14 mai 2024

Trois jeunes de la région aux Olympiades québécoises des métiers et des technologies

Trois étudiants de la région de la Rive-Nord participeront, les 20 et 31 mai, aux 28es Olympiades canadiennes des métiers et des technologies qui se déroulent au Centre de foires-ExpoCité à Québec. Il s'agit de Émile Touzin-Deschênes, Eugénie Gagné et Jean-Gabriel Blais. Cette compétition représente plus de 40 métiers appartenant à des secteurs ...