Les ingénieurs en informatique et les politologues à la pointe de la technologie préviennent depuis des années que des outils d'intelligence artificielle puissants et bon marché permettraient bientôt à quiconque de créer de fausses images, vidéos et audio suffisamment réalistes pour tromper les électeurs et peut-être influencer une élection.
Les images de synthèse qui en ont émergé étaient souvent grossier, peu convaincant et coûteux à produire, surtout lorsque d'autres types de désinformation étaient si peu coûteux et faciles à diffuser sur les réseaux sociaux. La menace posée par l'IA et les soi-disant deepfakes semblait toujours un an ou deux loin.
Pas plus.
Des outils sophistiqués d'IA générative peuvent désormais créer voix humaines clonées et images hyperréalistes, vidéos et audio en quelques secondes, à moindre coût. Lorsqu'il est attaché à de puissants algorithmes de médias sociaux, ce faux contenu créé numériquement peut se propager loin et rapidement et cibler des publics très spécifiques, amenant potentiellement les sales tours de la campagne à un nouveau plus bas.
Les implications pour les campagnes et les élections de 2024 sont aussi importantes que troublantes : l'IA générative peut non seulement produire rapidement des e-mails, des SMS ou des vidéos de campagne ciblés, mais elle pourrait également être utilisée pour tromper les électeurs, se faire passer pour des candidats et saper les élections à une échelle et à une vitesse encore jamais vues.
"Nous ne sommes pas préparés à cela", a averti AJ Nash, vice-président du renseignement de la société de cybersécurité ZeroFox. « Pour moi, le grand bond en avant réside dans les capacités audio et vidéo qui ont émergé. Quand vous pouvez le faire à grande échelle et le distribuer sur les plateformes sociales, eh bien, cela va avoir un impact majeur.
Experts en IA peut rapidement déclencher un certain nombre de scénarios alarmants dans lesquels l'IA générative est utilisée pour créer des médias synthétiques dans le but de semer la confusion dans l'esprit des électeurs, de calomnier un candidat ou même d'inciter à la violence.
En voici quelques-uns : messages automatisés d'appel automatisé, dans la voix d'un candidat, demandant aux électeurs de voter à la mauvaise date ; des enregistrements audio d'un candidat supposé avoir avoué un crime ou exprimé des opinions racistes ; séquences vidéo montrant quelqu'un prononçant un discours ou entretien ils n'ont jamais donné. De fausses images conçues pour ressembler à des reportages locaux, affirmant à tort qu'un candidat a abandonné la course.
"Et si Elon Musk vous appelle personnellement et vous dit de voter pour un certain candidat ?" a déclaré Oren Etzioni, PDG fondateur de l'Allen Institute for AI, qui a démissionné l'année dernière pour lancer l'AI2 à but non lucratif. «Beaucoup de gens écouteraient. Mais ce n'est pas lui."
L'ancien président Donald Trump, qui se présente en 2024, a partagé du contenu généré par l'IA avec ses abonnés sur les réseaux sociaux. Une vidéo manipulée de l'animateur de CNN Anderson Cooper que Trump a partagée vendredi sur sa plateforme Truth Social, qui a déformé la réaction de Cooper à la Mairie de CNN la semaine dernière avec Trump, a été créé à l'aide d'un outil de clonage de voix basé sur l'IA.
Une publicité de campagne dystopique publiée le mois dernier par le Comité national républicain offre un autre aperçu de cet avenir manipulé numériquement. L'annonce en ligne, qui est venue après Le président Joe Biden a annoncé sa campagne de réélection, et commence par une image étrange et légèrement déformée de Biden et du texte « Et si le président le plus faible que nous ayons jamais eu était réélu ?
Une série d'images générées par l'IA suit : Taiwan sous attaque ; des devantures de magasins fermées aux États-Unis alors que l'économie s'effondre; des soldats et des véhicules militaires blindés patrouillant dans les rues locales alors que des criminels tatoués et des vagues d'immigrants créent la panique.
"Un regard généré par l'IA sur l'avenir possible du pays si Joe Biden est réélu en 2024", lit la description de l'annonce du RNC.
Le RNC a reconnu son utilisation de l'IA, mais d'autres, y compris des campagnes politiques infâmes et des adversaires étrangers, ne le feront pas, a déclaré Petko Stoyanov, directeur mondial de la technologie chez Forcepoint, une société de cybersécurité basée à Austin, au Texas. Stoyanov a prédit que les groupes cherchant à se mêler de la démocratie américaine utiliseront l'IA et les médias synthétiques comme moyen d'éroder la confiance.
"Que se passe-t-il si une entité internationale - un cybercriminel ou un État-nation - se fait passer pour quelqu'un. Quel est l'impact ? Avons-nous un recours ? dit Stoyanov. "Nous allons voir beaucoup plus de désinformation provenant de sources internationales."
La désinformation politique générée par l'IA est déjà devenue virale en ligne avant les élections de 2024, d'un vidéo trafiquée de Biden semblant prononcer un discours attaquant les personnes transgenres Images d'enfants générées par l'IA soi-disant apprendre le satanisme dans les bibliothèques.
Images IA semblant montrer la photo d'identité de Trump a également trompé certains utilisateurs de médias sociaux, même si l'ancien président n'en a pas pris lorsqu'il a été arrêté et traduit devant un tribunal pénal de Manhattan pour avoir falsifié des documents commerciaux. D'autres images générées par l'IA ont montré Trump résiste à son arrestation, même si leur créateur n'a pas tardé à reconnaître leur origine.
Une législation qui obligerait les candidats à étiqueter les publicités de campagne créées avec l'IA a été présentée à la Chambre par la représentante Yvette Clarke, DN.Y., qui a également parrainé une législation qui obligerait toute personne créant des images synthétiques à ajouter un filigrane indiquant le fait.
Certains États ont offert leurs propres propositions pour répondre aux préoccupations concernant les deepfakes.
Clarke a déclaré que sa plus grande crainte est que l'IA générative puisse être utilisée avant les élections de 2024 pour créer une vidéo ou un son qui incite à la violence et monte les Américains les uns contre les autres.
"Il est important que nous suivions la technologie", a déclaré Clarke à l'Associated Press. « Nous devons mettre en place des garde-corps. Les gens peuvent être trompés, et cela ne prend qu'une fraction de seconde. Les gens sont occupés par leur vie et ils n'ont pas le temps de vérifier chaque élément d'information. L'IA étant militarisée, dans une saison politique, cela pourrait être extrêmement perturbateur.
Plus tôt ce mois-ci, une association professionnelle de consultants politiques à Washington a condamné l'utilisation de deepfakes dans la publicité politique, les qualifiant de « tromperie » sans « aucune place dans des campagnes légitimes et éthiques ».
D'autres formes d'intelligence artificielle sont depuis des années une caractéristique des campagnes politiques, utilisant des données et des algorithmes pour automatiser des tâches telles que le ciblage des électeurs sur les réseaux sociaux ou la recherche de donateurs. Les stratèges de campagne et les entrepreneurs technologiques espèrent que les innovations les plus récentes offriront également des avantages en 2024.
Mike Nellis, PDG de l'agence numérique progressiste Authentic, a déclaré qu'il utilise ChatGPT "tous les jours" et encourage son personnel à l'utiliser également, tant que tout contenu rédigé avec l'outil est ensuite examiné par des yeux humains.
[…] L'IA sera-t-elle utilisée pour fausser les résultats des élections de 2024 ? […]