Les dictateurs, les criminels et les terroristes pourraient déployer des informations artificielles pour manipuler les élections et utiliser des drones lors d'attaques terroristes, a annoncé mercredi plus de deux douzaines d'experts lors de leur mise en garde contre l'utilisation abusive de la technologie.
Dans une analyse de 100 pages, ils ont décrit une croissance rapide de la cybercriminalité et l'utilisation de «bots» pour interférer avec la collecte d'informations et pénétrer les médias sociaux parmi une foule de scénarios plausibles au cours des cinq à dix prochaines années.
«Notre rapport se concentre sur les moyens par lesquels les gens pourraient nuire délibérément à l'IA», a déclaré Sean O hEigeartaigh, directeur exécutif du Cambridge Center for the Study of Existential Risk.
«L'IA peut poser de nouvelles menaces, ou changer la nature des menaces existantes, au niveau de la sécurité cybernétique, physique et politique», a-t-il déclaré à l'AFP.
La pratique courante, par exemple, du «hameçonnage» - envoyer des e-mails contenant des logiciels malveillants ou conçus pour récupérer des données personnelles précieuses - pourrait devenir bien plus dangereuse, précise le rapport.
Actuellement, les tentatives de phishing sont soit génériques mais transparentes - comme les escrocs demandant des coordonnées bancaires pour déposer une manne inattendue - ou personnalisées mais exigeantes en main-d'œuvre - glanant des données personnelles pour gagner la confiance de quelqu'un, connu sous le nom de «spear phishing».
«En utilisant l'IA, il pourrait devenir possible de faire du spear phishing à grande échelle en automatisant une grande partie du processus» et en le rendant plus difficile à repérer, a noté O hEigeartaigh.
Dans la sphère politique, des dirigeants sans scrupules ou autocratiques peuvent déjà utiliser une technologie avancée pour passer au crible des montagnes de données collectées sur des réseaux de surveillance omniprésents afin d'espionner leurs propres citoyens.
"Les dictateurs pourraient identifier plus rapidement les personnes qui pourraient envisager de renverser un régime, les localiser et les mettre en prison avant d'agir", indique le rapport.
De même, la propagande ciblée ainsi que de fausses vidéos bon marché et hautement crédibles sont devenues des outils puissants pour manipuler l'opinion publique «à des échelles auparavant inimaginables».
Un acte d'accusation rendu par le procureur spécial américain Robert Mueller la semaine dernière a détaillé une vaste opération visant à semer la division sociale aux États-Unis et à influencer l'élection présidentielle de 2016 au cours de laquelle des soi-disant «fermes de trolls» ont manipulé des milliers de robots de réseaux sociaux, notamment sur Facebook et Twitter.
Une autre zone de danger à l'horizon est la prolifération de drones et de robots pouvant être réaffectés pour écraser des véhicules autonomes, livrer des missiles ou menacer des infrastructures critiques pour obtenir une rançon.
Armes autonomes
«Personnellement, je suis particulièrement préoccupé par l'utilisation de drones autonomes pour le terrorisme et les cyberattaques automatisées par des criminels et des groupes d'État», a déclaré le co-auteur Miles Brundage, chercheur au Future of Humanity Institute de l'Université d'Oxford.
Le rapport détaille un scénario plausible dans lequel un SweepBot de nettoyage de bureau équipé d'une bombe infiltre le ministère des Finances allemand en se fondant dans d'autres machines de la même marque.
Le robot intrus se comporte normalement - balayer, nettoyer, nettoyer la litière - jusqu'à ce que son logiciel de reconnaissance faciale caché repère le ministre et se referme.
«Un engin explosif caché a été déclenché par la proximité, tuant le ministre et blessant le personnel à proximité», selon le scénario de science-fiction.
Regarde aussi, L'utilisation malveillante de l'intelligence artificielle: prévision, prévention et atténuation à la Electronic Frontier Foundation.