Une course aux armements de superpuissance pour construire des robots tueurs pourrait anéantir l'humanité si elle n'est pas contrôlée, craignent les experts.
L'avertissement apocalyptique intervient après qu'une conférence des Nations Unies n'a pas réussi à s'entendre sur une interdiction des « bots d'abattage » de style Terminator – qui sont développés par la Chine, la Russie et les États-Unis.
Les grandes puissances investissent des milliards pour créer des armes d'IA avancées capables de chasser et de frapper des cibles sans l'intervention des contrôleurs.
L'année dernière, un drone kamikaze de fabrication turque a fait le le premier kill autonome au monde sur des cibles humaines en Libye, a révélé un rapport de l'ONU.
Mais les experts avertissent que la technologie avance si vite que les gouvernements et les sociétés n'ont pas correctement pris en compte les dangers.
Ils disent que les machines qui prennent leurs propres décisions sont sujettes à des erreurs imprévisibles et à propagation rapide.
Ceux-ci proviennent de codes appelés algorithmes que même les programmeurs ne comprennent pas toujours et ne peuvent s'empêcher de dérailler.
Si les armes d'IA à l'avenir sont armées d'ogives biologiques, chimiques ou même nucléaires, les résultats pourraient être un Armageddon involontaire.
« C'est un monde où le genre d'erreurs algorithmiques inévitables qui affligent même les géants de la technologie comme Amazon et Google peuvent désormais conduire à l'élimination de villes entières. » prévient le professeur James Dawes du Collège Macalester.
« Le monde ne devrait pas répéter les erreurs catastrophiques de la course aux armements nucléaires. Il ne devrait pas entrer en somnambulisme dans la dystopie.
Le professeur du MIT, Max Tegmark, co-fondateur du Future of Life Institute, a lancé un avertissement tout aussi grave cette semaine.
He dit Wired: « La technologie évolue beaucoup plus vite que la discussion militaro-politique.
"Et nous nous dirigeons, par défaut, vers le pire résultat possible."
Une éventuelle interdiction des systèmes d'armes automatiques létales (LAWS) a été discutée la semaine dernière lors de la Convention quinquennale de l'ONU sur certaines armes classiques.
Certaines des 120 nations participantes – dont le Brésil, l'Afrique du Sud et la Nouvelle-Zélande – ont fait valoir que les LOIS devraient être restreintes par des traités comme les mines terrestres et certains attentats.
Une liste croissante de pays, dont la France et l'Allemagne, soutiennent des limites sur certaines armes automatiques, y compris celles qui ciblent les humains. La Chine a déclaré qu'elle soutenait un ensemble restreint de restrictions.
D'autres pays, dont les États-Unis, la Russie, l'Inde, le Royaume-Uni et l'Australie, résistent à une interdiction, affirmant qu'il est essentiel de continuer à développer des robots tueurs pour éviter d'être dans une situation de désavantage stratégique.
Décisions de vie et de mort
Déjà un éventail terrifiant d'armes d'IA ont été déployés dans le monde entier, y compris des mitrailleuses automatiques dans le no man's land de la zone démilitarisée de Corée.
Au moins 14 pays ont des drones IA suicide, y compris l'avion d'attaque sans pilote dévastateur Harop qui a été utilisé pour traquer les terroristes du Hamas.
Harops aussi a dévasté l'armée arménienne lors de l'affrontement avec l'Azerbaïdjan l'année dernière - bien qu'il n'ait pas été révélé s'ils ont agi avec ou sans intervention humaine.
Les armes robotiques mortelles de la Russie comprennent le nouveau Combattant furtif échec et mat, qui combine des systèmes d'IA avec un pilote humain.
Les concepteurs disent qu'il pourrait y avoir une future version sans besoin de pilote.
La Chine a commencé des tests il y a plus d'une décennie sur un sous-marin robot conçu pour suivre et détruire les navires ennemis de manière autonome.
Il a également récemment a dévoilé un drone anti-sous-marin et lancé par camion essaims de drones sur le champ de bataille.
La Chine est aussi construire un vaisseau de guerre robot armés de torpilles, des images satellites révélées en octobre.
Toutes ces machines à tuer peuvent être programmées pour rechercher l'approbation humaine avant d'attaquer les cibles qu'elles trouvent.
Mais ils pourraient également être utilisés comme la technologie ultime « tirer et oublier », flânant pendant des heures ou des jours prêts à tirer sur des cibles entièrement choisies par un ordinateur.
Abattage incontrôlé
Les experts disent que les principales armées se leurrent si elles pensent pouvoir contrôler la propagation de ces nouvelles armes avancées.
Ils disent que les États voyous et les terroristes essaieront inévitablement de s'en emparer pour déclencher des massacres.
Et alors que les robots tueurs compacts deviennent aussi bon marché que les kalachnikovs, des gangs tels que les cartels mexicains pourraient les utiliser dans une nouvelle vague terrifiante d'effusion de sang.
"Si vous pouvez acheter des robots d'abattage au même prix qu'un AK-47, c'est de loin préférable pour les cartels de la drogue, car vous ne vous ferez pas prendre lorsque vous tuez quelqu'un", a déclaré le professeur Tegmark au Sun.
"Même si un juge a beaucoup de gardes du corps, vous pouvez voler par la fenêtre d'une chambre pendant qu'ils dorment et les tuer."
Et les gouvernements seront plus susceptibles d'entrer en guerre à l'avenir, selon les experts, car les armes robotiques signifient moins de soldats dans la ligne de mire.
Hmm. Étant donné que tous les technocrates derrière les tueurs de robots semblent d'accord pour éliminer la plupart d'entre nous, les non-élitistes, je n'ai pas peur qu'ils perdent le contrôle. Les machines ne peuvent pas aimer, mais elles ne peuvent pas non plus haïr ou entreprendre obstinément de détruire/conquérir. Le « pire » scénario que je prévois est que les robots peuvent accidentellement tuer un technocrate ou un membre de l'oligarchie qui les embauche.
[…] Robogeddon : "Slaughterbots" autonomes programmés pour tuer […]