Robogeddon : "Slaughterbots" autonomes programmés pour tuer

S'il vous plaît partager cette histoire!
Les technocrates inventent parce qu'ils peuvent, pas parce qu'il y a un besoin démontré de le faire. Lorsque l'IA, le SIG, le GPS, la reconnaissance faciale et le matériel militaire se rencontrent, qu'attendriez-vous d'autre que l'abattage automatisé ? C'est plus rapide, plus facile et loin d'appuyer sur la gâchette avec un ennemi dans votre ligne de mire. Éditeur TN

Une course aux armements de superpuissance pour construire des robots tueurs pourrait anéantir l'humanité si elle n'est pas contrôlée, craignent les experts.

L'avertissement apocalyptique intervient après qu'une conférence des Nations Unies n'a pas réussi à s'entendre sur une interdiction des « bots d'abattage » de style Terminator – qui sont développés par la Chine, la Russie et les États-Unis.

Les grandes puissances investissent des milliards pour créer des armes d'IA avancées capables de chasser et de frapper des cibles sans l'intervention des contrôleurs.

L'année dernière, un drone kamikaze de fabrication turque a fait le le premier kill autonome au monde sur des cibles humaines en Libye, a révélé un rapport de l'ONU.

Mais les experts avertissent que la technologie avance si vite que les gouvernements et les sociétés n'ont pas correctement pris en compte les dangers.

Ils disent que les machines qui prennent leurs propres décisions sont sujettes à des erreurs imprévisibles et à propagation rapide.

Ceux-ci proviennent de codes appelés algorithmes que même les programmeurs ne comprennent pas toujours et ne peuvent s'empêcher de dérailler.

Si les armes d'IA à l'avenir sont armées d'ogives biologiques, chimiques ou même nucléaires, les résultats pourraient être un Armageddon involontaire.

« C'est un monde où le genre d'erreurs algorithmiques inévitables qui affligent même les géants de la technologie comme Amazon et Google peuvent désormais conduire à l'élimination de villes entières. » prévient le professeur James Dawes du Collège Macalester.

« Le monde ne devrait pas répéter les erreurs catastrophiques de la course aux armements nucléaires. Il ne devrait pas entrer en somnambulisme dans la dystopie.

Le professeur du MIT, Max Tegmark, co-fondateur du Future of Life Institute, a lancé un avertissement tout aussi grave cette semaine.

He dit Wired: « La technologie évolue beaucoup plus vite que la discussion militaro-politique.

"Et nous nous dirigeons, par défaut, vers le pire résultat possible."

Une éventuelle interdiction des systèmes d'armes automatiques létales (LAWS) a été discutée la semaine dernière lors de la Convention quinquennale de l'ONU sur certaines armes classiques.

Certaines des 120 nations participantes – dont le Brésil, l'Afrique du Sud et la Nouvelle-Zélande – ont fait valoir que les LOIS devraient être restreintes par des traités comme les mines terrestres et certains attentats.

Une liste croissante de pays, dont la France et l'Allemagne, soutiennent des limites sur certaines armes automatiques, y compris celles qui ciblent les humains. La Chine a déclaré qu'elle soutenait un ensemble restreint de restrictions.

D'autres pays, dont les États-Unis, la Russie, l'Inde, le Royaume-Uni et l'Australie, résistent à une interdiction, affirmant qu'il est essentiel de continuer à développer des robots tueurs pour éviter d'être dans une situation de désavantage stratégique.

Décisions de vie et de mort

Déjà un éventail terrifiant d'armes d'IA ont été déployés dans le monde entier, y compris des mitrailleuses automatiques dans le no man's land de la zone démilitarisée de Corée.

Au moins 14 pays ont des drones IA suicide, y compris l'avion d'attaque sans pilote dévastateur Harop qui a été utilisé pour traquer les terroristes du Hamas.

Harops aussi a dévasté l'armée arménienne lors de l'affrontement avec l'Azerbaïdjan l'année dernière - bien qu'il n'ait pas été révélé s'ils ont agi avec ou sans intervention humaine.

Les armes robotiques mortelles de la Russie comprennent le nouveau Combattant furtif échec et mat, qui combine des systèmes d'IA avec un pilote humain.

Les concepteurs disent qu'il pourrait y avoir une future version sans besoin de pilote.

La Chine a commencé des tests il y a plus d'une décennie sur un sous-marin robot conçu pour suivre et détruire les navires ennemis de manière autonome.

Il a également récemment a dévoilé un drone anti-sous-marin et lancé par camion essaims de drones sur le champ de bataille.

La Chine est aussi construire un vaisseau de guerre robot armés de torpilles, des images satellites révélées en octobre.

Toutes ces machines à tuer peuvent être programmées pour rechercher l'approbation humaine avant d'attaquer les cibles qu'elles trouvent.

Mais ils pourraient également être utilisés comme la technologie ultime « tirer et oublier », flânant pendant des heures ou des jours prêts à tirer sur des cibles entièrement choisies par un ordinateur.

Abattage incontrôlé

Les experts disent que les principales armées se leurrent si elles pensent pouvoir contrôler la propagation de ces nouvelles armes avancées.

Ils disent que les États voyous et les terroristes essaieront inévitablement de s'en emparer pour déclencher des massacres.

Et alors que les robots tueurs compacts deviennent aussi bon marché que les kalachnikovs, des gangs tels que les cartels mexicains pourraient les utiliser dans une nouvelle vague terrifiante d'effusion de sang.

"Si vous pouvez acheter des robots d'abattage au même prix qu'un AK-47, c'est de loin préférable pour les cartels de la drogue, car vous ne vous ferez pas prendre lorsque vous tuez quelqu'un", a déclaré le professeur Tegmark au Sun.

"Même si un juge a beaucoup de gardes du corps, vous pouvez voler par la fenêtre d'une chambre pendant qu'ils dorment et les tuer."

Et les gouvernements seront plus susceptibles d'entrer en guerre à l'avenir, selon les experts, car les armes robotiques signifient moins de soldats dans la ligne de mire.

 

Lire l'histoire complète ici…

À propos de l’auteure

Patrick Wood
Patrick Wood est un expert de premier plan et critique sur le développement durable, l'économie verte, l'Agenda 21, l'Agenda 2030 et la technocratie historique. Il est l'auteur de Technocracy Rising: The Trojan Horse of Global Transformation (2015) et co-auteur de Trilaterals Over Washington, Volumes I and II (1978-1980) avec le regretté Antony C. Sutton.
S'abonner
Notifier de
invité
2 Commentaires
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Rachel

Hmm. Étant donné que tous les technocrates derrière les tueurs de robots semblent d'accord pour éliminer la plupart d'entre nous, les non-élitistes, je n'ai pas peur qu'ils perdent le contrôle. Les machines ne peuvent pas aimer, mais elles ne peuvent pas non plus haïr ou entreprendre obstinément de détruire/conquérir. Le « pire » scénario que je prévois est que les robots peuvent accidentellement tuer un technocrate ou un membre de l'oligarchie qui les embauche.

[…] Robogeddon : "Slaughterbots" autonomes programmés pour tuer […]