Au revoir monde: la course aux armements de l'IA en direction de robots tueurs autonomes

Photo US Navy de John F. Williams / publiée
S'il vous plaît partager cette histoire!
La course aux armements de l'IA pour créer des machines à tuer autonomes, qui est en train de se développer rapidement, est la folie technocrate à son apogée. Pour le technocrate, chaque problème a une solution scientifique; alors pourquoi ne pas laisser un robot IA en état mortel et armé faire tout le travail de soldats humains? ⁃ Éditeur TN

Quand vient le temps de décider de tuer un humain en temps de guerre, une machine devrait-elle prendre cette décision ou un autre humain devrait-il en prendre une?

La question est une question morale, mise au premier plan par les techniques et les incitations de la technologie moderne. C’est une question dont la portée relève carrément du droit international et que les nations discutent depuis des années. Mais c’est aussi un problème d’action collective, qui nécessite non seulement les États, mais également les entreprises et les travailleurs des entreprises qui s’entendent pour renoncer à un avantage perçu. Le danger ne réside pas tant dans la fabrication d'une arme que dans celle qui peut choisir des cibles indépendamment du responsable humain qui déclenche son action.

Dans un rapport de mai 8 de Pax - une organisation à but non lucratif ayant pour objectif explicite de protéger les civils de la violence, de réduire les conflits armés et de construire une paix juste - les auteurs se penchent sur l'état actuel de l'intelligence artificielle dans l'armement et incitent les pays, les entreprises et les travailleurs à réfléchir sur la façon de prévenir une course aux armements de l’intelligence artificielle, au lieu de penser à la gagner. Sans action corrective, le rapport avertit que le statu quo pourrait conduire tous les participants à une situation sans issue, avec tout avantage à développer une arme autonome temporaire et limitée.

"Nous voyons cette course aux armements de l'IA émergente et nous pensons que si rien ne se passe, il s'agit d'une menace majeure pour l'humanité", a déclaré Frank Slijper, l'un des auteurs du le rapport. «Il existe une fenêtre d'opportunité pour empêcher une course aux armements de l'IA. Les États devraient essayer d'empêcher une course aux armements de l'IA et œuvrer en faveur d'une réglementation internationale. Entre-temps, les entreprises et les instituts de recherche ont eux-mêmes la responsabilité majeure de s’assurer que ce travail dans le domaine de l’IA et des domaines connexes ne contribue pas à la création potentielle d’armes autonomes létales. »

Le rapport est rédigé avec un œil spécifique sur les sept principales puissances de l'IA. Ceux-ci incluent les cinq membres permanents du conseil de sécurité des Nations Unies: Chine, États-Unis, France, Russie et Royaume-Uni. En outre, le rapport détaille les recherches sur l'intelligence artificielle menées par Israël et la Corée du Sud, deux pays dont les postures géographiques et politiques ont favorisé le développement de l'IA militaire.

«Nous avons identifié les principaux acteurs en termes d’utilisation, de recherche et de développement concernant l’intelligence artificielle et son utilisation militaire dans des armes de plus en plus autonomes. Je ne pouvais penser à personne, à aucun État où nous aurions échappé de ces sept ans », explique Slijper. "Bien sûr, il y a toujours un nombre huit et le nombre neuf."

Pour chaque puissance d'IA couverte, le rapport examine l'état de l'IA, son rôle dans l'armée et ce que l'on sait de la coopération entre les développeurs d'IA du secteur privé ou des universités et de l'armée. Avec des pays comme les États-Unis, où les programmes d'IA militaire sont nommés, les politiques en vigueur peuvent être indiquées, et les débats sur les relations entre l'IA commercial et l'utilisation militaire sont connus, le rapport détaille ce processus. La minutie de la recherche est utilisée pour souligner la mission explicitement activiste de Pax, bien qu'elle fournisse également une analyse précieuse de la situation de l'IA dans le monde.

Comme le soutient le rapport tout au long de ce rapport, le rôle de l'IA dans le domaine des armes ne concerne pas que les gouvernements. C'est une question pour les responsables des entreprises et une question pour les travailleurs qui créent l'IA pour les entreprises.

«Cela tient en grande partie au caractère plutôt unique de la technologie des armes infiltrées par l'IA», déclare Slijper. «Traditionnellement, de nombreuses entreprises travaillant actuellement sur l'intelligence artificielle le faisaient dans une perspective purement civile pour faire le bien et aider l'humanité. Ces sociétés n'étaient pas traditionnellement des producteurs militaires ou des fournisseurs dominants de l'armée. Si vous travaillez pour une compagnie d'armement, vous savez pourquoi vous travaillez. "

Aux États-Unis, des travailleurs se sont opposés à la réalisation de contrats avec le Pentagone dans le secteur des technologies. Après le tollé de Google travailleur après avoir appris l'engagement de l'entreprise à Projet Maven, qui a développé une intelligence artificielle de traitement de métrage de drone pour l’armée, les dirigeants de la société ont accepté de mettre fin au projet. (Le projet Maven est maintenant géré par le Andruil soutenu par Peter Thiel.)

Microsoft aussi, expérimenté résistance des travailleurs à l'utilisation militaire de son outil de réalité augmentée HoloLens, certains travailleurs écrivant une lettre indiquant que, dans les mains du Pentagone, les capteurs et le traitement du casque le rapprocheraient dangereusement d'un composant d'arme. Les travailleurs ont spécifiquement indiqué qu'ils avait construit HoloLens «Aider à enseigner aux gens comment effectuer une intervention chirurgicale ou jouer du piano, repousser les limites du jeu et se connecter au Mars Rover», ce qui est loin d'aider les militaires à identifier les menaces en patrouille.

«Et je pense que pour un grand nombre de personnes travaillant dans le secteur des technologies, il est assez troublant de constater qu'au départ, cette société travaillait principalement ou uniquement pour des applications civiles de cette technologie. des projets ou même des armes meurtrières », a déclaré Slijper.

Slijper fait référence au Protocole sur les armes aveugles en tant que moyen par lequel la communauté internationale a réglementé une technologie ayant des applications à la fois civiles et militaires pour garantir que son utilisation soit conforme aux lois de la guerre.

Lire l'histoire complète ici…

S'ABONNER
Notifier de
invité

1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Elle

Eh bien, Duh. Au moins, les employés ont été repoussés une fois qu'ils ont confirmé qu'ils étaient utilisés. Mais vraiment, pensez-y. Vous travaillez sur des composants d'IA pour des organisations connues contrôlées et financées par le gouvernement et vous ne pensez pas que le but ultime est de militariser cette technologie pour la machine de guerre? RÉVEIL, KIDDIES! Ils ne donnent pas de financement parce qu'ils sont gentils. Toute l'histoire du complexe gouvernement / armée / renseignement et ce qu'il finance est passée sous silence et oubliée par ceux qui ne veulent pas voir.