Experts: la seule défense contre l'IA tueur ne la développe pas

S'il vous plaît partager cette histoire!
L'IA tueuse hors de contrôle en guerre est inévitable car elle deviendra trop complexe pour la gestion et le contrôle humains. La seule vraie solution est de ne pas le développer en premier lieu. ⁃ Éditeur TN

Une analyse récente sur l'avenir de la guerre indique que les pays qui continuent à développer l'IA à des fins militaires risquent de perdre le contrôle du champ de bataille. Ceux qui ne risquent pas l'éradication. Que vous soyez pour ou contre la course aux armements de l'IA: ça se passe. Voici ce que cela signifie, selon un trio d'experts.

Des chercheurs de ASRC Fédéral, une entreprise privée qui fournit un soutien aux communautés du renseignement et de la défense, et l’Université du Maryland a récemment publié un document sur le serveur de pré-impression ArXivdiscuter des ramifications potentielles de l'intégration des systèmes d'IA dans la guerre moderne.

Le papier - lire ici - se concentre sur les conséquences à court terme pour la course aux armements de l'IA, en partant du principe que pas en quelque sorte courir amok ou prise de contrôle. En bref, il s’agit d’un bref aperçu, sobre et terrifiant, de la manière dont toutes ces technologies d’apprentissage automatique se dérouleront en se basant sur l’analyse des technologies de pointe en matière d’intelligence artificielle militaire et sur l’intégration prédite à grande échelle.

Le document commence par un avertissement sur une catastrophe imminente, expliquant qu'il y aura presque certainement un «accident normal» concernant l'IA - un incident attendu dont la nature et l'ampleur ne peuvent être prédites. Fondamentalement, les armées du monde vont casser des œufs de civils, faisant de l'omelette de la course aux armes de l'IA:

L’étude de ce domaine a commencé par des accidents tels que Three Mile Island, mais les technologies de l’IA comportent des risques similaires. Trouver et exploiter ces faiblesses pour induire un comportement défectueux deviendra un élément permanent de la stratégie militaire.

Si vous pensez que des robots tueurs fouillent dans nos villes alors que des civils crient à la recherche d'un abri, vous n'avez pas tort. Mais les robots, en tant que mandataires des soldats, ne sont pas la plus grande préoccupation de l'humanité en matière de guerre contre l'IA. Cet article discute de ce qui se passe après que nous ayons atteint le point où il devient évident que des humains bloquent des machines dans la guerre.

Selon les chercheurs, le problème ne peut pas être qualifié de bon ou mauvais. Bien sûr, il est facile de dire que nous ne devrions pas permettre aux robots d'assassiner des êtres humains avec autonomie, mais ce n'est pas ainsi que le processus décisionnel du futur fonctionnera.

Les chercheurs la décrivent comme une pente glissante:

Si les systèmes d'IA sont efficaces, les pressions pour augmenter le niveau d'assistance au combattant seraient inévitables. Un succès continu signifierait pousser progressivement l'humain hors de la boucle, d'abord dans un rôle de supervision, puis enfin dans celui d'un «opérateur de commutateurs de réponses» surveillant une loi permanente.

Les LOIS, ou systèmes d'armes autonomes mortels, vont presque immédiatement dépasser la capacité des humains à travailler avec des ordinateurs et des machines - et probablement plus tôt que la plupart des gens ne le pensent. Le combat au corps à corps entre machines, par exemple, sera entièrement autonome par nécessité:

Au fil du temps, alors que l'intelligence artificielle devient plus capable de penser et d'intégrer la pensée, la composante humaine devra être complètement éliminée car la vitesse et la dimensionnalité deviennent incompréhensibles, même en tenant compte de l'assistance cognitive.

Et, à terme, la tactique et la réactivité nécessaires pour échanger des coups avec l'IA iront totalement au-delà des capacités de l'homme:

Dans un espace de combat si accablant que les êtres humains ne peuvent plus dialoguer manuellement avec le système, son rôle sera limité à une analyse médico-légale post-hoc, une fois les hostilités terminées ou les traités signés.

Si cela semble un peu sinistre, c'est parce que ça l'est. Comme Importer des IA Jack Clark fait remarquer: «C’est un document rapide qui expose les préoccupations d’AI + War dans une communauté que nous n’entendons pas souvent: des personnes qui travaillent en tant que fournisseurs directs de la technologie gouvernementale.»

Il serait peut-être dans l’intérêt de tous d’accorder une attention particulière à la manière dont les universitaires et le gouvernement continuent de définir le problème à l’avenir.

Lire l'histoire complète ici…

S'abonner
Notifier de
invité
2 Commentaires
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Elle

Je suis toujours étonné de voir comment une «étude» doit être menée pour «déterminer» les probabilités de l'action (s) très évidente (s) à venir. Eh bien, DUH! sur le front de l'IA, les garçons. Cela me rappelle d'avoir été invité à dîner par l'épouse du PDG d'une entreprise de marketing. Je le définis comme tel parce que c'est tout ce dont il a parlé. Pendant le repas, il parlait indéfiniment de sa compagnie, ad nauseum pour nous tous. Quand finalement, il a atteint le but. Il a déclaré à la table que son entreprise `` incroyable '' avait reçu 4 millions de dollars pour savoir pourquoi les gens en avaient choisi une... Lire la suite »