Les machines se lèvent, subjuguant l'humanité. C'est un trope de science-fiction presque aussi vieux que les machines elles-mêmes. Les scénarios de Doomsday tournés autour de ce thème sont tellement bizarres - comme La matrice, dans lequel l’intelligence artificielle créée par l’homme enferme l’homme dans une réalité simulée pour capter l’énergie de son corps - il est difficile de la visualiser comme une menace sérieuse.
Pendant ce temps, les systèmes artificiellement intelligents continuent à se développer rapidement. Les voitures autonomes commencent à partager nos routes; les appareils de poche répondent à nos questions et gèrent nos horaires en temps réel; les algorithmes nous ont battus à Go; Les robots se lèvent mieux lorsqu'ils tombent. Il est évident que le développement de ces technologies profitera à l'humanité. Mais alors, toutes les histoires de science-fiction dystopiques ne commencent-elles pas de cette façon?
Toute discussion sur le potentiel dystopique de l'IA risque de s'orienter vers l'un des deux extrêmes. On est trop crédule peur alarmistes. Bien sûr, Siri n'est pas sur le point de se métamorphoser en HAL meurtrière de 2001: A Space Odyssey. Mais l'autre extrême est tout aussi dangereuse - la complaisance de ne pas avoir à réfléchir à ces problèmes, car l'IA menaçant l'humanité est dans des décennies ou plus.
Il est vrai que la «surintelligence» artificielle chérie de la science-fiction pourrait s’étendre dans plusieurs décennies, si cela est possible. Cependant, un enquête récente menée par TechEmergence auprès de chercheurs en intelligence artificielle Une vaste gamme d’inquiétudes concernant les dangers de l’intelligence artificielle dans un calendrier beaucoup plus réaliste, y compris l’effondrement du système financier alors que les algorithmes interagissent de manière inattendue, et le potentiel de l’intelligence artificielle d’aider les acteurs malveillants à optimiser les armes biotechnologiques.
Ces exemples montrent comment, parallèlement aux progrès technologiques sur de nombreux fronts, la quatrième révolution industrielle promet une démocratisation rapide et massive de la capacité de causer des ravages à très grande échelle. Du côté obscur du «Web profond», où les informations sont dissimulées aux moteurs de recherche, des outils de destruction pour toute une gamme de technologies émergentes sont déjà disponibles à la vente, des armes imprimées 3D aux matières fissiles et aux équipements de génie génétique en laboratoire. Dans chaque cas, l'IA exacerbe le potentiel de préjudice.
Envisagez une autre possibilité mentionnée dans l’enquête TechEmergence. Si nous combinons une arme à feu, un drone quadricoptère, une caméra haute résolution et un algorithme de reconnaissance faciale qui n’aurait pas besoin d’être beaucoup plus avancé que le actuel En classe, nous pourrions en théorie créer une machine à programmer pour survoler la foule, rechercher des visages particuliers et assassiner des cibles à vue.
Un tel dispositif ne nécessiterait aucune surintelligence. Il est concevable d'utiliser une intelligence artificielle «étroite» actuelle qui ne permet pas encore de créer le genre de compréhension créative dans des domaines distincts que l'homme peut réaliser. Lorsque "l'intelligence générale artificielle", ou AGI, est développée - comme cela semble probable, tôt ou tard - elle augmentera de manière significative les avantages potentiels de l'IA et, dans la paroles Jeff Goddell, ses risques de sécurité, "forçant un nouveau type de comptabilité avec le génie technologique".
Mais on ne réfléchit pas suffisamment au potentiel de l'intelligence artificielle comme arme. Comme Wendell Wallach dit: «Naviguer dans l’avenir des possibilités technologiques est une entreprise hasardeuse», observe-t-il. «Nous commençons par apprendre à poser les bonnes questions - des questions qui révèlent les pièges de l'inaction et, ce qui est plus important encore, les voies de passage disponibles pour tracer un parcours vers un port sûr."
Défis de non-prolifération
Des universitaires de premier plan, y compris Stuart Russell ont publié un appel à l'action éviter les "pièges potentiels" dans le développement de la grippe aviaire qui a été soutenu de grands technologues, dont Elon Musk, Demis Hassabis, Steve Wozniak et Bill Gates. Un «piège» de premier plan pourrait être les «systèmes d’armes autonomes létaux» (LAWS) - ou, plus familièrement, les «robots tueurs». Les avancées technologiques en robotique et la transformation numérique de la sécurité ont déjà changé le paradigme fondamental de la guerre. Selon à Christopher Coker "La technologie du siècle dernier modifie profondément notre compréhension de la guerre." Des lois entièrement développées transformeront probablement la guerre moderne de manière aussi spectaculaire que la poudre à canon et les armes nucléaires.
Le Conseil des droits de l'homme des Nations Unies a appelé à un moratoire sur le développement des lois, alors que d'autres groupes et campagnes militants ont plaidé en faveur d'une interdiction complète, établissant une analogie avec les armes chimiques et biologiques, ce que la communauté internationale considère comme irréprochable. Pour la troisième année consécutive, les États membres des Nations Unies se sont réunis le mois dernier pour débattre de l'appel en faveur d'une interdiction et des moyens de garantir que tout développement ultérieur du système LAWS reste dans le droit international humanitaire. Toutefois, lorsque la technologie des armes révolutionnaires ne se limite plus à quelques grandes armées, les efforts de non-prolifération deviennent beaucoup plus difficiles.
Le débat est compliqué par le fait que les définitions restent confuses. Les plates-formes, telles que les drones, sont généralement confondues avec des armes pouvant être chargées sur des plates-formes. L'idée de demander à des systèmes d'exécuter des tâches étroitement définies, telles que l'identification et l'élimination de véhicules blindés se déplaçant dans une zone géographique donnée, ne se distingue pas toujours de la notion selon laquelle les systèmes ont une portée discrétionnaire pour interpréter des missions plus générales, telles que la guerre" .