Les boosters d'intelligence artificielle prédisent un nouveau monde courageux de voitures volantes et de remèdes contre le cancer. Les détracteurs s'inquiètent d'un avenir où les humains sont esclaves d'une race maléfique de seigneurs robotiques. Le scientifique vétéran de l'IA Eric Horvitz et le gourou de Doomsday Clock Lawrence Krauss, à la recherche d'un terrain d'entente, ont réuni un groupe d'experts dans le désert de l'Arizona pour discuter du pire qui pourrait arriver - et comment l'arrêter.
Leur atelier a eu lieu le week-end dernier à l'Arizona State University avec un financement du co-fondateur de Tesla Inc., Elon Musk et du co-fondateur de Skype, Jaan Tallinn. Officiellement surnommé «Envisioning and Addressing Adverse AI Outcomes», il s'agissait d'une sorte de jeu apocalyptique de l'IA qui a organisé une quarantaine de scientifiques, d'experts en cybersécurité et de politiciens en groupes d'attaquants - l'équipe rouge - et de défenseurs - l'équipe bleue - jouant l'IA - des scénarios très faux, allant de la manipulation boursière à la guerre mondiale.
Horvitz est optimiste - une bonne chose parce que l'intelligence artificielle est l'œuvre de sa vie - mais d'autres soutiens plus dystopiques du projet ont semblé trouver ses perspectives trop positives lorsque les plans pour cet événement ont commencé il y a environ deux ans, a déclaré Krauss, un théoricien. physicien qui dirige le projet Origins de l'ASU, le programme qui dirige l'atelier. Pourtant, Horvitz a déclaré que pour que ces technologies progressent avec succès et gagnent la confiance du public, toutes les préoccupations doivent être pleinement exprimées et traitées.
«L'IA a un énorme potentiel pour transformer tant d'aspects de notre société de tant de façons. En même temps, il y a des aspérités et des inconvénients potentiels, comme toute technologie », a déclaré Horvitz, directeur général du laboratoire de recherche de Microsoft à Redmond, Washington. «Pour profiter au maximum de la hausse, nous devons également réfléchir aux résultats possibles plus en détail qu'auparavant et réfléchir à la manière dont nous les traiterions.»
Les participants ont eu des «devoirs» pour soumettre des candidatures pour les pires scénarios. Ils devaient être réalistes - sur la base des technologies actuelles ou de celles qui semblent possibles - et de cinq à 25 ans dans le futur. Les participants aux cauchemars «gagnants» ont été choisis pour diriger les panels, qui comprenaient environ quatre experts de chacune des deux équipes pour discuter de l'attaque et comment l'empêcher.