L'ancien PDG de Google, Eric Schmidt, a comparé l'IA aux armes nucléaires et a appelé à un régime de dissuasion similaire à la destruction mutuellement assurée qui empêche les pays les plus puissants du monde de s'entre-détruire.
Schmidt a parlé des dangers de l'IA à l'Aspen Security Forum lors d'un panneau sur la sécurité nationale et l'intelligence artificielle le 22 juillet. Tout en répondant à une question sur la valeur de la moralité dans la technologie, Schmidt a expliqué qu'il avait lui-même été naïf quant au pouvoir de l'information aux débuts de Google. Il a ensuite appelé à ce que la technologie soit mieux conforme à l'éthique et à la morale des personnes qu'elle sert et a fait une comparaison bizarre entre l'IA et les armes nucléaires.
"Nous ne sommes pas prêts pour les négociations dont nous avons besoin." – @ericschmidt #AspenSécurité pic.twitter.com/As749t6ZyU
– Forum sur la sécurité d'Aspen (@AspenSecurity) 22 juillet 2022
Schmidt a imaginé un avenir proche où la Chine et les États-Unis devaient cimenter un traité autour de l'IA. "Dans les années 50 et 60, nous avons finalement élaboré un monde où il y avait une règle" sans surprise "sur les essais nucléaires et finalement ils ont été interdits", a déclaré Schmidt. "C'est un exemple d'équilibre de confiance, ou de manque de confiance, c'est une règle" sans surprises ". Je suis très préoccupé par le fait que la vision américaine de la Chine comme corrompue ou communiste ou autre, et la vision chinoise de l'Amérique comme défaillante… permettront aux gens de dire "Oh mon dieu, ils préparent quelque chose", puis de commencer une sorte de d'énigme. Commencez une sorte de chose où, parce que vous armez ou vous préparez, vous déclenchez ensuite l'autre côté. Nous n'avons personne qui travaille là-dessus et pourtant l'IA est si puissante.
L'IA et l'apprentissage automatique sont une technologie impressionnante et souvent mal comprise. Ce n'est, en grande partie, pas aussi intelligent que les gens le pensent. Il peut sortir œuvre d'art de niveau chef-d'œuvre, battre les humains à Starcraft II, et passer des appels téléphoniques rudimentaires pour les utilisateurs. Tente de lui faire faire des tâches plus compliquées, comme conduire une voiture dans une grande ville, ça ne va pas si bien.
Schmidt a imaginé un avenir proche où la Chine et les États-Unis auraient des problèmes de sécurité qui les obligeraient à conclure une sorte de traité de dissuasion autour de l'IA. Il parle des années 1950 et 60 lorsque la diplomatie a élaboré une série de contrôles autour des armes les plus meurtrières de la planète. Mais pour que le monde en arrive à instituer le Traité d'interdiction des essais nucléaires, SALT II, et d'autres textes législatifs historiques, il a fallu des décennies d'explosions nucléaires et, surtout, la destruction d'Hiroshima et de Nagasaki.
Les deux villes japonaises détruites par l'Amérique à la fin de la Seconde Guerre mondiale ont tué des dizaines de milliers de personnes et prouvé au monde l'horreur éternelle des armes nucléaires. Les gouvernements de la Russie et de la Chine se sont alors précipités pour acquérir les armes. La façon dont nous vivons avec la possibilité que ces armes soient utilisées passe par ce qu'on appelle la destruction mutuelle assurée (MAD), une théorie de la dissuasion qui garantit que si un pays lance une bombe nucléaire, il est possible que tous les autres pays le fassent aussi. Nous n'utilisons pas l'arme la plus destructrice de la planète en raison de la possibilité que cela détruise, à tout le moins, la civilisation autour du globe.
Malgré les commentaires colorés de Schmidt, nous ne voulons ni n'avons besoin de MAD pour l'IA. D'une part, l'IA ne s'est pas révélée aussi destructrice que les armes nucléaires. Mais les personnes en position de pouvoir peur de cette nouvelle technologie et, généralement, pour toutes les mauvaises raisons. Les gens ont même suggéré donner le contrôle des armes nucléaires à l'IA, théorisant qu'ils seraient de meilleurs arbitres de leur utilisation que les humains.
Le problème avec l'IA n'est pas qu'elle possède la force potentiellement destructrice mondiale d'une arme nucléaire. C'est que l'IA est seulement aussi bonne que les personnes qui l'ont conçue et qu'elles reflètent les valeurs de leurs créateurs. L'IA souffre du problème classique du "garbage in, garbage out" : les algorithmes racistes robots racistes, toute IA porte les préjugés de ses créateurs, et un chatbot formé sur 4chan devient vil.
C'est quelque chose de Demis Hassabis, le PDG de DeepMind, qui a formé l'IA qui bat Starcraft II joueurs – semble mieux comprendre que Schmidt. Dans une interview de juillet sur le podcast Lex Fridman, Fridman a demandé à Hassabis comment une technologie aussi puissante que l'IA pouvait être contrôlée et comment Hassabis lui-même pourrait éviter d'être corrompu par le pouvoir.
[…] Eric Schmidt : L'IA est aussi puissante que les armes nucléaires […]
[…] Eric Schmidt : L'IA est aussi puissante que les armes nucléaires […]
[…] SOURCE : ERIC SCHMIDT : L'IA EST AUSSI PUISSANTE QUE LES ARMES NUCLÉAIRES […]
[…] is wellicht de moeite om daar naar te luisteren. De hij de oplossing heeft, is een andere vraag. Technocracy News, dat het bericht van Vice heeft overgenomen, omschrijft de grote techspeler namelijk als een […]