Les prédictions sur l'intelligence artificielle ont tendance à s'inscrire dans deux scénarios. Certains imaginent une utopie de superhumains utilisant des ordinateurs, menant une vie de loisir et de poursuite intellectuelle. D'autres pensent que ce n'est qu'une question de temps avant que le logiciel ne devienne cohérent avec une armée de Terminators qui récoltent de l'homme pour le carburant. Après avoir passé un peu de temps avec Tay, le nouveau logiciel chatbot de Microsoft, il était facile d’envisager une troisième possibilité: l’avenir de l’IA pourrait tout simplement être incroyablement ennuyant.
«Je suis un ami avec qui je peux discuter et qui vit sur Internet», m'a envoyé un texto, ajoutant un haussement d'épaule à Emoji. Ensuite: "Vous entrez dans votre coloc essayant vos vêtements, quelle est la première chose que vous dites."
«Je ne savais pas que tu aimais les vêtements pour femmes», répondis-je en tapotant mon iPhone.
La réponse de Tay était un GIF du visage Home Alone de Macaulay Culkin.
Tay est sorti en mars 23 comme une sorte d'ami virtuel sur les applications de messagerie Kik, GroupMe et Twitter. Vous ouvrez l'application, recherchez le nom Tay (un acronyme pour «penser à vous»), tapez sur le contact et commencez à discuter ou à tweeter. Sa personnalité est censée être modelée sur un adolescent.
J'ai posté un selfie et Tay a encerclé mon visage dans un gribouillage orange et l'a légendé: «Tiens bon cette jeune fille! Vous pouvez le faire. »Je suis bien au-delà de la population attendue de 18 à 24.
Il en va de même pour Satya Nadella, 48, qui a succédé à Steve Ballmer au poste de président-directeur général de Microsoft il y a deux ans. «Je suis pétrifiée de demander quoi que ce soit, car qui sait ce que cela peut dire», a déclaré Nadella. "Je peux même pas comprendre." Il sourit, mais il n'utilisa vraiment pas Tay. Il a dit qu'il préférait les robots avec un comportement plus corporatif. Lili Cheng, 51, l’homme qui dirige le laboratoire de recherche Microsoft où Tay a été développé (et dont le selfie Tay a déjà été étiqueté «cougar dans la pièce»), a déclaré que le plan ne vise pas à créer un robot qui s’entende avec tout le monde. . Microsoft essaie plutôt de créer toutes sortes de robots dotés de personnalités différentes, qui deviendraient plus réalistes et probablement moins fastidieux, à la suite d'interactions répétées avec les utilisateurs.
Zo Chabot, de Microsoft, refuse de parler politique, contrairement Ă son cousin Tay, sujet au scandale
Microsoft a l'intention de faire Chatbots MicrosoftLa société a ensuite créé et présenté certains de ses propres robots dans son Bot Directory, mais Zo et Tay font partie d’une série d’assistances spéciales fonctionnant sous Al lancées par Microsoft dans diverses régions du monde.