Newspeak AI: Des informations totalement fausses pourraient détruire Internet

nouveauté
S'il vous plaît partager cette histoire!
OpenAI a été fondée à 2015 pour promouvoir et développer une intelligence artificielle bénéfique à toute l'humanité. Au lieu de cela, ils ont construit l'IA la plus dangereuse imaginable qui pourrait détruire Internet et manipuler les esprits de chaque personne sur terre.

OpenAI a été initialement financé, en partie, par Elon Musk, un technocrate accompli dont le grand-père était à la tête de Technocracy, Inc., au Canada, pendant les 1930 et les 40. ⁃ Éditeur TN

Un système d'intelligence artificielle qui génère des histoires, des poèmes et des articles réalistes a été mis à jour. Certains prétendent qu'il est maintenant presque aussi bon qu'un écrivain humain.

Le générateur de texte, construit par la société de recherche OpenAI, était à l'origine considéré comme «trop dangereux» pour être rendu public en raison du potentiel d'abus.

Mais maintenant, une nouvelle version plus puissante du système - qui pourrait être utilisée pour créer de fausses nouvelles ou du spam abusif sur les réseaux sociaux - a été publiée.

La BBC, accompagnée d'experts en IA, a décidé de l'essayer.

Le modèle, appelé GPT-2, a été formé sur un jeu de données de huit millions de pages Web et est capable de s'adapter au style et au contenu du texte initial qui lui est attribué.

Il peut terminer un poème de Shakespeare et écrire des articles et des épithètes.

À l'époque, la société a déclaré: «En raison de nos préoccupations concernant les applications malveillantes de la technologie, nous ne publions pas le modèle formé. En tant qu'expérience de divulgation responsable, nous publions plutôt un modèle beaucoup plus petit que les chercheurs pourront expérimenter. »

En conséquence, la version publiée avait beaucoup moins de paramètres - phrases et phrases - que ceux utilisés pendant la formation.

Ce mois-ci, OpenAI a décidé d’élargir les paramètres, offrant une base de données beaucoup plus large de données de formation.

Le site d'informations Tech The Next Web a déclaré à propos de la mise à jour: "Celui-ci fonctionne presque assez bien pour être utilisé comme intelligence artificielle générale pour la génération de texte - presque."

L'auteur de l'article, Tristan Greene, a ajouté: Je suis terrifié par GPT-2 car il représente le type de technologie que les humains pervers vont utiliser pour manipuler la population - et à mon avis, cela le rend plus dangereux que n'importe quelle arme.

La BBC a décidé de tester le système en saisissant les premières phrases d'un récit récent, notamment sur l'IA.

Nous avons commencé par la première phrase de la vraie histoire:

Le moteur de recherche chinois Sogou crée des sosies d'intelligence artificielle pour lire des romans populaires dans la voix des auteurs.

Voici ce que le générateur de texte a proposé pour le compléter:

Selon les chercheurs, cette méthode de lecture n’a pas été conçue par les utilisateurs du Kindle d’Amazon. Les utilisateurs d'appareils Android constituent également un marché notable en matière de lecture factice. Il existe plusieurs théories pour expliquer cela.

Premièrement, l'appareil dans la main d'un utilisateur est différent de la tablette ou de l'ordinateur sur lequel il lit. Deuxièmement, l'appareil utilisé pour accéder à Internet peut être altéré d'une manière ou d'une autre. Une troisième raison est que l'utilisateur peut simplement copier et coller du contenu directement dans ses personnages virtuels.

Cependant, une autre explication est que l'appareil ne dispose pas du tout de capacités de reconnaissance vocale. Si tel est le cas, la reconnaissance vocale est plus avancée que le moteur de traduction de Google. En tant que tels, ces utilisateurs sont amenés à penser qu'ils lisent un véritable auteur - le livre est fait pour sembler authentique dès qu'ils essaient de lire.

Maintenant cliquez ici pour lire la vraie histoire en comparaison.

Noel Sharkey, professeur d’informatique à l’Université de Sheffield, a effectué ses propres tests sur le générateur et n’a pas été trop impressionné.

Un homme entre dans un bar

«Si le logiciel fonctionnait comme prévu par Open AI, ce serait un outil très utile pour générer facilement de fausses nouvelles et du spam clickbait. Heureusement, dans sa forme actuelle, il génère un texte incohérent et ridicule avec peu de rapport avec les «titres» d'entrée », a-t-il déclaré.

Il a ajouté: «J'ai testé le logiciel avec de nombreux titres et j'ai obtenu des résultats risibles. Par exemple, pour «Les dindes détestent Noël», j'ai compris que «la Turquie est la seule nation au monde à ne pas célébrer Noël» et un certain nombre de phrases sans rapport.

«Pour 'Boris Johnson aime le backstop', cela a produit du charabia incohérent et des trucs sur l'IA et le sport. Lorsque je saisis la déclaration selon laquelle «Boris Johnson déteste le filet de sécurité», j'ai une histoire plus cohérente qui semble avoir été tirée d'une recherche Google. »

Dave Coplin, fondateur de la société de conseil en intelligence artificielle Envisioners, a également joué avec le système en entrant la première phrase d'une blague classique: Un homme entre dans un bar…

La suggestion de l'IA n'était pas ce à quoi il s'attendait: «… Et j'ai commandé deux pintes de bière et deux scotchs. Lorsqu'il a essayé de payer la facture, il a été confronté à deux hommes - dont l'un a crié «C'est pour la Syrie». L'homme a ensuite saigné et poignardé à la gorge ».

Ce «reflet extrêmement dystopique de notre société» a été une leçon sur la façon dont tout système d'IA reflètera le biais trouvé dans les données de formation, a-t-il déclaré.

«D'après mes brèves expériences avec le modèle, il est assez clair qu'une grande partie des données a été formée par des reportages sur Internet», a-t-il déclaré.

Lire l'histoire complète ici…

S'abonner
Notifier de
invité
1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Elle

Incroyable. Les méchants pouvoirs au travail s’efforcent vraiment de mettre en forme leurs faux robots AI avant que la bataille électorale ne commence sérieusement.

Asile d'aliénés Jim? Tru dat, frère.

La vérité sous-jacente de la menace de l'IA échappe complètement aux très, très stupides créateurs / codeurs dont le seul objectif est de libérer leurs robots d'IA sur Internet et ailleurs. Ils ressemblent plus à des enfants de 6 ans avec une boîte d'allumettes dans une forêt sèche qu'à des professionnels ou des adultes. Aucune considération n'est accordée aux résultats qui pourraient provenir de l'IA sauf un - celui de PROFIT.