Au Japon, l'IA peut apprendre de n'importe quelle source de données, même illégale

Youtube
S'il vous plaît partager cette histoire!
L'IA n'est rien d'autre qu'une taie d'oreiller vide sans les données qu'elle utilise pour "apprendre". Quelqu'un demande-t-il d'où viennent toutes ces données ? Ou demandez-vous s'il est éthique ou légal de le faire ? Sans les flux massifs de données provenant d'Internet, il n'y aurait pas d'IA. Une fois que ces données sont "volées" pour l'apprentissage, elles ne peuvent pas être désapprises.⁃ TN Editor

Alors que d'autres pays se demandent où freiner le développement de l'IA, le Japon va de l'avant à toute vapeur, le gouvernement ayant récemment annoncé qu'aucune donnée ne serait interdite pour l'IA.

Lors d'une récente réunion, Keiko Nagaoka, ministre japonaise de l'Éducation, de la Culture, des Sports, de la Science et de la Technologie, confirmé qu'aucune loi, y compris la loi sur le droit d'auteur, n'empêchera les IA d'accéder aux données dans le pays.

Les IA seront autorisées à utiliser les données à des fins de formation, "que ce soit à des fins non lucratives ou commerciales, qu'il s'agisse d'un acte autre que la reproduction, ou qu'il s'agisse de contenu obtenu à partir de sites illégaux ou autrement", a déclaré Nagaoka.

La décision est un coup dur pour les titulaires de droits d'auteur qui soutiennent que l'IA utilisant leur propriété intellectuelle pour produire de nouveaux contenus sape le concept même de droit d'auteur. Le problème a déjà émergé dans l'ouest - une chanson générée par l'IA utilisant la voix de Drake et The Weeknd est allée viral sur les services de streaming en avril, avant d'être rapidement supprimé.

En Occident, une grande partie du discours autour de l'IA se concentre sur les dommages potentiels. Les dirigeants de l'IA ont récemment averti les gouvernements que le développement de la technologie s'accompagne d'un "risque d'extinction», tandis que les entreprises de presse s'inquiéter des deepfakes et "désinformation".

Les régulateurs de gauche de l'administration Biden à la FTC, quant à eux, craignent que des données «historiquement biaisées» (telles que des données sur la criminalité avec des déséquilibres raciaux) ne soient conduire à des résultats qui entrent en conflit avec les « droits civils ». Merci beaucoup agitateurs de gauche à l'ouest veulent couper les IA de ces données.

Il n'y aura pas de telles restrictions au Japon, si le gouvernement s'en tient à la politique définie par Nagaoka.

Lire l'histoire complète ici…

À propos de l'éditeur

Patrick Wood
Patrick Wood est un expert de premier plan et critique sur le développement durable, l'économie verte, l'Agenda 21, l'Agenda 2030 et la technocratie historique. Il est l'auteur de Technocracy Rising: The Trojan Horse of Global Transformation (2015) et co-auteur de Trilaterals Over Washington, Volumes I and II (1978-1980) avec le regretté Antony C. Sutton.
S'abonner
Notifier de
invité

1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
DawnieR

UNE MACHINE (ordinateur) NE PEUT PAS "APPRENDRE" !!!! PÉRIODE!
UNE MACHINE EST PROGRAMMÉE, et FAIT ce qu'elle EST PROGRAMMÉE POUR FAIRE ! NI PLUS NI MOINS! LA FIN!