Découverte de Google AI: Deep Mind peut apprendre sans intervention humaine

S'il vous plaît partager cette histoire!

Google se situe au premier rang des entreprises à la recherche d'une technocratie mondiale et leur volonté d'IA autonome menace le noyau même de la société mondiale. La menace est réelle, mais peu de citoyens comprennent la complexité de cette technologie.  Éditeur TN

Il n'y a pas si longtemps, la maîtrise de l'ancien jeu chinois de Go était hors de portée des intelligence artificielle. Mais alors AlphaGo, le lecteur d'intelligence artificielle de Google DeepMind, commencé à partir même les meilleurs adversaires humains dans la poussière. Pourtant, même cette IA qui battait le monde avait besoin que les humains apprennent. Mercredi, la nouvelle version de DeepMind a complètement laissé tomber les gens.

AlphaGo Zero a surpassé les capacités de son prédécesseur, en contournant la méthode d'apprentissage traditionnelle d'IA, qui consiste à regarder des milliers d'heures de jeu humain. Au lieu de cela, il commence simplement à jouer au hasard, perfectionnant ses compétences en jouant à plusieurs reprises contre lui-même. Trois jours et plus de millions de jeux 4.9 plus tard, le résultat est la meilleure intelligence artificielle au monde.

«Il est plus puissant que les approches précédentes car nous avons supprimé les contraintes de la connaissance humaine», déclare David Silver, chercheur principal d'AlphaGo.

"L'humanité a accumulé des connaissances sur Go grâce à des millions de jeux joués au cours de milliers d'années", écrivent les auteurs dans leur article. "En l'espace de quelques jours ... AlphaGo Zero a été en mesure de redécouvrir une grande partie de cette connaissance de Go, ainsi que de nouvelles stratégies qui fournissent de nouvelles informations sur les jeux les plus anciens."

L'approche alternative d'AlphaGo Zero lui a permis de découvrir des stratégies que l'homme n'a jamais trouvées. Par exemple, il a appris de nombreuses josekis différentes, des séquences de mouvements qui ne génèrent aucune perte nette pour aucun des deux camps. Beaucoup de josekis ont été écrits au cours des milliers d'années où Go a été joué. Au départ, AlphaGo Zero a appris bon nombre des plus connus. Mais à mesure que son auto-apprentissage se poursuivait, il a commencé à privilégier des séquences auparavant inconnues.

Pour tester ces nouveaux mouvements, DeepMind a opposé AlphaGo Zero à la version qui a battu le champion du monde de 18, Lee Sedol. Dans un jeu 100 match de rancune, il a gagné 100-0. Ceci en dépit de seulement une formation de trois jours, comparée à plusieurs mois pour son prédécesseur. Après des jours d’entraînement sur 40, il a également remporté le 89-11 contre une meilleure version d’AlphaGo qui avait battu le numéro un mondial, Ke Jie (NatureDOI: 10.1038 / nature24270).

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

0 Commentaires
Commentaires en ligne
Voir tous les commentaires