Les géants technocrates de Big Tech réalisent que l'IA est trop lourde pour agir seule, surtout lorsque les consortiums peuvent produire des outils utiles et des percées pour toutes les personnes concernées. Cependant, compte tenu des centaines de milliards dépensés pour le développement de l'intelligence artificielle, les résultats seront-ils entre des mains sur lesquelles la société peut se fier? ⁃ Éditeur TN
Google et Facebook s'associent pour que les technologies d'intelligence artificielle de chaque société fonctionnent mieux ensemble.
Les deux entreprises ont déclaré mardi qu'un nombre non déterminé d'ingénieurs collaboraient pour que le framework PyTorch de Facebook à apprentissage automatique open source fonctionne avec les puces informatiques personnalisées de Google destinées à l'apprentissage automatique, également appelées unités de traitement du tenseur (TPU). Cette collaboration constitue l’un des rares cas où les rivaux technologiques travaillent ensemble à des projets technologiques conjoints.
«Nous sommes heureux d'annoncer aujourd'hui que les ingénieurs de l'équipe TPU de Google collaborent activement avec les principaux développeurs de PyTorch pour connecter les TPU PyTorch au cloud», a déclaré Rajen Sheth, directeur de la gestion des produits chez Google Cloud. «L'objectif à long terme est de permettre à chacun de profiter de la simplicité et de la flexibilité de PyTorch tout en bénéficiant des performances, de l'évolutivité et de la rentabilité des TPU en nuage.»
Le chef de produit Facebook pour l'intelligence artificielle, Joseph Spisak, a déclaré dans un billet séparé: "Les ingénieurs de l'équipe Cloud TPU de Google collaborent activement avec notre équipe PyTorch afin de permettre la prise en charge des modèles PyTorch 1.0 sur ce matériel personnalisé".
Google a fait ses débuts avec ses TPU en 2016 au cours de son conférence annuelle des développeurs, et les présente comme un moyen plus efficace pour les entreprises et les chercheurs d’alimenter leurs projets de logiciels d’apprentissage automatique. Le géant de la recherche vend l’accès à ses TPU via son entreprise de cloud computing au lieu de vendre les puces individuellement à des clients comme Nvidia, dont les unités de traitement graphique, ou GPU, sont populaires auprès des chercheurs travaillant sur projets d'apprentissage en profondeur.
Les technologies d'intelligence artificielle telles que l'apprentissage en profondeur ont acquis une popularité croissante au fil des ans avec les géants technologiques tels que Google et Facebook qui les utilisent pour créer des applications logicielles capables d'effectuer automatiquement des tâches telles que reconnaître des images sur des photos.
À mesure que de plus en plus d'entreprises explorent les technologies d'apprentissage automatique, des sociétés telles que Google, Facebook et d'autres ont créé leurs propres frameworks logiciels d'IA, essentiellement des outils de codage, destinés à aider les développeurs à créer plus facilement leurs propres logiciels basés sur l'apprentissage automatique. Ces sociétés ont également offert gratuitement ces frameworks d'IA dans un modèle open source afin de les vulgariser auprès des codeurs.
Depuis quelques années, Google courtise les développeurs avec son soi-disant Cadre Tensorflow comme outils de codage préférés pour les projets d'intelligence artificielle, et il a développé ses TPU afin de fonctionner au mieux avec Tensorflow Le fait que Google soit disposé à mettre à jour ses TPU afin de fonctionner avec le logiciel PyTorch de Facebook montre que l'entreprise souhaite prendre en charge davantage que son propre environnement d'intelligence artificielle et potentiellement gagner plus de clients et de chercheurs en cloud computing susceptibles d'utiliser des frameworks concurrents.