Facebook crée une équipe d'éthique spéciale pour examiner les biais du logiciel d'intelligence artificielle

S'il vous plaît partager cette histoire!
Les programmes d'IA héritent des préjugés de leurs créateurs. Ainsi, les programmes de censure créés par Facebook contiennent déjà les germes d'une pensée et d'une éthique technocrates. Ces mêmes personnes sont-elles capables d'examiner leurs propres créations? ⁃ Éditeur TN

Plus que jamais, Facebook est sous pression pour prouver que ses algorithmes sont déployés de manière responsable.

Mercredi, lors de la conférence des développeurs F8, la société a révélé qu'elle avait formé une équipe spéciale et développé un logiciel discret permettant à ses systèmes d'intelligence artificielle de prendre des décisions aussi éthiquement que possible, sans préjugés.

Facebook, comme autres grandes entreprises de technologie avec des produits utilisés par des groupes nombreux et variés, est incorporant plus profondément AI dans ses services. Facebook a déclaré cette semaine qu'il commencerait à proposer de traduire les messages que les gens reçoivent via l'application Messenger. Les systèmes de traduction doivent d'abord être formés sur les données, et la poussée éthique pourrait aider à garantir que les systèmes de Facebook apprennent à donner des traductions équitables.

 «Nous regarderons en arrière et nous dirons:« C'est fantastique d'avoir pu être proactifs pour devancer ces questions et comprendre avant de lancer les choses ce qu'est l'équité pour un produit donné pour un groupe démographique »», Isabel Kloumann , un chercheur scientifique à Facebook, a déclaré à CNBC. Elle a refusé de dire combien de personnes sont dans l'équipe.

Facebook a déclaré que ces efforts n'étaient pas le résultat de changements intervenus au cours des sept semaines qui ont suivi la révélation que la firme d'analyse de données Cambridge Analytica abus des données personnelles des utilisateurs du réseau social avant l'élection de 2016. Mais il est clair que le sentiment du public envers Facebook est devenu dramatiquement négatif ces derniers temps, à tel point que le PDG Mark Zuckerberg dû passer des heures à poser des questions au Congrès le mois dernier.

Chaque annonce est maintenant sous un microscope.

Facebook n'a pas réussi à former un conseil axé sur l'éthique de l'IA, comme axone (anciennement Taser) l'a fait la semaine dernière. Mais ces changements s'alignent sur une reconnaissance plus large de l'industrie selon laquelle les chercheurs en IA doivent travailler pour rendre leurs systèmes inclusifs. Le groupe DeepMind AI d'Alphabet a formé un équipe éthique et société l'année dernière. Avant ça, Microsoft L’organisation de recherche a mis en place un groupe de transparence et d’éthique responsable en matière d’obligation de rendre compte

Le domaine de l'IA a eu son lot d'embarras, comme lorsque Google Photos avait été aperçu il y a trois ans. catégoriser les noirs en tant que gorilles.

L'année dernière, l'équipe de Kloumann a développé un logiciel appelé Fairness Flow, qui a depuis été intégré dans Facebook largement utilisé. FBLearner Flow logiciel interne facilitant la formation et l'exploitation des systèmes d'intelligence artificielle. Le logiciel analyse les données en tenant compte de leur format, puis produit un rapport les synthétisant.

Kloumann a déclaré qu'elle travaillait sur le thème de l'équité depuis son arrivée sur Facebook en 2016, juste au moment où les gens de l'industrie de la technologie ont commencé à en parler plus ouvertement et que des préoccupations sociétales ont émergé concernant le pouvoir de l'IA.

Lire l'histoire complète ici…

 

S'abonner
Notifier de
invité

0 Commentaires
Commentaires en ligne
Voir tous les commentaires