Mise à jour: Google annule le panneau d'éthique d'Amnesty International après un tumulte

Wikimedia Commons
S'il vous plaît partager cette histoire!
Le panel d'éthique de Google a été envahi par des milliers de non-participants (contraires à l'éthique?) Attaquant des membres individuels de son panel d'éthique. Le résultat a été un chaos total, des démissions et finalement, l'annulation du tout. La Big Tech et l'éthique approchent du statut oxymoronique. ⁃ Éditeur TN

Cette semaine, Vox et d’autres points de vente rapporté Le comité d'éthique de l'IA, nouvellement créé par Google, était en train de s'effondrer sous la controverse de plusieurs membres du conseil.

Eh bien, c'est officiellement fini de s'effondrer - ça a été annulé. Jeudi, Google a déclaré à Vox que le comité d'éthique se débrouillait.

Le conseil a survécu à peine plus d'une semaine. Fondée pour guider «le développement responsable de l'intelligence artificielle» chez Google, elle aurait réuni huit membres et se serait réunie quatre fois au cours de 2019 pour examiner les préoccupations relatives au programme d'IA de Google. Ces préoccupations incluent la manière dont l'IA peut permettre aux États autoritaires, la manière dont les algorithmes d'IA produisent des résultats disparates, le fait de travailler ou non sur des applications militaires de l'IA, etc. Mais il a rencontré des problèmes dès le début.

Des milliers d’employés de Google ont signé un pétition demandant le renvoi Kay Coles James, présidente de la Heritage Foundation, a commenté les propos des personnes transgenres et le scepticisme de son organisation à l’égard des changements climatiques. Dyan Gibbens, PDG de la société drone, a rouvert ses anciennes divisions au cours de la utilisation de l'IA de la société pour des applications militaires.

Membre du conseil Alessandro Acquisti démissionné. Une autre membre, Joanna Bryson, défendant sa décision de ne pas démissionner, réclamé de James, "Croyez-le ou non, je connais pire chose sur l'une des autres personnes." D'autres membres du conseil se sont retrouvés submergé avec des demandes qu'ils justifient leur décision de rester sur le conseil.

Jeudi après-midi, un porte-parole de Google a déclaré à Vox que la société avait décidé de dissoudre entièrement le groupe, appelé Conseil consultatif externe sur les technologies de pointe (ATEAC). Voici la déclaration de l'entreprise dans son intégralité:

Il est devenu évident que dans l'environnement actuel, ATEAC ne peut pas fonctionner comme nous le souhaitions. Nous terminons donc le conseil et retournons à la table à dessin. Nous continuerons d'être responsables de notre travail sur les questions importantes soulevées par l'intelligence artificielle et trouverons différents moyens d'obtenir des avis extérieurs sur ces sujets.

Le panel était censé ajouter des perspectives extérieures au travail en cours sur l'éthique de l'IA des ingénieurs de Google, qui se poursuivront toutes. Espérons que l'annulation du conseil ne représente pas une retraite du travail de Google sur l'éthique de l'IA, mais une opportunité de réfléchir à la manière d'engager de manière plus constructive des parties prenantes externes.

Le conseil devenait un énorme handicap pour Google

La crédibilité du conseil a d’abord été durement entachée quand Alessandro Acquisti, chercheur en protection de la vie privée a annoncé sur Twitter qu'il démissionnait, affirmant: «Bien que je sois consacré à la recherche aux prises avec des questions éthiques clés d'équité, de droits et d'inclusion dans l'IA, je ne pense pas que ce soit le bon forum pour moi pour m'engager dans ce travail important.

Pendant ce temps, le pétition pour retirer Kay Coles James a attiré plus de signatures 2,300 d'employés de Google jusqu'à présent et n'a montré aucun signe de perte de vitesse.

Alors que la colère à propos du conseil s'intensifiait, les membres du conseil ont été entraînés dans de longs débats éthiques sur les raisons pour lesquelles ils siégeaient au conseil, ce qui ne pouvait pas être ce que Google espérait. Sur Facebook, Luciano Floridi, membre du conseil d’administration, philosophe en éthique à Oxford, a écrit:

Demander l'avis de [Kay Coles James] était une grave erreur et envoie un message erroné sur la nature et les objectifs de l'ensemble du projet ATEAC. D'un point de vue éthique, Google a mal jugé ce que signifie avoir des opinions représentatives dans un contexte plus large. Si Mme Coles James ne démissionne pas, comme je l'espère, et si Google ne la supprime pas (https://medium.com/…/googlers-against-transphobia-and-hate-…), comme je l’ai personnellement recommandé, la question est la suivante: quelle est la bonne attitude morale à adopter face à cette grave erreur?

Il a finalement décidé de rester sur le panel, mais ce n'était pas le genre de débat éthique que Google espérait susciter - et il devenait difficile d'imaginer que les deux travaillent ensemble.

Ce n'était pas le seul problème. je argumenté il y a un jour À part l'indignation, le conseil d'administration n'était pas bien préparé pour le succès. Les comités d'éthique de l'IA tels que ceux de Google, très en vogue dans la Silicon Valley, semblent en grande partie ne pas être équipés pour résoudre, ni même faire avancer, des questions difficiles concernant les progrès de l'éthique de l'IA.

Un membre du conseil d'administration de Google sur l'IA était une position impayée et impuissante qui ne permet pas, en quatre réunions au cours d'une année, de bien comprendre tout ce que Google fait, sans parler de fournir des conseils nuancés à ce sujet. Il y a des questions éthiques urgentes à propos du travail d'IA sur Google, et aucune solution réelle permettant au conseil d'administration de les traiter de manière satisfaisante. Dès le départ, il était mal conçu pour l'objectif.

Maintenant, il a été annulé.

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

0 Commentaires
Commentaires en ligne
Voir tous les commentaires