Des chercheurs font face à des réactions négatives de groupes LGBTQ au cours d'une étude sur l'IA

S'il vous plaît partager cette histoire!

La protestation la plus violente contre l'identification des homosexuels par l'IA est venue de la communauté LGBTQ elle-même, la dénigrant comme une `` science indésirable '' et bidon. Je suppose que certains des pays où la charia est intégrée aimeraient utiliser cette technologie.  Éditeur TN

Une étude virale qui a révélé L'intelligence artificielle pourrait deviner avec précision si une personne est gay ou hétéro en se basant sur son visage et reçoit une réaction violente de la part des groupes de défense des droits des LGBTQ.

L'étude, menée par des chercheurs de l'Université de Stanford, a révélé que l'IA distinguait correctement les hommes homosexuels des hommes hétérosexuels 81 pour cent et 74 pour cent des femmes.

Les avocats ont qualifié la recherche de "science scientifique", affirmant que non seulement la technologie pouvait exclure les personnes, mais qu'elle pouvait aussi mettre leur vie en danger - en particulier dans des régimes brutaux qui considèrent l'homosexualité comme un délit punissable.

«À une époque où les groupes minoritaires sont ciblés, ces conclusions imprudentes pourraient servir d'arme pour nuire aux hétérosexuels mal informés, ainsi qu'aux gays et lesbiennes qui se trouvent dans des situations où sortir est dangereux», a déclaré Jim Halloran, chef de GLAAD. Responsable numérique, a écrit dans une déclaration conjointe de GLAAD et de The Human Rights Campaign.

Cependant, l’auteur de l’étude ne partage pas cette critique, affirmant que ce type de technologie existe déjà et que ses recherches visaient à mettre au jour des failles de sécurité et à mettre au point des protections afin que personne ne puisse les utiliser à mauvais escient.

«Une de mes obligations en tant que scientifique est que, si je sais quelque chose qui puisse potentiellement protéger les personnes contre de tels risques, je devrais le publier», a déclaré Michal Kosinksi, co-auteur de l'étude, dit le Guardian. Il a ajouté que discréditer ses recherches ne permettrait pas de protéger les personnes LGBTQ des conséquences potentiellement mortelles de ce type de technologie.

Les défenseurs ont également appelé l'étude pour ne pas regarder les personnes bisexuelles et transgenres ou les personnes de couleur. Les chercheurs ont rassemblé des images 130,741 d'hommes et de femmes issus de profils publics sur un site de rencontres pour analyse par l'IA, qui étaient tous de race blanche. Alors que Kosinksi et son co-auteur ont reconnu que le manque de diversité dans l'étude était un problème, ils n'ont pas précisé le site de rencontre qu'ils ont consulté et ont affirmé qu'ils ne pourraient pas trouver suffisamment de gays non blancs.

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

0 Commentaires
Commentaires en ligne
Voir tous les commentaires