Un outil d’intelligence artificielle qui a révolutionné la capacité des ordinateurs à interpréter le langage de tous les jours s’est avéré présenter des préjugés racistes et sexistes frappants.
Les résultats soulèvent le spectre des inégalités sociales existantes et des préjugés renforcés de manière nouvelle et imprévisible, à mesure qu'un nombre croissant de décisions affectant notre vie quotidienne sont cédées à des automates.
Ces dernières années, la capacité de programmes tels que Google Translate d'interpréter le langage s'est considérablement améliorée. Ces gains ont été réalisés grâce aux nouvelles techniques d’apprentissage automatique et à la disponibilité de vastes quantités de données textuelles en ligne, sur lesquelles les algorithmes peuvent être formés.
Cependant, à mesure que les machines se rapprochent de l'acquisition de capacités langagières semblables à celles de l'homme, elles absorbent également les biais profondément enracinés cachés dans les schémas d'utilisation du langage, révèlent les dernières recherches.
Joanna Bryson, informaticienne à l'Université de Bath et co-auteure, a déclaré: «Beaucoup de gens disent que cela montre que l'IA a des préjugés. Non, cela montre que nous avons des préjugés et que l'IA est en train de l'apprendre. "
[the_ad id = "11018 ″]Bryson a toutefois averti que l'intelligence artificielle était susceptible de renforcer les biais existants, car contrairement aux humains, les algorithmes pourraient ne pas être équipés pour contrecarrer consciemment les biais appris. «Le danger serait que si vous disposiez d'un système d'IA ne comportant pas de partie explicite motivée par des idées morales, ce serait mauvais», a-t-elle déclaré.
La recherche, publiée dans le journal Les sciences, se concentre sur un outil d’apprentissage automatique appelé «incorporation de mots», qui transforme déjà la façon dont les ordinateurs interprètent la parole et le texte. Certains avancent que la prochaine étape naturelle de la technologie pourrait impliquer machines développant des capacités humaines telles que le sens commun et la logique.
«L’une des principales raisons pour lesquelles nous avons choisi d’étudier les techniques d’incorporation de mots est qu’elles ont permis aux ordinateurs de donner un sens au langage au cours des dernières années», a déclaré Arvind Narayanan, informaticien à l’Université de Princeton et auteur principal du document.
L’approche, qui est déjà utilisée dans la recherche sur le Web et la traduction automatique, fonctionne en construisant une représentation mathématique du langage, dans laquelle la signification d’un mot est distillée en une série de nombres (connue sous le nom de vecteur de mots) en fonction de quels autres mots. apparaissent le plus souvent à ses côtés. De manière peut-être surprenante, cette approche purement statistique semble capturer le riche contexte culturel et social de la signification d'un mot comme le ferait une définition du dictionnaire.
Les préjugés font partie de la condition humaine - nous nous associons à des personnes qui nous ressemblent, nous nous rassemblons en groupes qui nous ressemblent et qui ont nos opinions, nous voyons avec suspicion ceux qui ne le sont pas et qui ne le sont pas - c'est notre chemin d'évolution. C'est un autre point de clivage identifié par cette technocratie - c'est une insulte une tension placée sur le tissu même de qui nous sommes. Nous refuser nos différences et refuser de nous permettre de les célébrer est contraire à notre nature, nous cause une profonde détresse et viser ce qui... Lire la suite »