Les algorithmes peuvent mentir et être trompés, mais peuvent-ils être arrêtés?

S'il vous plaît partager cette histoire!

Cet article incontournable mérite un grand bravo à son auteur, Cathy O'Neill, qui soulève enfin les bonnes questions sur l'IA, ses risques intentionnels et involontaires et les vies qui pourraient être ruinées à cause d'elle. Qui a dit que les jeunes ne pouvaient pas ou ne pouvaient pas «comprendre»?  Éditeur TN

Les algorithmes peuvent déterminer si vous contractez une hypothèque ou combien vous payez pour une assurance. Mais parfois, ils ont tort - et parfois, ils sont conçus pour tromper.

Beaucoup d'algorithmes vont mal mal involontairement. Certains d'entre eux, cependant, sont faits pour être criminels. Les algorithmes sont des règles formelles, généralement écrites en code informatique, qui permettent de prédire des événements futurs en fonction de modèles historiques. Pour former un algorithme, vous devez fournir des données historiques ainsi qu'une définition du succès.

Nous avons vu la finance se faire prendre en charge par des algorithmes au cours des dernières décennies. Les algorithmes de trading utilisent des données historiques pour prédire les mouvements du marché. Le succès de cet algorithme est un mouvement de marché prévisible, et l'algorithme est vigilant quant aux tendances observées historiquement juste avant ce mouvement. Les modèles de risque financier utilisent également les évolutions historiques du marché pour prédire les événements cataclysmiques dans un sens plus global, donc non pour un titre en particulier, mais pour un marché entier. Le modèle de risque pour les titres adossés à des créances hypothécaires était notoirement mauvais - intentionnellement - et la confiance dans ces modèles peut être mise en cause une grande partie de l'ampleur et des dommages causés par la crise financière 2008.

[the_ad id = "11018 ″]

Depuis 2008, nous avons moins entendu parler des algorithmes de la finance et beaucoup plus des algorithmes de Big Data. La cible de cette nouvelle génération d'algorithmes a été déplacée des marchés abstraits vers les particuliers. Mais la fonctionnalité sous-jacente est la même: collecter des données historiques sur les personnes, profiler leur comportement en ligne, leur emplacement ou leurs réponses aux questionnaires, et utiliser cet énorme ensemble de données pour prédire leurs futurs achats, leur comportement de vote ou leur éthique de travail.

La récente prolifération de modèles de données volumineuses est passée largement inaperçue, mais on peut affirmer que les moments les plus importants dans lesquels les gens interagissent avec de grands systèmes bureaucratiques impliquent désormais un algorithme sous la forme d'un système de notation. Entrer au collège, trouver un emploi, être évalué en tant que travailleur, obtenir une carte de crédit ou une assurance, voter et même la police sont dans de nombreux cas effectués de manière algorithmique. De plus, la technologie introduite dans ces décisions systématiques est en grande partie opaque, même pour leurs créateurs, et a jusqu'ici largement échappé à une réglementation sérieuse, même en cas d'échec. Cela rend la question de savoir lequel de ces algorithmes travaille pour nous encore plus important et urgent.

J'ai une hiérarchie à quatre couches en ce qui concerne les mauvais algorithmes. Au sommet se trouvent les problèmes non intentionnels qui reflètent des préjugés culturels. Par exemple, lorsque Latanya Sweeney, professeur à Harvard, a découvert que Google cherchait des noms perçus comme étant noirs annonces générées associées à une activité criminelle, nous pouvons supposer qu’aucun ingénieur de Google n’a écrit de code raciste. En fait, les anciens utilisateurs de Google Search ont inculqué les annonces aux internautes, qui étaient plus susceptibles de cliquer sur une annonce de casier judiciaire lorsqu'elles recherchaient un nom à consonance noire. Un autre exemple: le Résultat de recherche d'images Google pour "cheveux non professionnels", qui a rendu presque exclusivement des femmes noires, est également formé par les personnes postant ou cliquant sur les résultats de recherche à travers le temps.

Lire l'histoire complète ici…

S'ABONNER
Notifier de
invité

1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Juan Juan

Les «unités institutionnelles» économiques numérotées sont programmées dès le plus jeune âge pour répondre à certains stimuli avec des attentes de recevoir certaines récompenses, même si la récompense n'a qu'une valeur nominale (en nom seulement). Cette programmation de modification de comportement est installée dans un environnement concurrentiel où le quotient intellectuel (QI) est l'objectif ultime. Le QI est la capacité de l'unité institutionnelle à mémoriser les données et les informations et à les rappeler en file d'attente ou à la demande. Cela ne fait aucune différence que les données et les informations soient incorrectes, entachées ou même imprégnées d'absurdités. Les facultés de raison, qui sont substantiellement différentes du QI, ne sont pas nécessaires... Lire la suite »