Algorithmes: qu'est-ce que quelques erreurs vs. Précision de 90%?

S'il vous plaît partager cette histoire!
Parce que l'homme est imparfait, il s'ensuit que tout ce que l'homme crée est également imparfait, y compris les programmes informatiques destinés à tout gérer dans nos vies. En outre, la loi d'Entropie suggère que tout ce que l'homme crée sera plus imparfait que le créateur. Confier nos vies et notre fortune à des algorithmes secrets est stupide et dangereux. ⁃ Éditeur TN

En 1603, Les autorités anglaises ont arrêté Sir Walter Raleigh. Ils l'ont accusé de trahison. Il aurait été impliqué dans un complot visant à renverser et à tuer le nouveau roi, James I.

Lors de son procès, les procureurs ont introduit un seul élément de preuve. C'était une lettre d'aveux écrite par l'homme qui aurait planifié le complotSeigneur Cobham. La lettre nommée Raleigh a co-conspirateur.

Sir Walter Raleigh a déclaré que les aveux seuls n'étaient pas fiables. S'il pouvait apporter Cobham de témoigner devant le tribunal, il aurait au moins une chance de contre-interroger le seul témoin à charge.

Mais les tribunaux anglais à la temps ne sont pas particulièrement intéressés par une procédure régulière. Ils ont convaincu Raleigh d'esprithout lui permettant de confronter ou d’interroger le témoin.

Il a été emprisonné et finalement exécuté.

Avance rapide à États-Unis, 2017. Un homme fait face à des accusations de meurtre. Et le principal témoin contre lui est un algorithme informatique.

L'algorithme des analyses échantillons d'ADN complexes. Il décide if l'ADN de l'accusé est présent dans un échantillon.

Naturellement, le défendeur veut savoir comment fonctionne exactement l'algorithme.

Et il a bonne raison de se demander. Son une condamnation antérieure pour le même meurtre s’était fondée sur un machine de test ADN différente.

Mais sscientifiques plus tard décidé l'algorithme était pas tout à fait raison. TLa preuve qui l’a déclaré coupable est passée de positive à non concluante.

Il était assis en prison, reconnu coupable de meurtre, basé sur un algorithme défectueux!

Donc, au nouveau procès, la défense demande à examiner tL'algorithme de la nouvelle machine. Mais l'entreprise qui conçu le algorithme n'aime pas cette idée.

Les aL'algorithme est un secret commercial. Il était coûteux à développer, unIls ne veulent pas que ce secret soit révélé.

Nous sommes  vie in l'âge des algorithmes.

Un algorithme choisit la musique que vous écoutez. Et Spotify fait du très bon travail… Un algorithme défectueux pourrait vous forcer à écouter une chanson de gospel au lieu de rap gangster. Pas la plus grosse affaire…

Mais que se passe-t-il quand un algorithme pour une voiture autonome doit décider entre frapper un groupe ou piétons, ou se plonger - et vous… Sur une falaise?

L'algorithme devient une question de vie ou de mort.

Avant de monter dans une voiture autonome, vous'll veulent en savoir un peu plus sur l'algorithme.

Quel genre de décisions en une fraction de seconde est-il programmé?

Quelles sont les entrées de données considérées?

Et Who exactement écrit l'algorithme? Rappelez-vous, les algorithmes toujoursavoir une composante humainet. Et les humains sont intrinsèquement biaisés. Leurs opinions subjectives en feront inévitablement partie.

Lorsqu'un algorithme condamne l'accusé à un procès pour meurtre… ça aussi vie ou mort.

Certains services de protection de l'enfance utilisent un algorithme pour décider quels enfants à prendre. L'algorithme assigne un score de risque sur la base d'entrées telles que le nombre d'appels reçus par le département et si les parents sont hostiles envers les travailleurs sociaux.

Autres les tribunaux utilisent déjà un algorithme pour déterminer la récidivem risque — si un criminel est susceptible de récidiverPlus le risque est élevé, plus la peine est longue.

Si je fumais un joint ou me battais au lycée, suis-je 40% plus susceptible de commettre a la criminalité?

Will je suis supposé coupable sur la base probabilité seul? Comment puis-je être sûr que l'algorithme n'est pas biaisé?

Date & Heure ProPublica analysé le récidive algorithme, ils ont constaté qu'il était biais racial.

O'Neil Risk Consulting & Audit Algorithmique est une autre organisation qui examine la justesse des algorithmes utilisés par le système de justice. Mais ils admettent que même les audits sont subjectifs dans une certaine mesure.

C'est assez effrayant de voir des algorithmes contrôler le système de justice pénale.  processus pourrait être remplacé par des processeurs informatiques.

Mais les algorithmes ne sont pas nécessairement une mauvaise chose. Ils peuvent analyser des ensembles de données vastes et complexes. Construire un bon algorithme demande beaucoup de travail. Toi peut comprendre pourquoi une entreprise souhaitezs protéger ses secrets.

Lire l'histoire complète ici…

S'ABONNER
Notifier de
invité

0 Commentaires
Commentaires en ligne
Voir tous les commentaires