À l'avenir, votre avenir pourrait dépendre d'une série de zéros et de zéros soigneusement calculés.
À mesure que la technologie s'améliore, les humains s'impliquent moins dans les décisions qui affectent nos vies - et ce n'est pas vraiment une bonne chose.
Alors que l'intelligence artificielle gagne du terrain, les professeurs d'université de l'Université du Massachusetts à Amherst ont mis au point un programme permettant de tester les logiciels de biais et de discrimination.
Oui, discrimination raciale. Mais plus que ça. Décisions de soins de santé. Décisions de prêt. Zut, même comment Amazon décide des taux d'envoi de paquet.
«Aujourd'hui, les logiciels déterminent qui obtient un prêt ou est embauché, calcule les scores d'évaluation des risques qui aident à décider qui va en prison et qui est libéré, et facilite le diagnostic et le traitement des patients en médecine» selon aux développeurs du programme.
Selon les chercheurs, les logiciels ne sont pas discriminatoires envers les groupes ou les individus, ajoutant que leur domaine d'étude est «sous-évalué» et que «d'innombrables exemples de logiciels déloyaux sont apparus».
Dans un érudit article publié pour un prochain génie logiciel conférence, les informaticiens Alexandra Meliou et Yuriy Brun, qui ont créé le programme avec Sainyam Galhotra, étudiante au doctorat, détaillent la «préoccupation croissante» de la discrimination par logiciel.
Dans cet article, les deux professeurs prévoient l’influence croissante et croissante des logiciels sur la vie humaine, et affirment que les logiciels jouent actuellement un rôle démesuré dans la société.
«À l'avenir, l'importance d'assurer l'équité dans les logiciels ne fera qu'augmenter», indique le document.
Les érudits ont utilisé des exemples illustrant les préjugés contre les riches et les opprimés.
Un des exemples de discrimination logicielle fournis par Brun et Meliou est la programmation utilisée par Amazon.com pour déterminer quelles zones géographiques recevraient une livraison gratuite le jour même. Suite au déploiement du programme l’année dernière, il a été allégué ces quartiers minoritaires ont reçu l'avantage à un taux beaucoup plus bas que les quartiers à prédominance blanche.
Les auteurs soulignent également la manière dont les logiciels utilisés dans le secteur public peuvent générer des biais, en mettant en avant la technologie utilisée dans un certain nombre d’États qui calcule les scores sur la probabilité qu’un criminel puisse commettre des infractions supplémentaires. Selon les chercheurs, il a été découvert que le logiciel «identifiait faussement les accusés noirs comme de futurs criminels, les qualifiant à tort de cette façon à un taux presque deux fois supérieur à celui des accusés blancs».
Dans notre système économique de capitalisme basé sur des marchés «libres», la part des marchés est déjà à 90% artificielle (HFT)