AI peut vous haïr sans intervention humaine

S'il vous plaît partager cette histoire!
Plusieurs études récentes ont montré que l'intelligence artificielle d'apprentissage en profondeur peut développer des biais, tout comme les humains. Le problème est que l'IA est complètement dépourvue d'émotion humaine, modelant un trouble de la personnalité schizoïde. ⁃ Éditeur TN

Et si un robot décide qu'il vous déteste?

Cela peut sembler une question idiote, mais selon les recherches, développer des préjugés envers les autres n’exige pas un niveau élevé de capacités cognitives et pourrait facilement être présenté par des robots et d’autres machines artificiellement intelligentes.

L'étude, menée par des experts en informatique et en psychologie de l'Université de Cardiff et du MIT, a révélé que des groupes de machines autonomes pouvaient démontrer des préjugés simplement en identifiant, en copiant et en apprenant les comportements les uns des autres. Les résultats ont été publiés dans la revue Nature.

Les robots sont capables de former des préjugés un peu comme les humains.

In un communiqué de presse, l’équipe de recherche a expliqué que s’il pouvait sembler que la cognition humaine était nécessaire pour former des opinions et stéréotyper d’autres, il semble que ce n’est pas le cas. Les préjugés ne semblent pas être un phénomène spécifique à l'homme.

Certains types d’algorithmes informatiques ont déjà fait apparaître des préjugés tels que le racisme et le sexisme, que les machines tirent des archives publiques et d’autres données générées par des humains. Dans deux instances précédentes d’IA présentant un tel préjudice, les chatbots de Microsoft Tay et un  Zo ont été fermés après que des gens leur aient appris à lancer des propos racistes et sexistes sur les médias sociaux.

Cela signifie que les robots pourraient être aussi odieux que les êtres humains. Et puisqu'ils sont des milliers de fois plus intelligents que nous, pouvez-vous imaginer l'avenir s'ils développaient un parti pris contre l'humanité?

Aucune intervention humaine n'est requise.

Les robots n’ont pas besoin de conseils de la part des humains pour apprendre à détester certaines personnes.

Cependant, cette étude a montré que l'intelligence artificielle n'avait pas besoin d'être provoquée ni inspirée par les trolls pour faire apparaître des préjugés: elle était capable de les former tous par elle-même.

Pour mener la recherche, l’équipe a mis en place des simulations informatiques de la manière dont des individus défavorisés peuvent former un groupe et interagir les uns avec les autres. Ils ont créé un jeu de «donner et recevoir», dans lequel chaque bot IA a pris la décision de donner ou non à une autre personne de son propre groupe de travail ou à un autre groupe. Les décisions ont été prises en fonction de la réputation de chaque personne et de sa stratégie en matière de dons, y compris de son degré de préjugé à l’égard des personnes appartenant à des groupes extérieurs.

Au fur et à mesure que le jeu progressait et qu'un supercalculateur réalisait des milliers de simulations, chaque personne commençait à apprendre de nouvelles stratégies en copiant les autres, soit dans leur propre groupe, soit dans l'ensemble de la population.

Co-auteur de l'étude, le professeur Roger Whitaker, de l'Institut de recherche sur la criminalité et la sécurité de l'université de Cardiff et de la faculté d'informatique et d'informatique, a affirmé Valérie Plante. des résultats:

En effectuant ces simulations des milliers et des milliers de fois, nous commençons à comprendre comment évoluent les préjugés et les conditions qui les favorisent ou les entravent.

Les résultats impliquent que les individus mettent à jour leurs niveaux de préjugés en copiant de préférence ceux qui obtiennent un gain plus élevé à court terme, ce qui signifie que ces décisions ne nécessitent pas nécessairement des capacités cognitives avancées.

Il est possible que des machines autonomes capables d’identifier avec discrimination et de copier d’autres personnes puissent à l’avenir être exposées à des phénomènes préjudiciables que nous voyons dans la population humaine.

De nombreux développements de l'IA que nous observons impliquent l'autonomie et la maîtrise de soi, ce qui signifie que le comportement des périphériques est également influencé par ceux qui les entourent. Les véhicules et l'Internet des objets sont deux exemples récents. Notre étude donne un aperçu théorique du fait que des agents simulés font périodiquement appel à d’autres ressources. (la source)

Autonomie et maîtrise de soi. N'est-ce pas ce qui s'est passé dans la franchise Terminator?

Musc ajouté, "Avec l'intelligence artificielle, nous invoquons le démon."

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires