Publication de l'éthique officielle des robots: ne pas nuire, obéir aux ordres

S'il vous plaît partager cette histoire!

Un professeur de robotique en Angleterre déclare: «Le problème avec les systèmes d'IA à l'heure actuelle, en particulier ces systèmes d'apprentissage profond, est que il est impossible de savoir pourquoi ils prennent les décisions qu'ils prennent.«Si cela est vrai, alors les robots sont déjà hors de contrôle.  Éditeur TN

Isaac Asimov nous a donné les règles de base d'un bon comportement de robot: ne blessez pas les humains, obéissez aux ordres et protégez-vous. Maintenant, le British Standards Institute a publié un version plus officielle visant à aider les concepteurs à créer des robots éthiquement sains.

Le document, BS8611 Robots et des dispositifs robotiques, est écrit dans le langage sec d’un manuel de santé et de sécurité, mais les scénarios indésirables qu’il met en évidence pourraient être directement extraits de la fiction. La tromperie des robots, leur dépendance et la possibilité que les systèmes d’auto-apprentissage dépassent leurs attributions sont considérées comme des dangers que les fabricants devraient prendre en compte.

Accueillant les lignes directrices à la Robotique sociale et IA Alan Winfield, professeur de robotique à l’Université de l’ouest de l’Angleterre, a déclaré qu’ils représentaient «le premier pas vers l’intégration des valeurs éthiques dans la robotique et l’IA».

«Pour autant que je sache, il s'agit de la première norme publiée pour la conception éthique de robots», a déclaré Winfield après l'événement. "C'est un peu plus sophistiqué que les lois d'Asimov - il explique comment faire une évaluation des risques éthiques d'un robot."

Le document BSI commence par quelques principes éthiques généraux: «Les robots ne devraient pas être conçus uniquement ou principalement pour tuer ou blesser des êtres humains; les humains, pas les robots, sont les agents responsables; il devrait être possible de savoir qui est responsable de tout robot et de son comportement. ”

Il poursuit en soulignant une série de questions plus controversées, telles que de savoir si un lien émotionnel avec un robot est souhaitable, en particulier lorsque le robot est conçu pour interagir avec les enfants ou les personnes âgées.

Noel Sharkey, professeur émérite de robotique et d'intelligence artificielle à l'Université de Sheffield, a déclaré que c'était un exemple de cas où des robots pourraient nous tromper par inadvertance. «Il y avait une étude récente où de petits robots étaient intégrés dans une école maternelle», a-t-il déclaré. «Les enfants ont adoré et se sont vraiment liés aux robots. Mais lorsqu'on leur a demandé par la suite, les enfants ont clairement pensé que les robots étaient plus cognitifs que l'animal de leur famille.

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Jerry Day

Pour ce faire, les robots doivent savoir ce qu’un humain considère comme un «mal». Cela pourrait être n'importe quoi, de l'élimination de nos emplois aux commentaires micro-agressifs. La police a déjà utilisé des robots pour faire exploser un «suspect» en morceaux, donc comme tout le reste, le gouvernement et ses robots peuvent ignorer les règles tandis que nous et nos robots devons leur obéir.