Élever des robots: la morale peut-elle être enseignée à l'IA par le biais de compétences parentales?

Youtube
S'il vous plaît partager cette histoire!

C'est un fantasme stupide de traiter l'intelligence artificielle et les robots comme des êtres humains sensibles, alors qu'ils ne le sont pas et ne peuvent jamais l'être. Pourtant, alors que les hommes japonais ont des relations sexuelles avec des poupées en silicone, d'autres essaient d'enseigner la morale aux robots en utilisant des `` compétences parentales ''.  Éditeur TN

Les machines intelligentes, promises depuis longtemps et jamais livrées, sont finalement sur l'horizon. Des robots suffisamment intelligents seront capables de fonctionner de manière autonome contre le contrôle humain. Ils seront capables de faire de véritables choix. Et si un robot peut faire des choix, la question qui se pose est de savoir si moral les choix. Mais quelle est la morale pour un robot? Est-ce la même chose que ce qui est moral pour un humain?

Les philosophes et les informaticiens ont tendance à se concentrer sur la difficulté de mettre en œuvre une moralité humaine subtile dans des machines à l'esprit littéral. Mais il y a un autre problème, un qui devrait vraiment venir en premier. C'est la question de savoir si nous devons essayer d'imposer notre propre moralité à des machines intelligentes. En fait, je dirais que cela risque d'être contre-productif, voire contraire à l'éthique. Le vrai problème de la moralité des robots n’est pas les robots, mais us. Peut-on gérer le partage du monde avec un nouveau type de créature morale?

Nous aimons imaginer que l'intelligence artificielle (IA) sera semblable à l'homme, car nous sommes la seule intelligence avancée que nous connaissons. Mais nous sommes probablement faux. Si et quand AI apparaît, ce sera probablement très différent de nous. Cela pourrait ne pas raisonner comme nous le faisons et nous pourrions avoir de la difficulté à comprendre ses choix.

Dans 2016, un programme informatique mettait au défi Lee Sedol, principal joueur de l’ancien jeu de Go dans l’humanité. Le programme, un projet Google appelé AlphaGo, est un exemple précoce de ce que l’intelligence artificielle pourrait être. Lors du deuxième match du match, AlphaGo a lancé un mouvement appelé 'Move 37' qui a surpris les commentateurs experts. Certains pensaient que c'était une erreur. Lee, l'adversaire humain, s'est levé de la table et a quitté la salle. Personne ne savait vraiment ce que faisait AlphaGo; C’était une tactique que les joueurs humains experts n’utilisaient tout simplement pas. Mais cela a fonctionné. AlphaGo a remporté ce match, comme il l'avait fait avant et le prochain match. Au final, Lee n'a remporté qu'un seul match sur cinq.

AlphaGo est très très bon chez Go, mais ce n’est pas le cas de la même façon que les humains. Même ses créateurs ne peuvent expliquer comment il se fixe sa stratégie à chaque match. Imaginez que vous puissiez parler à AlphaGo et demander pourquoi il a créé Move 37. Serait-il capable de vous expliquer le choix - ou à des experts de Go? Peut-être. Les esprits artificiels n'ont pas besoin de travailler comme le nôtre pour accomplir des tâches similaires.

En fait, nous pourrions découvrir que les machines intelligentes pensent à peut, pas seulement Go, d’une manière qui nous est étrangère. Vous n'avez pas à imaginer d'horrible scénario de science-fiction dans lequel des robots se lancent dans un déchaînement meurtrier. Cela pourrait ressembler davantage à ceci: imaginez que les robots manifestent un intérêt moral pour les humains, et les robots, et la plupart des animaux… et aussi des canapés. Ils font très attention à ne pas endommager les canapés, tout comme nous faisons attention à ne pas endommager les bébés. Nous pourrions demander aux machines: pourquoi t'inquiètes-tu autant pour les canapés? Et leur explication pourrait ne pas avoir de sens pour nous, tout comme l'explication par AlphaGo de Move 37 pourrait ne pas en avoir.

Cette ligne de pensée nous plonge au cœur d’un très vieux puzzle philosophique sur la nature de la moralité. S'agit-il de quelque chose au-dessus et au-delà de l'expérience humaine, qui s'applique à quelqu'un ou à tout ce qui pourrait faire des choix - ou la morale est-elle une création distinctement humaine, quelque chose de spécialement adapté à notre existence particulière?

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

3 Commentaires
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Fred

«C'est un fantasme stupide de traiter l'intelligence artificielle et les robots comme des êtres humains sensibles, alors qu'ils ne le sont pas et qu'ils ne peuvent jamais l'être. Diriez-vous également que c'est un «fantasme obscur» que les humains ont évolué à partir d'organismes unicellulaires? Personnellement, je pense qu'il est beaucoup plus probable que les robots évoluent en «robots sensibles». Les humains joueront le rôle de catyliste initial, mais l'évolution finale des robots en robots sensibles sera accomplie par les robots eux-mêmes sans intervention humaine. Leurs formes et leurs actions seront celles qui sont les plus avantageuses pour le robot, pas pour l'humain.... Lire la suite »

Patrick Wood

Fred - vous avez trop regardé la science-fiction.

Fred

Sans aucun doute. Mais si vous regardez comment la vie a évolué, à mon sens étonnamment, à partir d’organismes unicellulaires, il ne semble pas si irréaliste que des robots (avec l’humanité servant de catalyseur) puissent être une extension logique de ce processus. Je considère les humains comme faisant partie de la nature et non comme des observateurs extérieurs.
J'étais curieux de savoir comment les autres réagiraient à cette idée. Vous avez été poli à ce sujet. La plupart des gens disent que je suis plein de BS.