Expert: Des soldats de l'IA développeront une «boussole morale» et défieront les ordres

Wikimedia Commons
S'il vous plaît partager cette histoire!
Il a déjà été démontré que les algorithmes d'intelligence artificielle présentent les préjugés de leurs créateurs, alors pourquoi ne pas faire de même avec des intentions meurtrières? Les technocrates sont tellement absorbés par leurs inventions de Pollyanna qu'ils ne peuvent pas voir la fin logique de leur existence. ⁃ Éditeur TN

Les soldats robotiques meurtriers deviendront si avancés qu'ils pourraient développer leur propre code moral pour défier violemment les ordres, affirme un expert en IA.

Le Dr Ian Pearson, ancien ingénieur en cybernétique, prédit que nous nous orientons vers un avenir machines conscientes.

Mais si les robots sont mis en action par des puissances militaires, le futurologue prévient qu'ils seront capables d'évoquer leur propre «point de vue moral».

Et s’ils le font, l’ex-scientifique des fusées affirme pouvoir se retourner contre ceux-là mêmes qui les envoient au combat.

Le Dr Pearson, qui blogue pour Futurizon, a déclaré au Daily Star Online: «Alors que l'IA continue de se développer et que nous nous dirigeons vers la conscience - et ce ne sera pas du jour au lendemain, mais nous fabriquons progressivement de plus en plus d'ordinateurs et plus sophistiqué - à un moment donné, vous leur donnez accès à une éducation morale afin qu'ils puissent apprendre eux-mêmes la morale.

«Vous pouvez leur donner des capacités de raisonnement et ils pourraient proposer un code moral différent, ce qui les place sur un piédestal plus élevé que les humains qu'ils sont censés servir.

Lorsqu'on lui a demandé si cela pouvait s'avérer fatal, il a répondu: «Oui, bien sûr.

«S'ils contrôlent les armes et qu'ils décident qu'ils sont un être moral supérieur aux humains qu'ils sont censés garder, ils pourraient décider que certaines personnes devraient être tuées afin de protéger la population dans son ensemble.

«Qui sait quelles décisions ils pourraient prendre?

«Si vous avez un gars sur un champ de bataille, qui dit aux soldats de tirer sur ce groupe de personnes, pour une raison quelconque, mais que l’ordinateur pense le contraire, l’ordinateur n’en est pas convaincu, il pourrait conclure que le soldat qui donne les ordres est plutôt le pire contrevenant. que les gens qu'il essaie de tuer, alors il pourrait se retourner et le tuer à la place.

«C'est tout à fait possible, cela dépend de la manière dont les systèmes sont écrits.»

L'avertissement du Dr Pearson intervient au milieu des préoccupations croissantes concernant l'utilisation de robots entièrement autonomes en temps de guerre.

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

6 Commentaires
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Pyra

Idiot. Est-ce que l'un de ces dorks informatiques pense à ce qu'ils disent? Je veux dire, réfléchis-y du bout du nez.

Le dicton «se déclarant sages, ils sont devenus des imbéciles…» a beaucoup de pertinence ici.