Des scientifiques protestent contre la création d'un nouveau laboratoire d'armes mortelles pour l'IA à l'université sud-coréenne

S'il vous plaît partager cette histoire!
La Corée du Sud est une technocratie de haut en bas et il n'y a donc aucune entrave à utiliser les ressources de l'université pour développer une technologie pouvant être utilisée pour la guerre; dans ce cas, ce sont des robots tueurs autonomes équipés d'Intelligence Artificielle. ⁃ Éditeur TN

L'université KAIST aurait lancé un nouveau laboratoire d'armes d'IA en février, ce qui a amené des dizaines de chercheurs à croire que les produits «auraient le potentiel d'être des armes de terreur».

Oby Walsh, professeur à l'Université de New South Wales à Sydney, a organisé le boycott avec d'autres chercheurs de 49.

Il a déclaré dans une lettre ouverte: «Si elles sont développées, les armes autonomes… permettront de mener la guerre plus rapidement et à une échelle plus grande que jamais.

«Ils auront le potentiel d'être des armes de terreur.»

KAIST a déclaré qu'il n'avait «aucune intention de s'engager dans le développement de systèmes d'armes létales autonomes et de robots tueurs».

Le président de l'université, Sung-Chul Shin, a déclaré que l'université était «très consciente» des préoccupations éthiques concernant l'IA.

Mais hier, les chercheurs ont annoncé un boycott de l'université, déclarant qu'ils s'abstiendraient de visiter KAIST, d'accueillir des visiteurs de l'université ou de coopérer avec ses programmes de recherche jusqu'à ce que celui-ci s'engage à cesser de développer les armes.

Les scientifiques ont ajouté: «Ils ont le potentiel d'être des armes de terreur.

«Les despotes et les terroristes pourraient les utiliser contre des populations innocentes, supprimant toute contrainte éthique.

«Cette boîte de Pandore sera difficile à fermer si elle est ouverte.»

Le professeur Walsh a reconnu qu'il existait de nombreuses bonnes utilisations de la robotique et de l'intelligence artificielle dans l'armée.

Les scientifiques ont cité des interdictions efficaces sur des technologies d'armement antérieures et ont exhorté KAIST à interdire tout travail sur les armes autonomes létales et à s'abstenir d'utiliser l'IA qui nuirait à des vies humaines.

Mais il a dit qu'ils ne devraient pas être en mesure de décider «qui vit ou meurt».

La lettre, également signée par les plus grands experts en apprentissage en profondeur et en robotique, a été publiée avant la réunion de lundi prochain à Genève des pays membres de l'ONU 123 sur les défis posés par les armes autonomes létales, décrites comme des "robots tueurs".

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

0 Commentaires
Commentaires en ligne
Voir tous les commentaires