L'UE sur l'éthique de l'IA: doit «améliorer le changement social positif»

Image: Commission européenne
S'il vous plaît partager cette histoire!
Les technocrates de l'UE définissent l'éthique de l'IA: «Bien-être environnemental et sociétal - Les systèmes d'IA doivent être durables et «favoriser un changement social positif». Il s'agit de la `` science de l'ingénierie sociale '' très convoitée qui renvoie au mouvement technocratique original des années 1930. ⁃ Éditeur TN
 

L’Union européenne a publié aujourd’hui une ensemble de lignes directrices sur la manière dont les entreprises et les gouvernements devraient développer des applications éthiques de l'intelligence artificielle.

Ces règles ne ressemblent pas aux «Trois lois de la robotique» d'Isaac Asimov. Elles n'offrent pas un cadre moral vif qui nous aidera à contrôler les robots meurtriers. Au lieu de cela, ils abordent les problèmes troubles et diffus qui affecteront la société à mesure que nous intégrerons l'IA dans des secteurs tels que les soins de santé, l'éducation et les technologies grand public.

Ainsi, par exemple, si un système d'IA diagnostique un cancer à l'avenir, les directives de l'UE voudraient s'assurer qu'un certain nombre de choses se passent: que le logiciel ne soit pas biaisé par votre race ou votre sexe, qu'il ne le soit pas. ne pas ignorer les objections d’un médecin humain et que cela donnait au patient la possibilité de se faire expliquer son diagnostic.

Donc, oui, ces directives ont pour but d'empêcher l'IA de s'emballer, mais au niveau de l'administration et de la bureaucratie, et non des mystères de meurtre à la manière d'Asimov.

Pour atteindre cet objectif, l’UE a réuni un groupe d’experts 52 qui ont défini sept exigences qui, à leur avis, devraient être remplies par les futurs systèmes d’IA. Ils sont comme suit:

  • Agence humaine et surveillance - L'IA ne doit pas piétiner l'autonomie humaine. Les personnes ne doivent pas être manipulées ni contraintes par les systèmes d'IA, et les humains doivent être en mesure d'intervenir ou de superviser chaque décision prise par le logiciel.
  • Robustesse technique et sécurité - L'intelligence artificielle doit être sécurisée et précise. Il ne devrait pas être facilement compromis par des attaques externes (telles que exemples contradictoires), et il devrait être raisonnablement fiable.
  • Confidentialité et gouvernance des données - Les données personnelles collectées par les systèmes d'intelligence artificielle doivent être sécurisées et privées. Il ne devrait pas être accessible à n'importe qui et ne devrait pas être volé facilement.
  • Transparence - Les données et les algorithmes utilisés pour créer un système d'IA devraient être accessibles, et les décisions prises par le logiciel devraient être «comprises et retracées par des êtres humains». En d'autres termes, les opérateurs devraient pouvoir expliquer les décisions prises par leurs systèmes d'IA.
  • Diversité, non-discrimination et équité - Les services fournis par AI devraient être accessibles à tous, indépendamment de l'âge, du sexe, de la race ou d'autres caractéristiques. De même, les systèmes ne devraient pas être biaisés dans ce sens.
  • Bien-être environnemental et sociétal - Les systèmes d’IA doivent être durables (c’est-à-dire qu’ils doivent être écologiquement responsables) et «favoriser un changement social positif»
  • Responsabilité - Les systèmes d'intelligence artificielle doivent pouvoir être audités et couverts par les protections existantes pour les lanceurs d'alerte d'entreprise. Les impacts négatifs des systèmes doivent être reconnus et signalés à l'avance.

Vous remarquerez que certaines de ces exigences sont assez abstraites et qu'il serait difficile de les évaluer de manière objective. (Les définitions de «changement social positif», par exemple, varient énormément d’une personne à l’autre et d’un pays à l’autre). Mais d’autres sont plus simples et pourraient être mises à l’épreuve par le biais de la surveillance du gouvernement. Le partage des données utilisées pour former les systèmes d'IA gouvernementaux, par exemple, pourrait être un bon moyen de lutter contre algorithmes biaisés.

Ces directives ne sont pas juridiquement contraignantes, mais elles pourraient façonner toute législation future élaborée par l'Union européenne. L’UE a déclaré à plusieurs reprises qu’elle voulait être un chef de file en matière d’IA rationnelle et elle a montré avec GDPR qu'il est prêt à créer des lois de grande portée qui protègent les droits numériques.

Mais ce rôle a été en partie imposé à l'UE par les circonstances. En matière d'investissement et de recherche de pointe, les États-Unis et la Chine - les leaders mondiaux de l'IA - ne peuvent rivaliser avec elle. Ils ont donc choisi l'éthique comme leur meilleur atout pour façonner l'avenir de la technologie.

Lire l'histoire complète ici…

S'ABONNER
Notifier de
invité

2 Commentaires
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
RL

Le problème est… L'idée des personnes qui contrôlent l'UE aujourd'hui de ce qui pourrait être un «changement social positif» est, selon toute vraisemblance, très différente de ce que la population dans son ensemble considère comme un «changement social positif». Par exemple, ils sont pour l'abolition des États-nations en faveur du mondialisme et de l'immigration illégale sans restriction, nous ne le sommes pas. C'est une chose délicate quand ils jouent avec la sémantique ...