Experts: les pays européens devraient interdire la notation du crédit social

Europe
S'il vous plaît partager cette histoire!
Les technocrates de l'UE sont déterminés à surveiller et à contrôler totalement les gens, mais un groupe consultatif indépendant de haut niveau a mis en garde contre l'utilisation de l'IA pour la surveillance de masse et l'évaluation du crédit social. ⁃ Éditeur TN

Un groupe d’experts indépendants chargé de conseiller le Commission européenne pour informer sa réponse réglementaire sur l'intelligence artificielle - afin de conforter l'objectif déclaré du législateur européen de veiller à ce que les développements de l'IA soient «centrés sur l'homme» - a publié ses recommandations en matière de politique et d'investissement.

Cela fait suite aux directives précédentes en matière d’éthique pour les «IA dignes de confiance», publiées par le groupe d’experts de haut niveau Avril, lorsque la Commission a également appelé les participants à tester le projet de règles.

L'ensemble des recommandations de la politique de AI HLEG comprend un document très détaillé sur la page 50 - qui peut être téléchargé à partir de cette page. page WebL’ Le groupe, qui a été créé en juin 2018, est composé de d’un mélange d’experts de l’intelligence artificielle, de représentants de la société civile, de conseillers politiques et de politiques, d’universitaires et d’experts juridiques.

Le document contient des avertissements sur l'utilisation de l'IA pour la surveillance et le scoring de masse des citoyens de l'UE, tels que Le système de crédit social chinois, le groupe réclamant une interdiction absolue de «la notation massive d’individus activée par l’IA». Il exhorte également les gouvernements à s'engager à ne pas procéder à une surveillance générale des populations à des fins de sécurité nationale. (C’est peut-être aussi bien que le Royaume-Uni a voté en faveur de la sortie de l’UE, étant donné le pouvoirs de surveillance étouffants il a été adopté à la fin de 2016.)

«Les gouvernements pourraient être tentés de« sécuriser la société »en construisant un système de surveillance généralisé basé sur des systèmes d'IA, mais cela serait extrêmement dangereux si on le poussait à des niveaux extrêmes», écrit le HLEG. «Les gouvernements devraient s’engager à ne pas participer à une surveillance massive des individus et à déployer et acquérir uniquement des systèmes d’IA fiables, conçus pour respecter la loi et les droits fondamentaux, alignés sur des principes éthiques et solides du point de vue socio-technique.»

Le groupe demande également que la surveillance commerciale des individus et des sociétés soit «contrecarrée» - suggérant que la réponse de l'UE à la puissance et au potentiel d'utilisation abusive des technologies de l'IA devrait inclure la garantie que le suivi des personnes en ligne est «strictement conforme aux droits fondamentaux tels que la vie privée». ”, Y compris (le groupe précise) lorsqu'il s'agit de services« gratuits »(avec toutefois une légère mise en garde sur la nécessité de prendre en compte l'impact des modèles commerciaux).

La semaine dernière, le groupe de surveillance de la protection des données au Royaume-Uni a tiré un coup encore plus spécifique dans l'industrie de la publicité comportementale en ligne - avertissant que le traitement massif par adtech des données personnelles des internautes pour le ciblage d'annonces n'est pas conforme aux normes de confidentialité de l'UE. On a dit à l’industrie que ses pratiques contraires aux droits doivent changer, même si le Commissariat à l’information n’est pas sur le point de mettre un frein au marteau. Mais l'avertissement de réforme était clair.

Alors que les décideurs politiques de l'UE travaillent à l'élaboration d'un cadre réglementaire respectueux des droits pour l'IA, cherchant à orienter les dix prochaines années et plus de développements technologiques de pointe dans la région, l'attention et le contrôle plus larges qui attireront les pratiques numériques et les modèles commerciaux devraient stimuler un nettoyage des pratiques numériques problématiques qui ont pu proliférer sous une réglementation peu ou très légère du toucher, auparavant.

Le HLEG appelle également à soutenir le développement de mécanismes de protection des données personnelles et à permettre aux individus de "contrôler leurs données et de leur donner le pouvoir" - ce qui, selon eux, permettrait de traiter "certains aspects des exigences de l'IA de confiance".

«Des outils devraient être développés pour fournir une implémentation technologique du GDPR et développer des méthodes techniques de préservation de la confidentialité / conception afin d'expliquer les critères, la causalité dans le traitement des données personnelles des systèmes d'intelligence artificielle (tels que l'apprentissage automatique fédéré)», écrivent-ils.

«Soutenir le développement technologique des techniques d'anonymisation et de cryptage et développer des normes pour un échange de données sécurisé basé sur le contrôle des données personnelles. Promouvoir l'éducation du grand public en matière de gestion de données à caractère personnel, y compris la prise de conscience et l'autonomisation des individus dans les processus de prise de décision basés sur les données personnelles de l'IA. Créer des solutions technologiques pour fournir aux individus des informations et un contrôle sur la manière dont leurs données sont utilisées, par exemple pour la recherche, sur la gestion des consentements et la transparence au-delà des frontières européennes, ainsi que sur les améliorations et les résultats obtenus, et pour élaborer des normes de sécurité. échange de données basé sur le contrôle des données personnelles. "

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires