Facebook utilisera l'intelligence artificielle pour analyser vos pensées, «améliorer la sécurité des utilisateurs»

Wikipedia Commons
S'il vous plaît partager cette histoire!
Les ingénieurs sociaux de Facebook qui s'intéressent aux technocrates pensent qu'ils peuvent maintenant analyser vos pensées en lisant vos messages et en déclarant que vous avez besoin de services de santé mentale. Vraiment? Vous informeront-ils automatiquement afin que les hommes en blouse blanche se présentent à la porte de votre appartement avec une veste droite? Cette ligne de pensée est au-delà de dangereux. ⁃ Éditeur TN

C'est un logiciel pour sauver des vies. La nouvelle technologie d'intelligence artificielle de «détection proactive» de Facebook analysera tous les messages à la recherche de schémas de pensées suicidaires et, si nécessaire, enverra des ressources de santé mentale à l'utilisateur à risque ou à ses amis, ou contactera les premiers intervenants locaux. En utilisant l'IA pour signaler les publications inquiétantes aux modérateurs humains au lieu d'attendre les rapports des utilisateurs, Facebook peut réduire le temps nécessaire pour envoyer de l'aide.

Facebook précédemment testé en utilisant l'IA pour détecter les messages troublants et plus en évidence les options de rapport de suicide surface aux amis aux États-Unis Maintenant, Facebook va parcourir tous les types de contenu autour du monde avec cette IA, sauf dans l'Union européenne, où Règlement général de protection des données Les lois sur le respect de la vie privée relatives au profilage des utilisateurs sur la base d'informations sensibles compliquent l'utilisation de cette technologie.

Facebook utilisera également l'intelligence artificielle pour hiérarchiser les rapports d'utilisateurs particulièrement risqués ou urgents afin qu'ils soient traités plus rapidement par les modérateurs, ainsi que des outils permettant de faire apparaître instantanément les ressources en langue locale et les informations de contact du premier répondant. Il consacre également plus de modérateurs à la prévention du suicide, les forme à la gestion des cas 24 / 7, et a maintenant des partenaires locaux de 80 tels que Save.org, National Suicide Prevention Lifeline et Forefront à partir desquels fournir des ressources aux utilisateurs à risque et à leurs réseaux. .

«Il s'agit de réduire les minutes à chaque étape du processus, en particulier dans Facebook Live», déclare le vice-président de la gestion des produits Guy Rosen. Au cours du dernier mois de tests, Facebook a lancé plus de 100 «contrôles de bien-être» avec des premiers intervenants visitant les utilisateurs concernés. «Il y a eu des cas où le premier intervenant est arrivé et la personne émet toujours.»

L'idée de Facebook en analysant de manière proactive le contenu des publications des internautes pourrait susciter des craintes dystopiques quant à la manière dont la technologie pourrait être appliquée. Facebook ne savait pas comment éviter de rechercher la dissidence politique ou les crimes mineurs, Rosen se contentant de dire: «Nous avons l'occasion d'aider ici, alors nous allons investir dans cela». la technologie, mais c’est un autre espace où nous n’avons pas le choix, mais espérons que Facebook ne va pas trop loin.

Le PDG de Facebook, Mark Zuckerberg, a salué la mise à jour du produit dans un message publié aujourd'hui, écrit que "Dans le futur, Amnesty International sera en mesure de comprendre davantage les nuances subtiles du langage et d'identifier différents problèmes au-delà du suicide, notamment en repérant rapidement plus de types d'intimidation et de haine."

Malheureusement, après que TechCrunch ait demandé s’il existait un moyen de se retirer, un porte-parole de Facebook a répondu que les utilisateurs ne pouvaient pas se retirer. Ils ont noté que la fonctionnalité est conçue pour améliorer la sécurité des utilisateurs et que les ressources d'assistance proposées par Facebook peuvent être rapidement supprimées si un utilisateur ne veut pas les voir.]

Facebook a formé l'IA en trouvant des motifs dans les mots et les images utilisés dans des publications rapportant manuellement un risque de suicide dans le passé. Il recherche également des commentaires tels que «ça va?» Et «Avez-vous besoin d'aide?

Lire l'histoire complète ici…

S'abonner
Notifier de
invité
0 Commentaires
Commentaires en ligne
Voir tous les commentaires