Scientifiques: l'algorithme de l'IA permet aux humains de trouver de fausses nouvelles

S'il vous plaît partager cette histoire!
Les scientifiques des données technocrates aboient le mauvais arbre. Notez qu'ils ne disent jamais que leurs algorithmes de boîte noire peuvent trouver la vérité, ce qui devrait logiquement précéder l'isolement des mensonges. Pourtant, leur prétendue percée est saluée comme «une nouvelle arme dans la lutte contre la désinformation». ⁃ Éditeur TN

Selon de nouvelles recherches, un système basé sur un algorithme qui identifie les indices linguistiques révélateurs dans les fausses nouvelles pourrait fournir aux agrégateurs de nouvelles et aux réseaux sociaux tels que Google Actualités une nouvelle arme dans la lutte contre la désinformation.

Les chercheurs qui ont mis au point le système ont démontré qu’il était comparable, et parfois meilleur que l’humain, à l’identification correcte de faux reportages.

Dans une étude récente, le système a permis de détecter des faux jusqu'à 76 pour cent du temps, comparé à un taux de réussite humain de 70 pour cent. En outre, leur approche de l’analyse linguistique pourrait être utilisée pour identifier de faux articles d’actualité trop nouveaux pour être démystifiés en comparant leurs faits avec d’autres articles.

Rada Mihalcea, professeur en sciences informatiques et en ingénierie à l'Université du Michigan, à l'origine du projet, estime qu'une solution automatisée pourrait constituer un outil important pour les sites qui luttent pour faire face à une série de fausses nouvelles, que les gens créent souvent pour générer des clics. ou pour manipuler l'opinion publique.

Il peut être difficile de capturer de fausses histoires avant qu'elles n'aient de véritables conséquences, car les sites d'agrégation et de médias sociaux reposent aujourd'hui beaucoup sur des rédacteurs humains, qui souvent n'arrivent pas à suivre le flot de nouvelles. De plus, les techniques actuelles de démystification reposent souvent sur une vérification externe des faits, ce qui peut être difficile avec les nouvelles histoires. Souvent, quand il est prouvé qu'un récit est un faux, le mal est déjà fait.

L'analyse linguistique adopte une approche différente en analysant des attributs quantifiables tels que la structure grammaticale, le choix des mots, la ponctuation et la complexité. Cela fonctionne plus rapidement que les humains et peut être utilisé avec une variété de types d'actualités différents.

«Vous pouvez imaginer un grand nombre d’applications à cet effet sur le début ou la fin d’un site de nouvelles ou de médias sociaux», déclare Mihalcea. «Cela pourrait fournir aux utilisateurs une estimation de la fiabilité des histoires individuelles ou de tout un site de nouvelles. Ou ce pourrait être une première ligne de défense à l'arrière d'un site de nouvelles, signalant des histoires suspectes pour un examen ultérieur. Un pourcentage de réussite 76 laisse une marge d'erreur assez importante, mais il peut néanmoins fournir des informations précieuses lorsqu'il est utilisé aux côtés de l'homme. "

Les algorithmes linguistiques qui analysent la parole écrite sont assez courants aujourd'hui, explique Mihalcea. La difficulté de créer un faux détecteur de nouvelles ne réside pas dans la construction de l'algorithme lui-même, mais dans la recherche des données appropriées pour l'entraîner.

Les fausses nouvelles apparaissent et disparaissent rapidement, ce qui les rend difficiles à collecter. Il existe également de nombreux genres, ce qui complique encore le processus de collecte. Les informations satiriques, par exemple, sont faciles à collecter, mais son utilisation de l'ironie et de l'absurdité le rend moins utile pour l'apprentissage d'un algorithme permettant de détecter les fausses informations destinées à induire en erreur.

En fin de compte, l'équipe de Mihalcea a créé ses propres données, externalisant en groupe une équipe en ligne qui transforme en reverse des informations authentiques et vérifiées. C'est ainsi que la plupart des fausses nouvelles sont créées par des individus qui les écrivent rapidement en échange d'une récompense monétaire, explique Mihalcea.

Les chercheurs ont recruté des participants avec l’aide d’Amazon Mechanical Turk et les ont payés pour transformer des nouvelles brèves en des informations similaires, mais fausses, imitant le style journalistique des articles. À la fin du processus, l’équipe de recherche disposait d’un ensemble de données contenant des informations réelles et fausses sur 500.

Ils ont ensuite alimenté ces paires d’histoires étiquetées avec un algorithme qui effectuait une analyse linguistique, s’apprenant à distinguer entre une information réelle et fausse. Enfin, l’équipe a transformé les algorithmes en un ensemble de données d’actualités réelles et factices extraites directement du Web, ce qui correspond au pourcentage de réussite de 76.

Les détails du nouveau système et l'ensemble de données utilisé par l'équipe pour le construire sont disponibles gratuitement. Mihalcea a déclaré que les sites d'informations ou d'autres entités pourraient les utiliser pour créer leurs propres systèmes de détection de fausses informations. Elle ajoute qu'incorporer des métadonnées telles que les liens et les commentaires associés à un article d'actualité en ligne pourrait affiner les systèmes futurs.

Les chercheurs détailleront le système dans un document qu'ils présenteront à la 27th International Conference on Linguistics of Computing, à Santa Fe, au Nouveau-Mexique.

Lire l'histoire complète ici…

S'abonner
Notifier de
invité

0 Commentaires
Commentaires en ligne
Voir tous les commentaires