Un leader communautaire tire sur les technocrates

CommunautarismeYouTube, Amitai Etzioni
S'il vous plaît partager cette histoire!
image_pdfimage_print
Amitai Etzioni est le père académique moderne du communautarisme, qui place le «bien commun» au-dessus des droits individuels. Il est diamétralement opposé au libéralisme et au libertarianisme.

Etzioni ne comprend pas que la technocratie prêche également le même bien commun, sauf que ce sont les technocrates qui décident de ce qui est bon pour la majorité de la société. Le communautarisme a été utilisé pour la première fois en 1841 par John Goodwin Barmby qui dirigeait le mouvement chartiste; il faisait référence aux socialistes utopistes et à ceux qui expérimentaient des modes de vie communautaires. Le communautarisme est également utilisé pour décrire des sociétés autoritaires comme la Malaisie, Singapour et la Chine.

Tout comme le communisme est un ennemi naturel de la technocratie depuis les années 1930, le communautarisme s'oppose également à la technocratie pour la même raison, à savoir comment le bien commun sera-t-il déterminé et par qui? ⁃ TN Editor

La parole est trop importante pour que les technocrates la contrôlent. Les élus et les tribunaux devraient être les principaux contrôleurs - et ils ne devraient contrôler que lorsqu'il existe un danger clair et actuel pour notre sécurité et notre processus démocratique.

Des voix fortes des deux extrémités du spectre politique ont appelé les entreprises technologiques à être plus responsables, à retirer de leurs plateformes tout matériel qui offense les mœurs de la communauté et qui manipule les élections. En fait, comme je le vois, au cours des dernières années, les sociétés technologiques ont bloqué ou supprimé des quantités énormes de messages et de publicités, y compris du matériel qui, s'il était retiré de la publication hors ligne, conduirait même les défenseurs modérés de la liberté d'expression à devenir balistiques. De plus, chaque société de technologie établit ses propres règles concernant le discours qu'elle autorise et celui qu'elle bloque. Ceux-ci ne sont pas soumis à l'examen du public et sont souvent impossibles à comprendre. Protéger la parole - et déterminer les rares occasions où les gens devraient se voir refuser la voix, être censurés - est trop important pour le laisser au PDG de Facebook Mark Zuckerberg et à ses collègues magnats de la technologie.

Certains soutiennent que parce que les sociétés technologiques sont des entreprises privées, elles ne peuvent pas censurer, seul le gouvernement peut le faire. Certains qui ont un esprit légal soutiennent que le premier amendement stipule que le Congrès ne fera aucune loi restreignant la liberté de la presse, pas que les entreprises privées ne peuvent pas contrôler les messages. De plus, étant donné les différences de politiques entre les différentes sociétés, si l'une ferme une porte, il y en a probablement une autre qui laisse cette porte ouverte. Seul le gouvernement peut empêcher l'accès à tous les médias et donc vraiment censurer.

Il faut cependant noter que ces entreprises contrôlent une très grande partie de l'espace de communication et exercent un contrôle sur de nombreux sujets. Par conséquent, s'ils restreignent l'accès à quelqu'un, le discours de cette personne est considérablement limité. Quiconque se voit refuser une voix par Google, Facebook et Twitter aura du mal à atteindre les masses via les médias sociaux.

Pendant de nombreuses années, les entreprises technologiques ont évité toute responsabilité pour le contenu que les gens ont publié sur leurs sites de médias sociaux, affirmant qu'il ne s'agit que de plates-formes et non d'éditeurs. Cependant, de plus en plus de dirigeants publics ont commencé à faire valoir que les entreprises technologiques devraient contrôler le contenu. Ces opinions ont atteint un sommet après les révélations sur l'ingérence de la Russie aux élections américaines de 2016 et sa volonté de semer la discorde sociale grâce à des campagnes coordonnées de désinformation sur les médias sociaux. Les entreprises technologiques ont répondu en engageant des dizaines de milliers de modérateurs pour examiner les messages et supprimer les éléments qu’ils jugent trop violents, obscènes, haineux ou trompeurs. En règle générale, les modérateurs ont aussi peu que dix secondes pour examiner une publication. Ils peuvent à peine prendre beaucoup plus de temps, étant donné le nombre astronomique de postes qui doivent être examinés. Pas étonnant que leur jugement soit souvent très arbitraire et toujours précipité. Les entreprises utilisent également de plus en plus des algorithmes d'intelligence artificielle pour refuser la parole. L'intelligence artificielle semble incorporer les biais implicites dans les médias de masse, par exemple en favorisant les hommes par rapport aux femmes pour avoir accès à des annonces sur des emplois bien rémunérés.

Tout en menant des recherches sur l'utilisation abusive des plateformes de médias sociaux pour un journal de la National Academy of Sciences, j'ai été stupéfait par les quantités et les nombreux motifs que les entreprises de technologie peuvent utiliser pour justifier la suppression de publications sur les réseaux sociaux. Par exemple, en trois mois, entre juillet et septembre 2019, YouTube a supprimé plus de 8.75 millions de vidéos. Parmi les vidéos supprimées, plus de 4.75 millions ont été supprimées pour spam ou trompeur. Eh bien, selon cette norme, je bloquerais un réseau de nouvelles et ses abonnés bloqueraient probablement le réseau de nouvelles que je suis. Plus de 1.35 million de vidéos ont été supprimées pour du contenu violent ou graphique et plus de 1.25 million ont été supprimées pour du contenu nudité ou sexuel, cependant, ce qui est considéré comme graphique et sexuel varie beaucoup d'une communauté à l'autre. Par conséquent, les tribunaux ont dans l'ensemble permis que de tels discours soient prononcés hors ligne. Pourquoi les entreprises technologiques sont-elles plus pieuses?

Il faut cependant noter que ces entreprises contrôlent une très grande partie de l'espace de communication et exercent un contrôle sur de nombreux sujets. Par conséquent, s'ils restreignent l'accès à quelqu'un, le discours de cette personne est considérablement limité. Quiconque se voit refuser une voix par Google, Facebook et Twitter aura du mal à atteindre les masses via les médias sociaux.

Pendant de nombreuses années, les entreprises technologiques ont évité toute responsabilité pour le contenu que les gens ont publié sur leurs sites de médias sociaux, affirmant qu'il ne s'agit que de plates-formes et non d'éditeurs. Cependant, de plus en plus de dirigeants publics ont commencé à faire valoir que les entreprises technologiques devraient contrôler le contenu. Ces opinions ont atteint un sommet après les révélations sur l'ingérence de la Russie aux élections américaines de 2016 et sa volonté de semer la discorde sociale grâce à des campagnes coordonnées de désinformation sur les médias sociaux. Les entreprises technologiques ont répondu en engageant des dizaines de milliers de modérateurs pour examiner les messages et supprimer les éléments qu’ils jugent trop violents, obscènes, haineux ou trompeurs. En règle générale, les modérateurs ont aussi peu que dix secondes pour examiner une publication. Ils peuvent à peine prendre beaucoup plus de temps, étant donné le nombre astronomique de postes qui doivent être examinés. Pas étonnant que leur jugement soit souvent très arbitraire et toujours précipité. Les entreprises utilisent également de plus en plus des algorithmes d'intelligence artificielle pour refuser la parole. L'intelligence artificielle semble incorporer les biais implicites dans les médias de masse, par exemple en favorisant les hommes par rapport aux femmes pour avoir accès à des annonces sur des emplois bien rémunérés.

Tout en menant des recherches sur l'utilisation abusive des plateformes de médias sociaux pour un journal de la National Academy of Sciences, j'ai été stupéfait par les quantités et les nombreux motifs que les entreprises de technologie peuvent utiliser pour justifier la suppression de publications sur les réseaux sociaux. Par exemple, en trois mois, entre juillet et septembre 2019, YouTube a supprimé plus de 8.75 millions de vidéos. Parmi les vidéos supprimées, plus de 4.75 millions ont été supprimées pour spam ou trompeur. Eh bien, selon cette norme, je bloquerais un réseau de nouvelles et ses abonnés bloqueraient probablement le réseau de nouvelles que je suis. Plus de 1.35 million de vidéos ont été supprimées pour du contenu violent ou graphique et plus de 1.25 million ont été supprimées pour du contenu nudité ou sexuel, cependant, ce qui est considéré comme graphique et sexuel varie beaucoup d'une communauté à l'autre. Par conséquent, les tribunaux ont dans l'ensemble permis que de tels discours soient prononcés hors ligne. Pourquoi les entreprises technologiques sont-elles plus pieuses?

Lire l'histoire complète ici…

Joignez-vous à notre liste d'envoi!


Avatar
S'abonner
Notifier de