Les interdictions des médias sociaux de la désinformation scientifique ne sont pas utiles, disent les chercheurs

Laissez simplement les anti-vaxxers, les négationnistes du climat et les théoriciens du complot 5G vivre sans la menace constante de suppression de contenu et d'interdictions, de peur qu'ils ne fuient vers des hubs encore plus radicaux sur des sites de niche et d'autres parties obscures d'Internet, a conclu la Royal Society.
La Royal Society est l'académie nationale des sciences du Royaume-Uni. Mercredi, il a publié un rapport sur ce qu'il appelle «l'environnement de l'information en ligne», remettant en question certaines hypothèses clés derrière le mouvement de dé-plateforme des théoriciens du complot diffusant des informations sur des canulars sur des sujets tels que le changement climatique, la 5G et le coronavirus.
Sur la base de revues de littérature, d'ateliers et de tables rondes avec des experts universitaires et des groupes de vérification des faits, et de deux enquêtes au Royaume-Uni, la Royal Society est parvenue à plusieurs conclusions. La première est que si la désinformation en ligne est endémique, son influence peut être exagérée , du moins en ce qui concerne le Royaume-Uni : « la grande majorité des personnes interrogées pensent que les vaccins COVID-19 sont sûrs, que l'activité humaine est responsable du changement climatique, et que la technologie 5G n'est pas nocive. La seconde est que l'impact des soi-disant chambres d'écho peut être exagéré de la même manière et il y a peu de preuves pour soutenir l'hypothèse de la "bulle de filtre" (essentiellement, des nids de lapin extrémistes alimentés par des algorithmes ). Les chercheurs ont également souligné que de nombreux débats sur ce qui constitue la désinformation sont enracinés dans des différends avec la communauté scientifique et que le mouvement anti-vax est bien plus large que n'importe quel ensemble de croyances ou de motivations.
L'un des principaux points à retenir : le gouvernement et les entreprises de médias sociaux ne devraient pas compter sur la "suppression constante" du contenu trompeur n'est pas une "solution à la désinformation scientifique en ligne". Il avertit également que si les théoriciens du complot sont chassés d'endroits comme Facebook, ils pourraient se retirer dans des parties du Web où ils sont inaccessibles. Il est important de noter que le rapport fait une distinction entre la suppression de la désinformation scientifique et d'autres contenus tels que les discours de haine ou les médias illégaux, où les suppressions peuvent être plus efficaces :
(Les partisans de l'interdiction des néonazis et des groupes haineux sont donc à l'abri des conclusions de la Royal Society dans ce rapport.)
Au lieu de l'éloignement, les chercheurs de la Royal Society préconisent de développer ce qu'ils appellent la «résilience collective». Repousser la désinformation scientifique peut être plus efficace via d'autres tactiques, telles que la démonétisation, les systèmes pour empêcher l'amplification de ce contenu et les étiquettes de vérification des faits. Le rapport encourage le gouvernement britannique à continuer de lutter contre la désinformation scientifique
mais pour souligner les dommages à l'échelle de la société qui peuvent découler de problèmes tels que le changement climatique plutôt que le risque potentiel pour les individus de prendre l'appât. D'autres stratégies suggérées par la Royal Society consistent à poursuivre le développement d'organisations de vérification des faits indépendantes et bien financées; lutter contre la désinformation « au-delà des plateformes de médias sociaux à haut risque et à grande portée » ; et promouvoir la transparence et la collaboration entre les plateformes et les scientifiques. Enfin, le rapport mentionne que la régulation des algorithmes de recommandation peut être efficace .
"Réprimer les affirmations en dehors du consensus peut sembler souhaitable, mais cela peut entraver le processus scientifique et forcer un contenu véritablement malveillant dans la clandestinité", a déclaré Frank Kelly, professeur au laboratoire statistique de l'Université de Cambridge en mathématiques des systèmes et président du rapport, à Politico Europe .
"La science est au bord de l'erreur et la nature de l'effort scientifique aux frontières signifie qu'il y a toujours de l'incertitude", a déclaré Kelly séparément à Computer Weekly . "Au début de la pandémie, la science était trop souvent décrite comme absolue et d'une manière ou d'une autre à ne pas faire confiance lorsqu'elle se corrige, mais cette incitation et cette mise à l'épreuve de la sagesse reçue font partie intégrante de l'avancement de la science et de la société."
"Notre sondage a montré que les gens ont des raisons complexes de partager des informations erronées, et nous ne changerons pas cela en leur donnant plus de faits", a déclaré à Computer Weekly, professeur de technologie et de société à l'Oxford Internet Institute, Gina Neff, qui a contribué au rapport. "... Nous avons besoin de nouvelles stratégies pour garantir que des informations de haute qualité puissent être compétitives dans l'économie de l'attention en ligne. Cela signifie investir dans des programmes de maîtrise de l'information tout au long de la vie, des technologies d'amélioration de la provenance et des mécanismes de partage de données entre les plateformes et les chercheurs.
L'idée que chasser les théoriciens du complot hors des plateformes grand public et plus profondément sur le Web ne fait que les rendre plus forts a également, dans certains cas, été propagée par les artistes de conneries eux-mêmes comme une ultime défense de leur accès à des publics lucratifs sur Facebook, Twitter et YouTube. . Souvent, ils se sont trompés. Le pivot d'InfoWars, Alex Jones, par exemple, a affirmé que la vague d'interdictions qui l'a frappé sur pratiquement tous les grands sites de médias sociaux ne ferait qu'alimenter le complexe de persécution de son public. Au lieu de cela, son trafic Web a chuté , il a perdu l'accès aux principales sources de revenus et il a apparemment dépensé une grande partie de ses ressources en baisse pour lutter contre une série écrasante de poursuites en diffamation . Donald Trump a fait face à une situation similaire, du moins en ce qui concerne sa capacité à répandre des complots sur les élections de 2020.
La recherche a montré que même si la dé-plateforme n'est peut-être pas une solution à long terme à la désinformation et au discours de haine, elle agit comme une contrainte sur les individus et les groupes relativement petits mais disproportionnellement influents les plus déterminés à le propager - comme la poignée d'anti- vaxxers responsables d'une grande partie du déluge de réclamations de vaccins canulars sur les plus grands sites de médias sociaux. Certaines des solutions préconisées dans le rapport de la Royal Society sont étayées par des preuves, comme la démonétisation, mais d'autres ne semblent pas avoir été très efficaces dans la pratique : les
étiquettes de vérification des faits de Facebook sont d' une utilité douteuse , par exemple.
Le rapport de la Royal Society n'aborde que brièvement la démonétisation, se référant à des méthodes directes telles que la suppression de la capacité des promoteurs de désinformation à collecter des revenus publicitaires. Mais il existe de nombreuses façons
pour ceux qui accumulent de vastes audiences via les sites de médias sociaux grand public de gagner de l'argent hors site, comme les dons et les campagnes de financement participatif, les ventes de suppléments et de médecines alternatives , et aller constamment sur Fox News pour promouvoir leur livre. Permettre aux allégations scientifiques trompeuses de rester en place, même si elles sont démonétisées, ne supprime donc pas l'incitation financière à les publier en premier lieu.
Il est vrai, cependant, que les interdictions sur les sites grand public ont poussé un grand nombre de croyants vers des plateformes alternatives où prospèrent des croyances plus ouvertement extrêmes, comme l'application de messagerie Telegram . Dans une certaine mesure, le différend se résume à savoir si ce type de quarantaine en ligne auto-imposée est préférable à donner à ces internautes un accès au public sur les principales plateformes, ou si cela fonctionne du tout ; le rapport avertit que ces sites de niche doivent être soumis à «un examen plus approfondi.
«
La peur exprimée dans le rapport de la Royal Society semble similaire à ce qui s'est passé avec des applications comme WhatsApp, qui est pour la plupart non modérée et est devenue un vecteur de premier plan pour les discours de haine et les théories du complot dans des endroits comme l'Inde et le Brésil .
Le contexte est également important - les conclusions du rapport, en particulier celles liées aux enquêtes, se concentrent sur le Royaume-Uni et peuvent ne pas être universellement applicables. Par exemple, les taux de vaccination sont beaucoup plus élevés au Royaume-Uni qu'aux États-Unis, et une foule de théoriciens du complot n'a pas récemment pris d'assaut le Parlement.
Comme l'a noté Computer Weekly, les chercheurs de l'Election Integrity Partnership sont parvenus à des conclusions similaires à celles du rapport de la Royal Society sur la question distincte des allégations de canular concernant les élections de 2020 aux États-Unis, concluant qu'une "suppression généralisée" n'était pas nécessaire pour réduire leur propagation. Cependant, ces chercheurs ont également préconisé des sanctions plus sévères contre les comptes de médias sociaux et les organisations médiatiques qui sont des "récidivistes", y compris des interdictions.