Pourquoi certains biologistes et écologistes pensent que les médias sociaux représentent un risque pour l'humanité ?
L’engouement pour une vie sociale virtuelle gagne de plus en plus en popularité. Grâce aux réseaux sociaux, nous pouvons découvrir et diffuser des informations plus rapidement que jamais, guidés par des algorithmes que la plupart d'entre nous ne comprennent pas vraiment. Mais une question fondamentale se pose : à quel prix ? Après des spécialistes des sciences sociales, journalistes et activistes, ce sont les biologistes et les écologistes qui s'inquiètent maintenant des conséquences de cette évolution sur notre démocratie, notre santé mentale et nos relations. Selon un article publié plus tôt ce mois, l'un des véritables défis auxquels nous sommes confrontés est l’insuffisance d'informations sur l’impact de ces médias sociaux. Pour ses chercheurs, l’étude de cet impact devait être considérée comme un problème urgent de société à traiter.
Dans un rapport intitulé "Stewardship of global collective behavior" publié dans la revue scientifique PNAS, dix-sept chercheurs spécialisés dans des domaines très différents, allant de la science du climat à la philosophie, font valoir que les universitaires devraient considérer l'étude de l'impact à grande échelle de la technologie sur la société comme une "discipline de crise". Une discipline de crise est un domaine dans lequel des scientifiques de différents domaines travaillent rapidement pour résoudre un problème sociétal urgent – comme la biologie de la conservation qui tente de protéger les espèces menacées ou la recherche en science du climat qui vise à stopper le réchauffement de la planète.
Le document affirme que notre manque de compréhension des effets comportementaux collectifs des nouvelles technologies constitue un danger pour la démocratie et le progrès scientifique. Par exemple, le document indique que les entreprises technologiques ont « tâtonné pendant la pandémie de coronavirus en cours, incapables d'endiguer "l'infodémie" de désinformation » qui a entravé l'acceptation générale des masques et des vaccins.
Alors que la désinformation sur le coronavirus se propageait à un rythme effréné sur les plateformes des réseaux sociaux, plusieurs des plus grandes sociétés de médias sociaux du monde – telles que Facebook, YouTube, Twitter et Reddit – ont annoncé en mars 2020 qu'elles collaboraient pour lutter contre la désinformation concernant la pandémie du coronavirus sur leur plateforme numérique. Avant cette déclaration commune, plusieurs plateformes numériques avaient déjà annoncé certaines mesures pour contrer "l’infodémie" liée au covid-19. Facebook et Twitter avaient, entre autres, pris des mesures afin de mettre en avant les informations des agences gouvernementales dans les recherches de termes liés au coronavirus.
Malgré ces efforts, une étude de l'organisation civile Avaaz publiée en août 2020 a découvert que la désinformation sur la santé sur Facebook a été vue plus de 3,8 milliards de fois tout au long de l'année 2019, atteignant son pic et son trafic maximum pendant la crise du covid-19. Selon le rapport, l'algorithme de Facebook lui-même, ainsi que les mesures laxistes de vérification des médias protégeraient les mouvements de déni de la pandémie sur sa plateforme de réseau social. Le réseau social est considéré comme « une menace majeure pour la santé publique », a conclu le rapport.
Les auteurs du dernier rapport préviennent qu'en cas d'incompréhension et d'absence de contrôle, les nouvelles technologies pourraient avoir des conséquences involontaires et contribuer à des phénomènes tels que « la falsification des élections, les maladies, l'extrémisme violent, la famine, le racisme et la guerre ». Il s'agit d'un avertissement grave et d'un appel à l'action lancé par un groupe inhabituellement diversifié d'universitaires de toutes disciplines – et leur collaboration montre à quel point ils sont concernés.
Tirer la sonnette d'alarme
Selon Carl Bergstrom, professeur de biologie à l'Université de Washington, coauteur de l’article, les médias sociaux en particulier – ainsi qu'un éventail plus large de technologies Internet, notamment la recherche pilotée par algorithme et la publicité basée sur le clic – ont changé la façon dont les gens obtiennent des informations et se forgent des opinions sur le monde. Et ils semblent l'avoir fait d'une manière qui rend les gens particulièrement vulnérables à la propagation de la désinformation. Bergstrom a fait cette déclaration lors d’un entretien distinct de l’article.
À titre d’exemple, Bergstrom a mentionné un "article de recherche mal fait" qui a suggéré que l'hydroxychloroquine pourrait être un traitement pour le covid et qui a emmené, en l'espace de quelques jours, des dirigeants du monde entier à faire la promotion du médicament. Il peut donc y avoir des bribes de désinformation qui explosent à une vitesse sans précédent, d'une manière qui n'aurait pas été possible avant l'avènement de cet écosystème de l'information, a-t-il dit.
« Voici un problème majeur, et la façon de le conceptualiser, qui est d'une importance capitale pour l'avenir ». il ajoute : « Hé, nous devons résoudre ce problème, et nous n'avons pas beaucoup de temps ».
On croit à tort que nous disons : « L'exposition à la publicité est mauvaise – c'est elle qui cause le mal ». Ce n'est pas ce que nous disons, a déclaré Bergstrom. L'exposition à la publicité peut être mauvaise ou non. Ce qui préoccupe les chercheurs, c'est le fait que cet écosystème de l'information s'est développé pour optimiser quelque chose d'orthogonal à des choses qui semblent extrêmement importantes, comme le fait de se préoccuper de la véracité de l'information ou de l'effet de l'information sur le bien-être humain, sur la démocratie, sur la santé, sur l'écosystème.
Pour ces scientifiques, ces questions sont tout simplement laissées à elles-mêmes, sans beaucoup de réflexion ou d'orientation. Cela les place dans cet espace de discipline de crise. C'est comme la science du climat, où l'on n'a pas le temps de s'asseoir et de tout régler de manière définitive. Les chercheurs admettent que les questions qui sont abordées dans leur article sont celles auxquelles les gens ont réfléchi dans de très nombreux domaines différents. Mais Bergstrom pense plutôt que leur document mettra en lumière l'ampleur de ce qui s'est passé et l'urgence d'y remédier. « J'espère qu'il incitera à une certaine forme de collaboration transdisciplinaire ».
Réagissant à la thèse selon laquelle il y a "de la douleur et de la souffrance" qui se produisent avec toutes les technologies transformationnelles, mais on finit par s’en sortir tôt ou tard, Bergstrom reconnaît que ces grandes transitions dans les technologies de l'information causent souvent des dommages collatéraux. Mais le fait d'avoir survécu ne signifie pas qu'il ne vaut pas la peine de réfléchir à la manière de s'en sortir en douceur, a-t-il dit.
« L'un des messages clés du document est qu'il y a une confiance générale dans le fait que tout va s'arranger, que les gens vont finir par apprendre à trier les sources d'information, que le marché va s'en occuper. Et je pense que l'une des choses que dit le document est que nous n'avons aucune raison particulière de penser que c'est vrai. Il n'y a aucune raison pour que les bonnes informations se hissent au sommet de l'écosystème que nous avons conçu. Nous sommes donc très inquiets à ce sujet », a-t-il ajouté.
Une défense importante des médias sociaux : Facebook et Twitter peuvent être des lieux où les gens partagent de nouvelles idées justes qui ne sont pas courantes
Bergstrom admet cette défense, toutefois, si quelqu'un sur les médias sociaux a raison, mais « si l'influence nette sur les médias sociaux est de promouvoir le sentiment anti-vaccination aux États-Unis au point que nous ne serons pas en mesure d'atteindre l'immunité de groupe, les médias sociaux ne s'en sortent pas pour autant ».
« La démocratisation de l'information a eu des effets profonds, notamment pour les communautés marginalisées et sous-représentées. Elle leur donne la possibilité de se mobiliser en ligne, d'avoir une plateforme et une voix. Et c'est fantastique », a déclaré l'auteur principal de l'article, Joe Bak-Coleman, chercheur postdoctoral au Center for an Informed Public de l'Université de Washington. « En même temps, nous avons des choses comme le génocide des musulmans rohingyas et une insurrection au Capitole qui se produit également. Et j'espère qu'il est faux de dire que nous devons avoir ces difficultés de croissance pour en tirer des avantages ».
Contre les défenseurs de la technologie qui disent : « Nous voyons simplement la polarisation du monde réel se refléter en ligne », mais il n'y a aucune preuve qu'Internet soit à l'origine de la polarisation, Bergstrom répond que cet argument devrait nous être familier. « C'est ce que Big Tobacco utilisait, non ? C'est le truc des Marchands de Doutes ». Ils disaient : « Eh bien, vous savez, oui, bien sûr, les taux de cancer du poumon sont en hausse, en particulier chez les fumeurs – mais il n'y a aucune preuve que c'est causé par cela ».
« Et maintenant nous entendons la même chose à propos de la désinformation : "Oui, bien sûr, il y a beaucoup de désinformation en ligne, mais cela ne change le comportement de personne". Mais tout à coup, vous avez un type en pagne avec des cornes de buffle qui court autour du Capitole », a-t-il ajouté.
Selon Bergstrom, la désinformation est l'un des vrais défis auxquels nous sommes confrontés, et cela est dû au fait que nous n'avons pas beaucoup d'informations. « Nous devons déterminer comment, dans quelle mesure, les gens ont été exposés à la désinformation, dans quelle mesure cela influence leur comportement ultérieur en ligne. Toutes ces informations sont détenues exclusivement par les entreprises technologiques qui gèrent ces plateformes », a-t-il déclaré.
Source : Article d’étude
Et vous ?
Que pensez-vous de cet article sur l’impact des médias sociaux ?
Le manque de compréhension des effets comportementaux collectifs des nouvelles technologies constitue un danger pour la démocratie et autres. Quel commentaire en faites-vous ?
Les gens peuvent-ils, avec le temps, apprendre tout seuls à trier les sources d'information ?
Voir aussi :
L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs, des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincants
Un système d'IA pourrait aider à contrer la propagation de la désinformation avec une précision de 96 %, grâce à un mécanisme qui détecte les comptes de médias sociaux à l'origine de ces campagnes
Facebook constitue une « menace majeure pour la santé publique », conclut un rapport, la désinformation sur la santé ayant été vue 3,8 milliards de fois sur le réseau social l'année dernière
Déclaration conjointe de Facebook, Reddit, Google, Twitter, YouTube sur la désinformation concernant le Covid-19 : « Nous invitons d'autres entreprises à se joindre à nous »
Partager