Des documents faisant l'objet d'une fuite révèlent les règles spéciales que Facebook applique à 5,8 millions de VIP,
ces personnes peuvent violer les normes sans aucune conséquence
Selon le Wall Street Journal, Facebook dispose d'un système interne secret qui exempte 5,8 millions d'utilisateurs de l'obligation de respecter les règles sur sa plateforme. Le journal a publié lundi une enquête détaillant comment des utilisateurs très en vue sur ses services, qui sont "dignes d'intérêt", "influents ou populaires, ou "risqués sur le plan des relations publiques", ne font pas l'objet des mêmes mesures d'application que les utilisateurs ordinaires, citant des documents internes de Facebook qu'il a consultés. Facebook a donc mis au point un programme appelé "XCheck" ou "cross check", qui est devenu dans de nombreux cas une liste blanche de facto. Au fil des ans, XCheck a permis à des célébrités, des politiciens, des athlètes, des militants et des journalistes de publier ce qu'ils voulaient, avec peu ou pas de conséquences en cas de violation des règles de l'entreprise. « Pour quelques membres choisis de notre communauté, nous n'appliquons pas nos politiques et nos normes… Contrairement au reste de notre communauté, ces personnes peuvent violer nos normes sans aucune conséquence », peut-on lire dans un rapport interne de Facebook qui a fuité. Au moins 5,8 millions de personnes étaient inscrites au programme XCheck l'année dernière. Cela signifie qu'un grand nombre de personnes influentes sont autorisées à publier de manière largement incontrôlée sur Facebook et Instagram.
Le géant des médias sociaux a reconnu que le programme existait pour les politiciens en 2019, mais les détails de l'étendue et de la mauvaise gestion de XCheck sont nouveaux. Facebook est apparemment conscient des problèmes de XCheck, d'après des extraits du rapport, mais l'entreprise a eu du mal à régler les problèmes. Le programme XCheck a été créé pour éviter les "PR fires", c'est-à-dire les réactions négatives du public qui se produisent lorsque Facebook commet une erreur sur le compte d'un utilisateur très connu.
Lorsque des utilisateurs typiques publient quelque chose qui est signalé par les algorithmes de modération ou retiré par des modérateurs humains, ils peuvent déposer un rapport auprès de Facebook. S'ils n'obtiennent pas gain de cause, ils ne peuvent pas faire grand-chose d'autre.
Mais lorsque des utilisateurs éminents sont modérés, ils peuvent faire part de leurs doléances à leurs abonnés, ce qui crée un problème potentiel de relations publiques. Si les utilisateurs sont des politiciens, ils peuvent demander une réglementation accrue de la plateforme. Ainsi, plutôt que de traiter ces utilisateurs d'élite de la même manière que tout le monde, Facebook les autorise à publier ce qu'ils veulent. Si un message est signalé par un algorithme, il est envoyé à un autre groupe de modérateurs, qui sont des employés à temps plein mieux formés, pour examen.
Pourtant, alors que la liste des utilisateurs s'est allongée, les équipes de modération de XCheck n'ont apparemment pas été en mesure de suivre le rythme. « Nous examinons actuellement moins de 10 % du contenu Xcheck », indique un document. La situation est telle que des utilisateurs d'élite auraient été en mesure de publier toutes sortes de contenus, de la désinformation aux menaces de violence, en passant par la pornographie de vengeance, et bien d'autres choses encore, permettant ainsi à des messages qui violent les politiques de Facebook d'apparaître néanmoins sur les fils d'actualité de milliers ou de millions de personnes.
Des traitements de faveur pour les utilisateurs VIP
Même dans les cas où le contenu est finalement supprimé, Facebook a traité les utilisateurs VIP différemment des autres. Dans les documents qui ont fait l’objet de fuites, le cas de Neymar, le joueur de football brésilien, se distingue. En 2019, il a publié sur ses comptes Facebook et Instagram une vidéo contenant des photos dénudées d'une femme qui l'avait accusé de viol. Il a affirmé qu'elle lui faisait de l'extorsion.
Pour les utilisateurs normaux, la publication d'images intimes non consensuelles déclenche une réaction directe : elle est immédiatement supprimée et le compte de la personne concernée est désactivé. Au lieu de cela, la vidéo de Neymar est restée en ligne pendant plus d'une journée. Les modérateurs habituels n'ont pas pu y toucher, et lorsqu'elle a été retirée par l'équipe XCheck, 56 millions de personnes l'avaient vue. La vidéo a été repostée 6 000 fois, et de nombreux commentateurs ont intimidé et harcelé la femme. Neymar a nié les allégations de viol et aucune plainte n'a été déposée. Mais malgré la publication de ce que Facebook a qualifié de "porno vengeur", le compte de Neymar n'a pas été supprimé.
Rien que l'année dernière, le système de vérification croisée a permis à des contenus enfreignant les règles d'être visionnés plus de 16 milliards de fois avant d'être supprimés, selon des documents internes de Facebook cités par le Wall Street Journal. Le rapport indique également que Facebook a "induit en erreur" son conseil de surveillance, qui a insisté sur son système de vérification croisée en juin lorsqu'il s'est demandé comment l'entreprise devait gérer la suspension indéfinie de Donald Trump. La société avait alors déclaré au conseil que le système n'affectait qu'un "petit nombre" de ses décisions et qu'il n'était "pas faisable" de partager davantage de données. « Le Conseil de surveillance a exprimé à de multiples occasions son inquiétude quant au manque de transparence des processus de modération de contenu de Facebook, notamment en ce qui concerne la gestion incohérente par l'entreprise des comptes très médiatisés. Le Conseil a recommandé à plusieurs reprises que Facebook soit beaucoup plus transparent en général, notamment en ce qui concerne sa gestion des comptes très médiatisés, tout en veillant à ce que ses politiques traitent tous les utilisateurs de manière équitable » a déclaré le Conseil de surveillance dans une déclaration partagée sur Twitter.
Dans une série de tweets, le directeur de la communication de Facebook, Andy Stone, a souligné comment l'entreprise a déjà rendu public son système "Cross-check" en 2018. « En fin de compte, au centre de cette histoire se trouve la propre analyse de Facebook selon laquelle nous devons améliorer le programme. Nous savons que notre application n'est pas parfaite et qu'il y a des compromis entre la vitesse et la précision . Nous avons de nouvelles équipes, de nouvelles ressources, et une refonte du processus qui est un flux de travail existant chez Facebook », a tweeté Stone.
Mark Zuckerberg a longtemps vanté l'un de ses slogans fétiches : les dirigeants de Facebook ne veulent pas que la plateforme soit "l'arbitre de la vérité" ou qu'elle décide de ce qui est vrai ou faux, puis qu'elle laisse en place ou supprime le contenu en conséquence. Mais cette approche non interventionniste a placé Facebook dans une position épineuse, surtout ces dernières années, alors que les critiques affirment que la désinformation est omniprésente sur le site et que certains républicains font croisade contre l'entreprise pour avoir servi un programme libéral et discriminé les conservateurs en ligne. Facebook a pris plusieurs mesures à la lumière de cet examen minutieux : des rapports ont fait surface en juin selon lesquels Facebook cesserait d'accorder aux politiciens un traitement spécial pour l'application de ses règles de contenu.
Sources : Twitter (1, 2) Facebook
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Facebook empêche ses employés de lire un rapport interne qui examine le rôle et les manquements du réseau social ayant conduit à l'émeute du Capitole. Vous pouvez le lire ici
Mark Zuckerberg aurait discrètement approuvé une modification de l'algorithme de modération de Facebook, qui a réduit le trafic vers les sites d'information progressistes
Modération des contenus : Facebook nomme les premiers membres du Conseil de surveillance indépendant, qui pourront annuler des décisions prises par la société ou le PDG, Mark Zuckerberg
Partager