YouTube est traduit en justice par une ex-modératrice, elle souffrirait de symptômes de SSPT et de dépression
en regardant des vidéos de décapitations, de fusillades et d'abus d'enfants
La modération de contenu peut-elle s’avérer dangereuse pour le modérateur ? Les plaintes ne sont pas fréquentes, mais il semble que la modération de contenu peut conduire le modérateur à un niveau élevé de stress et à des troubles du comportement. Une ancienne sous-traitante de YouTube vient d’intenter une action collective en justice contre la société pour avoir développé des symptômes de SSPT et une dépression. La plainte indique qu’elle a regardé des vidéos qui montrent des décapitations, des fusillades, des abus d'enfants, et bien d’autres encore.
Le SSPT, ou syndrome de stress post-traumatique, est un trouble anxieux sévère. Selon les experts, il se manifeste après une expérience vécue et qui se révèle être traumatisante avec une confrontation des idées de mort. En plus d’avoir développé ce trouble, la poursuivante de YouTube estime être aussi victime d’une dépression. Elle et ses collègues poursuivent l’entreprise en alléguant que le réseau social ne les a pas suffisamment protégés contre les préjudices psychologiques qui peuvent être causés par l'examen quotidien d'heures et d'heures de séquences vidéo.
Le recours collectif accuse YouTube d'enfreindre la loi californienne en ne fournissant pas un lieu de travail sûr aux modérateurs de contenu et en ne faisant pas assez pour préserver leur santé mentale. La plainte estime que les modérateurs passent un peu plus de quatre heures par jour à examiner des contenus vidéo parce que YouTube souffre d'un "manque chronique de personnel". Ces longues heures vont à l'encontre des bonnes pratiques de YouTube. Les travailleurs doivent revoir “entre 100 et 300 contenus par jour avec un taux d'erreur de 2 à 5 %".
Ainsi, la plainte indique que cela crée du stress et augmente le risque que les modérateurs développent un traumatisme psychologique en raison de leur travail. Selon le recours, les vidéos que la plaignante a dû regarder et revoir dans le cadre de son travail comprenaient des images de cannibalisme, de viols d'enfants, de suicide, d'automutilation, de bestialité, des vidéos d'une femme décapitée par un cartel, de la tête d'une personne écrasée par un char, d'un renard écorché vif et de fusillades dans une école. Elle a souffert d'un traumatisme psychologique lié à son travail et a payé de sa poche pour se faire soigner.
« Elle a beaucoup de mal à dormir et quand elle dort, elle fait d'horribles cauchemars », dit la plainte de l'ex-employée. « Elle reste souvent éveillée la nuit en essayant de s'endormir, en repassant des vidéos qu'elle a vues dans son esprit. Elle ne peut pas se trouver dans des endroits bondés, y compris les concerts et les événements, car elle craint les fusillades de masse. Elle a des crises de panique graves et débilitantes. Elle a perdu assez d'amis à cause de son anxiété autour des gens. Elle a des difficultés à interagir et à être entourée d'enfants et a maintenant peur d'avoir des enfants ».
La plaignante a préféré garder l’anonymat. Elle a travaillé sur YouTube par le biais de l’agence de recrutement Collabera dans un bureau à Austin, au Texas, de janvier 2018 à août 2019. À travers son action collective, elle cherche à obtenir un traitement médical, une compensation pour le traumatisme qu'elle a subi en modérant des contenus pour YouTube et la création d'un programme de surveillance médicale financé par YouTube qui permettrait de filtrer, diagnostiquer et traiter les modérateurs de contenu. Collabera et YouTube n'ont pas commenté l’affaire.
Selon des analystes, les agences tierces, comme Collabera, sont souvent utilisées par des entreprises technologiques comme Google et Facebook. En plus, le travail serait souvent mal payé, avec des contrats à court terme et des prestations de santé minimales. Les travailleurs doivent aussi signer des accords de non-divulgation (NDA), ce qui les empêche de parler à tout le monde de leur travail. Le recours liste quelques manquements présumés de YouTube et Collabera, dont les suivants :
- au cours du processus de formation, les nouveaux employés ont été exposés à des contenus graphiques sans orientation ni préparation adéquates. Il est dit aux stagiaires qu'ils peuvent quitter la salle lorsqu'on leur montre ce contenu, mais le procès indique que les gens craignent que “quitter la salle puisse signifier la perte de leur emploi” ;
- pendant la formation, “peu ou pas de temps a été consacré au bien-être et à la résilience”. Les conseillers qui guidaient les stagiaires leur ont dit de dormir suffisamment, de faire de l'exercice et de prendre des pauses régulières pendant le travail, mais lorsque les modérateurs de contenu ont commencé à travailler à plein temps, le rythme du travail signifiait que “ces pauses promises étaient illusoires” ;
- selon les bonnes pratiques de YouTube, les modérateurs ne doivent pas visionner de contenu graphique pendant plus de quatre heures par jour, mais en raison d'un manque chronique de personnel sur les lieux de travail, cette limite était “régulièrement” dépassée ;
- les services de soutien aux modérateurs de contenu comprenaient l'accès à des “Wellness Coaches” ou “coachs du bien-être”, mais ces coachs n'étaient pas des professionnels formés médicalement qui pouvaient diagnostiquer ou traiter des troubles de santé mentale. Un coach a conseillé à la plaignante du procès de prendre des drogues illégales pour faire face à ses symptômes, tandis qu'un autre coach a dit à un collègue de travail de simplement “faire confiance à Dieu” ;
- les modérateurs de contenu craignaient que les plaintes adressées aux entraîneurs ne soient signalées à la direction et ne pouvaient donc pas parler librement de leurs problèmes au travail.
Le procès souligne également les efforts déployés par YouTube “pour se protéger de toute responsabilité”. Il note que l'entreprise a commencé à forcer les modérateurs de contenu à signer une déclaration reconnaissant que ce travail peut leur causer des troubles de stress post-traumatique à partir de décembre dernier, quelque temps après que des médias américains ont publié des enquêtes sur le traumatisme causé par ce travail. YouTube a déclaré à plusieurs reprises qu'elle utiliserait des systèmes d'IA pour alléger le fardeau des modérateurs humains, mais cette semaine, la société a admis que ces filtres automatisés n'étaient pas aussi précis.
Le recours collectif contre YouTube est intenté par le cabinet d'avocats Joseph Saveri, qui a déjà poursuivi Facebook pour ne pas avoir protégé la santé mentale de ses propres modérateurs de contenu. Ce procès avait déjà conduit Facebook à payer 52 millions de dollars aux modérateurs qui avaient développé un SSPT à la suite de leur travail pour l'entreprise.
Source : Le recours collectif déposé contre YouTube
Et vous ?
Qu'en pensez-vous ?
Voir aussi
UK : YouTube viole la vie privée des enfants, selon un nouveau procès de 3,2 milliards $, « Le vrai prix des services "gratuits" de YouTube est que les enfants sont accros, influencés et exploités »
Le Premier Amendement ne s'applique pas sur YouTube : les juges rejettent la poursuite de PragerU, selon une décision de la Cour d'appel du neuvième circuit
YouTube commence le déploiement de YouTube Shorts, un concurrent de TikTok, quelques semaines après Reels d'Instagram
Partager