Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture,
leur action en justice pourrait avoir des répercussions dans le monde entier
Au bord des larmes, Nathan Nkunzimana se souvient d'avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée. Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à regarder des horreurs pour que le monde n'ait pas à le faire. Certains collègues accablés criaient ou pleuraient, dit-il.
Aujourd'hui, Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l'entreprise locale Sama en raison de conditions de travail qui pourraient avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier. Il s'agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.
Le groupe était employé au centre de modération de contenu externalisé du géant des médias sociaux à Nairobi, la capitale du Kenya, où les travailleurs filtrent les messages, les vidéos, les messages et d'autres contenus provenant d'utilisateurs de toute l'Afrique, en supprimant tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions d'utilisation.
Les modérateurs, originaires de plusieurs pays africains, cherchent à obtenir un fonds d'indemnisation de 1,6 milliard de dollars après avoir dénoncé de mauvaises conditions de travail, notamment un soutien insuffisant en matière de santé mentale et une faible rémunération. Au début de l'année, ils ont été licenciés par Sama, qui a abandonné la modération de contenu. Ils affirment que les entreprises ne tiennent pas compte d'une décision de justice ordonnant la prolongation de leurs contrats jusqu'à ce que l'affaire soit résolue.
Facebook et Sama ont défendu leurs pratiques en matière d'emploi
Sans certitude quant à la durée de l'affaire, les modérateurs ont exprimé leur désespoir alors que l'argent et les permis de travail viennent à manquer et qu'ils se débattent avec les images traumatisantes qui les hantent.
« Si vous vous sentez à l'aise en naviguant et en parcourant la page Facebook, c'est parce qu'il y a quelqu'un comme moi qui a été là, sur cet écran, à se demander si c'est normal d'être ici ». Nkunzimana, père de trois enfants originaires du Burundi, a déclaré à l'Associated Press à Nairobi.
Selon ce jeune homme de 33 ans, la modération des contenus est comparable à des "soldats" qui prennent une balle pour les utilisateurs de Facebook, les employés surveillant les contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles et veillant à ce qu'ils soient supprimés. Pour Nkunzimana et d'autres, le travail a commencé par un sentiment de fierté, avec l'impression d'être des « héros pour la communauté ».
Mais lorsque l'exposition à des contenus alarmants a ravivé les traumatismes passés de certains qui, comme lui, avaient fui la violence politique ou ethnique dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret. On leur a demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n'étaient pas autorisés sur le lieu de travail.
Après son service, Nkuzimana rentrait chez lui épuisé et s'enfermait souvent dans sa chambre pour tenter d'oublier ce qu'il avait vu. Même sa femme n'avait aucune idée de ce qu'était son travail. Ces jours-ci, il s'enferme dans sa chambre pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne peuvent probablement plus payer les frais de scolarité. Le salaire des modérateurs de contenu était de 429 dollars par mois, les non-Kényans recevant en plus une petite indemnité d'expatriation.
Le sous-traitant de Facebook, la société américaine Sama, n'a pas fait grand-chose pour s'assurer que des conseils professionnels post-traumatiques étaient proposés aux modérateurs dans son bureau de Nairobi, a déclaré Nkuzimana. Il a ajouté que les conseillers n'étaient pas suffisamment formés pour faire face à ce que ses collègues vivaient. Aujourd'hui, en l'absence de soins de santé mentale, il se plonge dans l'église.
Meta, la société mère de Facebook, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.
Dans un courriel adressé à l'AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que "plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,90 dollar par jour)" avant d'être embauchés.
Sama a déclaré que tous les employés avaient un accès illimité à des conseils individuels « sans crainte de répercussions ». L'entrepreneur a également qualifié de « déroutante » une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu'une décision ultérieure suspendant cette décision signifiait qu'elle n'était pas entrée en vigueur.
Selon Sarah Roberts, experte en modération de contenu à l'université de Californie à Los Angeles, ce type de travail peut être « incroyablement préjudiciable sur le plan psychologique », mais les demandeurs d'emploi des pays à faible revenu pourraient prendre le risque en échange d'un emploi de bureau dans l'industrie technologique.
Dans des pays comme le Kenya, où la main-d'œuvre bon marché est abondante, l'externalisation d'un travail aussi sensible est « l'histoire d'une industrie qui exploite les inégalités économiques mondiales à son avantage, qui fait du mal et qui n'assume ensuite aucune responsabilité parce que les entreprises peuvent dire : "Eh bien, nous n'avons jamais employé untel ou untel, c'était, vous savez, la tierce partie" », a-t-elle déclaré.
En outre, les soins de santé mentale fournis peuvent ne pas être « la crème de la crème » et des inquiétudes ont été soulevées quant à la confidentialité de la thérapie, a déclaré Roberts, professeur agrégé d'infographie à l'Université d'Amsterdam.
En outre, les soins de santé mentale fournis peuvent ne pas être "la crème de la crème" et des préoccupations ont été soulevées quant à la confidentialité de la thérapie, a déclaré Roberts, professeur agrégé d'études de l'information.
La différence dans l'affaire du Kenya, a-t-elle ajouté, est que les modérateurs s'organisent et s'opposent à leurs conditions, ce qui crée une visibilité inhabituelle. La tactique habituelle dans ce genre d'affaires aux États-Unis est le règlement à l'amiable, mais « si des affaires sont portées devant les tribunaux dans d'autres pays, il ne sera peut-être pas aussi facile pour les entreprises d'agir de la sorte », a-t-elle ajouté. Facebook a investi dans des centres de modération dans le monde entier après avoir été accusé de laisser circuler des discours haineux dans des pays comme l'Éthiopie et le Myanmar, où les conflits faisaient des milliers de victimes et où des contenus préjudiciables étaient publiés dans diverses langues locales.
Recherchés pour leur maîtrise de diverses langues africaines, les modérateurs de contenu engagés par Sama au Kenya se sont rapidement retrouvés face à des contenus graphiques qui leur étaient douloureusement proches.
Les deux années pendant lesquelles Fasica Gebrekidan a travaillé comme modératrice ont coïncidé avec la guerre dans la région du Tigré, au nord de l'Éthiopie, où des centaines de milliers de personnes ont été tuées et où de nombreux Tigréens, comme elle, ne savaient pas grand-chose sur le sort de leurs proches.
Souffrant déjà d'avoir dû fuir le conflit, cette jeune femme de 28 ans a passé sa journée de travail à regarder des vidéos « horribles » et d'autres contenus liés en grande partie à la guerre, y compris des viols. Pour les vidéos, elle devait regarder les 50 premières secondes et les 50 dernières pour décider si elles devaient être retirées. Le sentiment de gratitude qu'elle avait éprouvé en décrochant le poste a rapidement disparu. « Vous fuyez la guerre, puis vous devez la voir. Ce n'était qu'une torture pour nous », a déclaré Fasica Gebrekidan. Elle n'a plus de revenus ni de domicile fixe. Elle a déclaré qu'elle chercherait de nouvelles opportunités si seulement elle pouvait se sentir à nouveau normale. Ancienne journaliste, elle ne peut plus se résoudre à écrire, même pour évacuer ses émotions.
Fasica craint que « cette saleté » ne reste à jamais dans sa tête. Pendant qu'elle parlait à l'AP, elle n'a pas quitté des yeux un tableau situé de l'autre côté du café, d'un rouge profond, représentant ce qui semble être un homme en détresse. Cela l'a dérangée. Fasica reproche à Facebook l'absence de soins de santé mentale et de rémunération appropriés et accuse l'entrepreneur local de l'avoir utilisée et de l'avoir laissée partir. « Facebook devrait savoir ce qui se passe. Ils devraient se préoccuper de nous », dit-elle. Le sort de la plainte des modérateurs est entre les mains du tribunal kenyan, dont la prochaine audience aura lieu le 10 juillet. L'incertitude est frustrante, selon Fasica. Certains modérateurs abandonnent et retournent dans leur pays d'origine, mais ce n'est pas encore une option pour elle.
Source : Procédure judiciaire au Kenya
Et vous ?
Quel commentaire faites-vous de la situation ?
Voir aussi :
Facebook affirme qu'il ne lit pas les messages WhatsApp, mais une enquête révèle qu'il le fait en réalité, des millions de messages sont examinés à la fois par des modérateurs humains et par l'IA
Les travailleurs africains de ChatGPT, TikTok et Facebook votent en faveur de la syndicalisation, l'initiative vise à lutter contre le manque de soins de santé mentale et le travail précaire
Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale
Meta, la société mère de Facebook, licencie 60 personnes «*au hasard*» à l'aide d'un algorithme, Xsolla, une société dans l'industrie du jeu, licencie 150 employés également à l'aide d'un algorithme
Partager