IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture.

  1. #1
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 043
    Points
    58 043
    Par défaut Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture.
    Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture,
    leur action en justice pourrait avoir des répercussions dans le monde entier

    Au bord des larmes, Nathan Nkunzimana se souvient d'avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée. Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à regarder des horreurs pour que le monde n'ait pas à le faire. Certains collègues accablés criaient ou pleuraient, dit-il.

    Nom : Screenshot_2023-07-01 Facebook content moderators in Kenya call the work 'torture ' Their lawsui.png
Affichages : 2571
Taille : 45,2 Ko

    Aujourd'hui, Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l'entreprise locale Sama en raison de conditions de travail qui pourraient avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier. Il s'agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.

    Le groupe était employé au centre de modération de contenu externalisé du géant des médias sociaux à Nairobi, la capitale du Kenya, où les travailleurs filtrent les messages, les vidéos, les messages et d'autres contenus provenant d'utilisateurs de toute l'Afrique, en supprimant tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions d'utilisation.

    Les modérateurs, originaires de plusieurs pays africains, cherchent à obtenir un fonds d'indemnisation de 1,6 milliard de dollars après avoir dénoncé de mauvaises conditions de travail, notamment un soutien insuffisant en matière de santé mentale et une faible rémunération. Au début de l'année, ils ont été licenciés par Sama, qui a abandonné la modération de contenu. Ils affirment que les entreprises ne tiennent pas compte d'une décision de justice ordonnant la prolongation de leurs contrats jusqu'à ce que l'affaire soit résolue.


    Facebook et Sama ont défendu leurs pratiques en matière d'emploi

    Sans certitude quant à la durée de l'affaire, les modérateurs ont exprimé leur désespoir alors que l'argent et les permis de travail viennent à manquer et qu'ils se débattent avec les images traumatisantes qui les hantent.

    « Si vous vous sentez à l'aise en naviguant et en parcourant la page Facebook, c'est parce qu'il y a quelqu'un comme moi qui a été là, sur cet écran, à se demander si c'est normal d'être ici ». Nkunzimana, père de trois enfants originaires du Burundi, a déclaré à l'Associated Press à Nairobi.

    Selon ce jeune homme de 33 ans, la modération des contenus est comparable à des "soldats" qui prennent une balle pour les utilisateurs de Facebook, les employés surveillant les contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles et veillant à ce qu'ils soient supprimés. Pour Nkunzimana et d'autres, le travail a commencé par un sentiment de fierté, avec l'impression d'être des « héros pour la communauté ».

    Mais lorsque l'exposition à des contenus alarmants a ravivé les traumatismes passés de certains qui, comme lui, avaient fui la violence politique ou ethnique dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret. On leur a demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n'étaient pas autorisés sur le lieu de travail.

    Après son service, Nkuzimana rentrait chez lui épuisé et s'enfermait souvent dans sa chambre pour tenter d'oublier ce qu'il avait vu. Même sa femme n'avait aucune idée de ce qu'était son travail. Ces jours-ci, il s'enferme dans sa chambre pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne peuvent probablement plus payer les frais de scolarité. Le salaire des modérateurs de contenu était de 429 dollars par mois, les non-Kényans recevant en plus une petite indemnité d'expatriation.

    Le sous-traitant de Facebook, la société américaine Sama, n'a pas fait grand-chose pour s'assurer que des conseils professionnels post-traumatiques étaient proposés aux modérateurs dans son bureau de Nairobi, a déclaré Nkuzimana. Il a ajouté que les conseillers n'étaient pas suffisamment formés pour faire face à ce que ses collègues vivaient. Aujourd'hui, en l'absence de soins de santé mentale, il se plonge dans l'église.

    Meta, la société mère de Facebook, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.

    Dans un courriel adressé à l'AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que "plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,90 dollar par jour)" avant d'être embauchés.

    Sama a déclaré que tous les employés avaient un accès illimité à des conseils individuels « sans crainte de répercussions ». L'entrepreneur a également qualifié de « déroutante » une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu'une décision ultérieure suspendant cette décision signifiait qu'elle n'était pas entrée en vigueur.

    Selon Sarah Roberts, experte en modération de contenu à l'université de Californie à Los Angeles, ce type de travail peut être « incroyablement préjudiciable sur le plan psychologique », mais les demandeurs d'emploi des pays à faible revenu pourraient prendre le risque en échange d'un emploi de bureau dans l'industrie technologique.

    Dans des pays comme le Kenya, où la main-d'œuvre bon marché est abondante, l'externalisation d'un travail aussi sensible est « l'histoire d'une industrie qui exploite les inégalités économiques mondiales à son avantage, qui fait du mal et qui n'assume ensuite aucune responsabilité parce que les entreprises peuvent dire : "Eh bien, nous n'avons jamais employé untel ou untel, c'était, vous savez, la tierce partie" », a-t-elle déclaré.

    En outre, les soins de santé mentale fournis peuvent ne pas être « la crème de la crème » et des inquiétudes ont été soulevées quant à la confidentialité de la thérapie, a déclaré Roberts, professeur agrégé d'infographie à l'Université d'Amsterdam.

    En outre, les soins de santé mentale fournis peuvent ne pas être "la crème de la crème" et des préoccupations ont été soulevées quant à la confidentialité de la thérapie, a déclaré Roberts, professeur agrégé d'études de l'information.

    La différence dans l'affaire du Kenya, a-t-elle ajouté, est que les modérateurs s'organisent et s'opposent à leurs conditions, ce qui crée une visibilité inhabituelle. La tactique habituelle dans ce genre d'affaires aux États-Unis est le règlement à l'amiable, mais « si des affaires sont portées devant les tribunaux dans d'autres pays, il ne sera peut-être pas aussi facile pour les entreprises d'agir de la sorte », a-t-elle ajouté. Facebook a investi dans des centres de modération dans le monde entier après avoir été accusé de laisser circuler des discours haineux dans des pays comme l'Éthiopie et le Myanmar, où les conflits faisaient des milliers de victimes et où des contenus préjudiciables étaient publiés dans diverses langues locales.

    Recherchés pour leur maîtrise de diverses langues africaines, les modérateurs de contenu engagés par Sama au Kenya se sont rapidement retrouvés face à des contenus graphiques qui leur étaient douloureusement proches.

    Les deux années pendant lesquelles Fasica Gebrekidan a travaillé comme modératrice ont coïncidé avec la guerre dans la région du Tigré, au nord de l'Éthiopie, où des centaines de milliers de personnes ont été tuées et où de nombreux Tigréens, comme elle, ne savaient pas grand-chose sur le sort de leurs proches.

    Souffrant déjà d'avoir dû fuir le conflit, cette jeune femme de 28 ans a passé sa journée de travail à regarder des vidéos « horribles » et d'autres contenus liés en grande partie à la guerre, y compris des viols. Pour les vidéos, elle devait regarder les 50 premières secondes et les 50 dernières pour décider si elles devaient être retirées. Le sentiment de gratitude qu'elle avait éprouvé en décrochant le poste a rapidement disparu. « Vous fuyez la guerre, puis vous devez la voir. Ce n'était qu'une torture pour nous », a déclaré Fasica Gebrekidan. Elle n'a plus de revenus ni de domicile fixe. Elle a déclaré qu'elle chercherait de nouvelles opportunités si seulement elle pouvait se sentir à nouveau normale. Ancienne journaliste, elle ne peut plus se résoudre à écrire, même pour évacuer ses émotions.

    Fasica craint que « cette saleté » ne reste à jamais dans sa tête. Pendant qu'elle parlait à l'AP, elle n'a pas quitté des yeux un tableau situé de l'autre côté du café, d'un rouge profond, représentant ce qui semble être un homme en détresse. Cela l'a dérangée. Fasica reproche à Facebook l'absence de soins de santé mentale et de rémunération appropriés et accuse l'entrepreneur local de l'avoir utilisée et de l'avoir laissée partir. « Facebook devrait savoir ce qui se passe. Ils devraient se préoccuper de nous », dit-elle. Le sort de la plainte des modérateurs est entre les mains du tribunal kenyan, dont la prochaine audience aura lieu le 10 juillet. L'incertitude est frustrante, selon Fasica. Certains modérateurs abandonnent et retournent dans leur pays d'origine, mais ce n'est pas encore une option pour elle.

    Source : Procédure judiciaire au Kenya

    Et vous ?

    Quel commentaire faites-vous de la situation ?

    Voir aussi :

    Facebook affirme qu'il ne lit pas les messages WhatsApp, mais une enquête révèle qu'il le fait en réalité, des millions de messages sont examinés à la fois par des modérateurs humains et par l'IA

    Les travailleurs africains de ChatGPT, TikTok et Facebook votent en faveur de la syndicalisation, l'initiative vise à lutter contre le manque de soins de santé mentale et le travail précaire

    Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale

    Meta, la société mère de Facebook, licencie 60 personnes «*au hasard*» à l'aide d'un algorithme, Xsolla, une société dans l'industrie du jeu, licencie 150 employés également à l'aide d'un algorithme

  2. #2
    Membre actif
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2021
    Messages
    87
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2021
    Messages : 87
    Points : 273
    Points
    273
    Par défaut
    Quelle horreur, merci à eux.
    J'espère, et je pense que c'est envisageable, qu'on va vite trouver comment mettre l'IA à profit pour s'occuper d'identifier et supprimer ce genre de contenu.
    C'est pas comme si, malheureusement, on manquait de matière pour en entrainer une, non ?

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 005
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 005
    Points : 6 286
    Points
    6 286
    Par défaut
    Le boulot de mer*e au Kenya, les bénéfices astronomiques à la Silicon Valley!

    Que voilà une globalisation économique bien pensée!

    PS: C'est de l'humour noir équivalent à un rire jaune... Diantre, mon commentaire va être fustigé par les wokistes de tout poils, mais attention "synthétiques" les poils pour ne pas froisser les défenseurs des animaux... euh non!, je peux pas écrire non plus "synthétiques", je vais froisser les écolo qui dénoncent la pollution plastique de mers

  4. #4
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 355
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 355
    Points : 4 083
    Points
    4 083
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    PS: C'est de l'humour noir équivalent à un rire jaune... Diantre, mon commentaire va être fustigé par les wokistes de tout poils, mais attention "synthétiques" les poils pour ne pas froisser les défenseurs des animaux... euh non!, je peux pas écrire non plus "synthétiques", je vais froisser les écolo qui dénoncent la pollution plastique de mers
    Arrete ta parano, on te trouves juste un peu con c'est tout.
    Et plus tu en rajoutes moins on t'en veux.
    Tu sais on a tous un tonton reac qu'on doit supporter pendant des heures aux réunions de famille, c'est pas la lecture de quelques seconde d'un message provocateur qui va nous faire partir en couille.
    Détends toi, touche de l'herbe et arrete de penser à nous, merci.

  5. #5
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 244
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 244
    Points : 20 526
    Points
    20 526
    Par défaut Des travailleurs poursuivent Meta, affirmant que le visionnage de vidéos brutales leur a causé un traumatisme
    "Cela vous marque à vie" : des travailleurs poursuivent Meta, affirmant que le visionnage de vidéos brutales leur a causé un traumatisme psychologique

    Un Irlandais a parlé des horreurs dégoûtantes qu'il a vécues alors qu'il travaillait comme modérateur de contenu pour Facebook. Chris Gray (50 ans) a commencé à travailler pour CPL, un sous-traitant de Facebook, en 2017. Son contrat de modérateur n'a duré qu'un an, mais M. Gray a fini par être la première personne en Europe à poursuivre Facebook en justice.

    En Espagne, plus de 20 % du personnel de CCC Barcelona Digital Services - appartenant à Telsus, la société que Meta a engagée pour vérifier le contenu de Facebook et d'Instagram, sont en congé maladie en raison de traumatismes psychologiques, a révélé Euronews.


    Les affaires judiciaires concernant le personnel qui a travaillé comme modérateur de contenu se multiplient, les ex-employés intentant des procès pour traumatisme psychologique.

    "Je n'ai pas réalisé à quel point cela m'avait affecté. Ce n'est que plus tard que j'ai réalisé que j'étais dans un sale état, que j'étais très stressé. Je n'arrivais pas à dormir et je devenais très agressif. Si quelqu'un parlait de mon travail, je pleurais après", a déclaré M. Gray à Euronews.

    Une enquête d'Euronews sur cette affaire a révélé des faits troublants. Les avocats qui ont parlé à l'organisation de presse ont décrit des vidéos de chiens bouillis vivants, de personnes torturées et une vidéo trop crue pour être décrite, impliquant le meurtre d'un enfant.

    "J'ai rempli des questionnaires disant que je me sentais débordé au travail. Mais il a fallu des années pour obtenir un rendez-vous avec quelqu'un", a déclaré M. Gray.

    Un avocat, Francesc Feliu, a déclaré à Euronews que l'exposition à des meurtres graphiques détruisait la vie des employés.

    "Outre le contenu absolument inhumain, il y a beaucoup de bruit, de cris et de sang", a déclaré M. Feliu. Cela entraîne de graves problèmes de santé mentale, tels que le stress post-traumatique, les troubles obsessionnels compulsifs et la dépression.

    "Nous parlons de personnes qui étaient en bonne santé et qui, tout à coup, voient apparaître ces troubles mentaux. Certains de ces travailleurs ont tenté de se suicider."

    "Ils produiraient des dizaines et des dizaines de personnes relativement jeunes qui souffrent de troubles mentaux. C'est extrêmement grave."

    "Ce genre de contenu vous marque à vie. Nous ne sommes pas des machines ou des ordinateurs dépourvus de sentiments."

    "En regardant une vidéo, beaucoup de ces personnes s'effondraient, elles ne pouvaient plus continuer."

    "Le psychologue les écoutait et leur disait que ce qu'ils faisaient était extrêmement important pour la société, qu'ils devaient imaginer que ce qu'ils voyaient n'était pas réel mais un film, et qu'ils devaient retourner au travail", a ajouté M. Feliu.

    Facebook a répondu à cette question par une déclaration à Euronews : "Nous prenons au sérieux le soutien des réviseurs de contenu et demandons à toutes les entreprises avec lesquelles nous travaillons de fournir un soutien sur site 24/7 par des praticiens formés."

    Facebook affirme qu'il existe des "solutions techniques pour limiter autant que possible l'exposition au matériel graphique".

    "Les personnes qui examinent le contenu sur Facebook et Instagram peuvent ajuster l'outil d'examen du contenu pour que le contenu graphique apparaisse complètement flou, en noir et blanc ou sans son."

    Cependant, Euronews rapporte que certains anciens modérateurs de contenu ont peur de sortir dans la rue, une demi-décennie après avoir quitté leur poste.

    M. Gray a publié un livre sur le sujet, intitulé The Moderator.

    "Je suis sorti depuis quelques années et je travaille maintenant avec des gens. Un contact face à face avec de vraies personnes", a-t-il déclaré lors d'une interview radiophonique sur RTÉ l'année dernière.

    Source : Euronews

    Et vous ?

    Quelle lecture faites-vous de cette situation ?

    Selon vous, les plateformes de médias sociaux comme Facebook ont-elles la responsabilité morale de veiller au bien-être mental de leurs modérateurs de contenu, compte tenu des contenus traumatisants auxquels ils sont exposés ?

    Quel est votre point de vue sur l'efficacité des solutions proposées par Facebook, telles que le floutage des contenus graphiques ou la fourniture d'une assistance sur place, pour remédier au traumatisme psychologique subi par les modérateurs de contenu ?

    Voir aussi

    Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier

    Une ex-modératrice de Facebook porte plainte pour stress post-traumatique, après avoir été exposée à des contenus choquants

    Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale

  6. #6
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 355
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 355
    Points : 4 083
    Points
    4 083
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Quelle lecture faites-vous de cette situation ?
    Je trouve d'un cynisme crasse que la modération graphique semble être essentiellement faites par des personnes alors que pour ce qui est du texte l'humain a été retiré depuis longtemps.
    Les bots devraient être capable de trier ces vidéos et qu'elles ne passent en revue qu'en cas de doute ou en cas de réclamation.
    Citation Envoyé par Anthony Voir le message
    Selon vous, les plateformes de médias sociaux comme Facebook ont-elles la responsabilité morale de veiller au bien-être mental de leurs modérateurs de contenu, compte tenu des contenus traumatisants auxquels ils sont exposés ?
    Absolument, bon nombre d'industries sont en partie responsables de s'assurer que leurs sous-traitants respectent les règles.
    Bien sûr, les sous-traitants sont capables de contourner ça et ce n'est qu'une solution partielle mais ça diminue largement le risque et ça ouvre la porte aux audits/enquetes judiciaires ou journalistiques etc.
    J'ai aussi envie de poser la question de ce qui est fait de ce contenu, les faits décrits me semblent (je ne suis pas juriste) être des crimes, n'est pas un moyen de s'attaquer à ce que notre gouvernmenement prétend combattre en nous espionnant tous?
    Citation Envoyé par Anthony Voir le message
    Quel est votre point de vue sur l'efficacité des solutions proposées par Facebook, telles que le floutage des contenus graphiques ou la fourniture d'une assistance sur place, pour remédier au traumatisme psychologique subi par les modérateurs de contenu ?
    Les moyens techniques de réduire la violence de vidéos (floutage, couper le son etc) sont probablement pertinents mais on demande probablement aux personnes d'avoir un rythme élevé et on ne leur donne probablement pas le temps de visionner les vidéos plusieurs fois en commençant par le filtrage maximal. Donc c'est de l'hypocrisie.
    Concernant l'assistance sur place, c'est un peu pareil, les gens sont mis sous pression, aller voir le psy c'est perdre en "productivité" et des que le manager sait que tu y es passé le licenciement se rapproche. Et quand on lit les réponses des psy c'est un pur scandale, ces personnes sont elles vraiment diplomées ou sont elles dans la même situation que les personnes qui viennent les voir : elles ont le seul boulot qu'elles ont trouvé et elles ont peur de le perdre?

    Facebook n'en a rien à faire de ces modérateurs, ce sont des consommables à exploiter jusqu'à la fin. Ils pensent probablement que c'est un mal nécessaire et donc qu'il faut faire avec.
    Je trouve que l'idée du "vis ma vie" a quelque chose de ridicule mais dans certaines situations c'est peut être efficace.

  7. #7
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 568
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 568
    Points : 109 582
    Points
    109 582
    Par défaut Meta peut être poursuivi pour des licenciements effectués par son sous-traitant, selon un tribunal du Kenya
    Un tribunal kenyan estime que Meta peut être poursuivi pour des licenciements effectués par son sous-traitant, après que des modérateurs de Facebook ont poursuivi Meta et un entrepreneur local

    Un tribunal du Kenya estime que Meta peut être poursuivi pour des licenciements effectués par un sous-traintant. Des modérateurs de Facebook ont poursuivi Meta et un entrepreneur local parce qu'ils avaient perdu leur emploi pour avoir organisé un syndicat.

    En juillet 2023, 200 anciens employés kenyans ont poursuivi Meta et l'entreprise locale Sama en raison de conditions de travail qui pourraient avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier. Le groupe était employé au centre de modération de contenu externalisé du géant des médias sociaux à Nairobi, la capitale du Kenya, où les travailleurs filtrent les messages, les vidéos, les messages et d'autres contenus provenant d'utilisateurs de toute l'Afrique, en supprimant tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions d'utilisation.

    Il s'agit de la première action en justice connue en dehors des États-Unis, où Meta a conclu un accord avec les modérateurs en 2020. En 2018, une ex-modératrice de Facebook a intenté une action en justice en Californie, alléguant que les modérateurs de contenu confrontés à un traumatisme mental après avoir examiné des images pénibles sur la plateforme ne sont pas correctement protégés par la société.

    Un tribunal kenyan a statué que la société mère de Facebook, Meta, pouvait être poursuivie en justice dans ce pays d'Afrique de l'Est pour le licenciement de dizaines de modérateurs de contenu par un sous-traitant.


    En 2023, les modérateurs de contenu ont poursuivi Meta et deux entrepreneurs locaux, affirmant qu'ils avaient perdu leur emploi chez Sama, une entreprise kenyane chargée de modérer le contenu de Facebook, parce qu'ils avaient organisé un syndicat. Ils ont déclaré qu'ils avaient ensuite été interdits de postuler pour les mêmes fonctions auprès d'une autre entreprise, Majorel, après que Facebook a changé de sous-traitant. Les négociations en vue d'un règlement à l'amiable ont échoué en octobre 2023.

    La décision rendue par la Cour d'appel a confirmé une décision antérieure rendue par un tribunal du travail kenyan en avril 2023, selon laquelle Meta pourrait faire l'objet d'un procès pour le licenciement des modérateurs, décision contre laquelle Meta avait fait appel. Elle a également confirmé une autre décision rendue en février 2023, selon laquelle Meta pouvait être poursuivi au Kenya pour de prétendues mauvaises conditions de travail, décision dont Meta a également fait appel.

    "Le résultat de nos conclusions ci-dessus est que les appels des appelants (Meta) sont dépourvus de fondement et que les deux appels sont par la présente rejetés avec dépens pour les intimés", ont déclaré les trois juges de la Cour d'appel dans leur décision.

    Source : Cour d'appel du Kenya

    Et vous ?

    Pensez-vous que cette décision est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Plus de 20 000 offres d'emploi de Développeur ou en Informatique

    Les travailleurs africains de ChatGPT, TikTok et Facebook votent en faveur de la syndicalisation. L'initiative vise à lutter contre le manque de soins de santé mentale et le travail précaire

    « Cela m'a complètement détruite » : un modérateur kényan révèle les conditions inhumaines de son travail pour OpenAI et Sama, qui violent les droits humains

    Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture. Leur action en justice pourrait avoir des répercussions dans le monde entier
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 8
    Dernier message: 06/06/2016, 17h20
  2. [MS-DOS] Supprimer tout les sous répertoires contenu dans un
    Par Furius dans le forum Scripts/Batch
    Réponses: 7
    Dernier message: 30/11/2005, 12h24

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo