3 pièce(s) jointe(s)
Les entreprises utilisent l'IA pour surveiller en temps réel les messages des employés dans Zoom, Teams, etc.
Les entreprises devraient-elles utiliser l'IA pour surveiller les habitudes de travail de leurs employés ?
Xsolla licencie 150 employés sur la base d'une analyse Big Data de leur activité
La société russe de services de paiement Xsolla a licencié 150 employés en une seule fois. Ce qui a suscité la controverse n'est pas la réduction du personnel en elle-même, mais la lettre du PDG, dans laquelle il a tenté d'expliquer la raison de cette décision. Dans sa lettre de licenciement, le PDG et fondateur de Xsolla, Aleksandr Agapitov, a informé ses employés qu'ils ont été licenciés sur la base d'une analyse Big Data de leur activité. Xsolla a fait face à des réactions négatives pour ce qui a été perçu comme un espionnage secret de ses employés. De nombreuses personnes ont également critiqué le ton de la lettre.
Xsolla renvoie 150 de ces employés jugés non productifs par l'IA
Il y a peut-être beaucoup de choses à se mettre sous la dent, mais l'intelligence artificielle dans les ressources humaines est déjà une réalité. L'email d'Agapitov a fait l'objet d'une fuite le 3 août. Au début, certains ont soupçonné qu'il pouvait s'agir d'un faux, mais son authenticité a ensuite été confirmée par certains points de vente de jeux locaux et par l'entreprise elle-même. Voici ci-dessous la traduction complète de la lettre :
« Vous avez reçu cet email parce que mon équipe Big Data a analysé vos activités dans Jira, Confluence, Gmail, les chats, les documents, les tableaux de bord et vous a étiqueté comme des employés non engagés et improductifs. Autrement dit, vous n'étiez pas toujours présent sur le lieu de travail lorsque vous travailliez à distance. Beaucoup d'entre vous peuvent être choqués, mais je crois sincèrement que Xsolla n'est pas pour vous. Nadia et son équipe de soins se sont associés à sept grandes agences de RH, afin de vous aider à trouver un bon endroit, où vous gagnerez plus et travaillerez encore moins.
Sasha vous aidera à obtenir une recommandation, y compris celle de moi-même. Et Natalia vous lira vos droits. Encore une fois, merci pour votre contribution. Si vous souhaitez rester en contact avec moi, écrivez-moi une longue lettre relatant toutes vos observations, vos injustices et votre gratitude ». Les 150 personnes ayant reçu cette lettre du PDG ont été licenciées du bureau de la société à Perm, en Russie. Dans une interview accordée au média russe App2Top.ru, Agapitov a déclaré que Xsolla doit parfois prendre des mesures difficiles et impopulaires pour continuer à se développer et à évoluer.
« Nous voulons que tous nos employés réfléchissent quotidiennement à la façon dont leurs actions et leurs décisions affectent le destin et le succès de l'entreprise, car nous avons des objectifs très ambitieux dans les années à venir ; c'est l'une des valeurs de Xsolla et cela se reflète dans tout - des normes de fonctionnement au système de rémunération », a-t-il déclaré, ajoutant que tous les employés recevront des paquets de compensation et l'aide des agences de RH. L'email divulgué a suscité des critiques de la part de nombreux utilisateurs de Twitter et d'autres forums communautaires.
L'entreprise a été vivement critiquée tant pour son ton que pour son analyse de l'activité des applications professionnelles. Certains ont fait remarquer que l'entreprise aurait plus de mal à recruter après une telle fuite. Ces derniers estiment en effet que Xsolla a violé le droit des employés en les espionnant. Sur Twitter, Alan Johnson, directeur des relations avec les influenceurs chez Warner Bros, a déclaré que Xsolla a également licencié des employés en Amérique du Nord. Selon l'experte russe en RH Alyona Vladimirskaya, l'utilisation du Big Data et de l'IA dans les RH ne devrait pas violer les droits des employés.
Elle estime que les données que la société a récoltées sur les employés sont peut-être biaisées. « Mesurer la performance des employés par leur temps de réseau et leur engagement plutôt que par des résultats de travail numérisés est à la fois dépassé et extrêmement inefficace », a-t-elle déclaré, conseillant également aux employés licenciés de poursuivre l'entreprise pour ses actions.
Quelques avantages de l'utilisation de l'IA et du Big Data par les RH ?
Les entreprises utilisent déjà la technologie de l'IA pour surveiller et contrôler leurs employés dans plusieurs régions du monde. Le fait que les employeurs utilisent l'analyse des données dans la gestion de la main-d'œuvre n'est pas une technologie nouvelle sur le marché, mais il manque seulement une conversation claire sur l'application et l'amélioration de cette technologie. Les processus qui sont actuellement assistés par l'intelligence artificielle sur le marché comprennent la planification de la main-d'œuvre, la dotation en personnel et les processus de gestion des performances.
Si l'IA ne peut pas transformer une entreprise du jour au lendemain ni être une solution miracle aux problèmes des chefs d'entreprise, elle peut toutefois apporter des améliorations progressives à la productivité ou à la planification, à condition que les attentes soient réalistes. L'IA dans les RH peut avoir un impact positif sur tous les aspects, du recrutement à la fidélisation en passant par le bien-être du personnel, l'enrichissement des emplois et la protection contre la fuite des cerveaux. L'IA peut aider à surveiller la santé émotionnelle du personnel. Selon les experts, cela permet aux dirigeants d'assister les employés.
Selon eux, les systèmes d'IA sont capables de recommander des pauses si les travailleurs semblent stressés, frustrés ou fatigués lorsqu'ils traitent avec les clients. « Les rôles pour lesquels les entreprises recrutent aujourd'hui n'existeront peut-être plus dans un avenir proche. L'IA permet aussi aux plateformes d'apprentissage de reproduire l'approche de fournisseurs de contenu grand public tels que Netflix, améliorant ainsi l'apprentissage et les résultats à un moment où la durée de vie des compétences humaines est réduite », a déclaré Dan Marsh, directeur du personnel chez Sponge.
En outre, l'IA dans les RH pourrait bien jouer un rôle précieux en aidant les employés à travailler de manière plus productive ou en suggérant des cours de formation en fonction des préférences de carrière. À titre d'exemple, LinkedIn Learning utilise déjà l'IA pour recommander déjà des cours en fonction du profil et de l'historique de formation des utilisateurs. Andrew Spence, directeur de la transformation des RH chez Glass Bead Consulting, voit de grands avantages dans l'utilisation de la technologie "pour capturer un large éventail de données personnelles au travail".
Il a affirmé que les organisations qui restent transparentes, responsabilisent la main-d'œuvre et partagent les bénéfices seront gagnantes. « Mon conseil est de revenir à la stratégie commerciale et de refuser que votre organisation soit distraite par tout le battage médiatique et les nouveaux outils brillants », a-t-il déclaré.
Quelques inconvénients de l'utilisation de l'IA et du Big Data par les RH ?
L'IA peut apprendre des données discriminatoires. À ce jour, il s'agit du plus grand problème de l'IA. Lorsque les données fournies à un système d'IA sont biaisées ou discriminatoires, les résultats qu'il fournit le sont tout autant. Selon certains experts, les entreprises sont encore une fois sommées de changer leurs technologies RH et, comme toujours, certains prédisent que les organisations qui ne le font pas suivront le chemin des dinosaures. S'ils jugent que l'IA va prendre une place de plus en plus importante dans les RH, ils identifient plusieurs problèmes fondamentaux à cette nouvelle tendance.
Comme l'a démontré le récent retrait du nouveau système d'IA de recrutement d'Amazon, qui a désélectionné des candidates au motif que les données indiquaient que la plupart des travailleurs de la Tech existants étaient des hommes, les préjugés inhérents à l'IA sont difficiles à éradiquer. Il ne s'agit pas seulement du fait que les données historiques ne sont pas nécessairement un prédicteur fiable de l'avenir. Il s'agit aussi de la manière dont le cadrage d'un problème, la façon dont les choix initiaux sont faits et le contexte social, ou son absence influencent tous ce qu'une machine semble "découvrir" en votre nom.
Pour que les ordinateurs puissent apprendre et se reproduire, ils ont besoin de traiter un grand nombre de données. Avec des centaines de milliers de points de données liés aux personnes à leur disposition, les outils d'IA déployés par les grandes entreprises peuvent effectivement trouver des modèles qui pourraient aider à prédire le risque de fuite ou le potentiel futur. En revanche, les petites entreprises ne disposent pas de suffisamment de données pour bénéficier d'une véritable IA, à moins qu'elles ne soient regroupées au sein de plusieurs organisations, et même dans ce cas, il peut y avoir des problèmes.
La question de savoir si les ordinateurs doivent être autorisés à prendre des décisions concernant l'avenir des êtres humains reste primordiale. Bien sûr, les responsables du personnel doivent se familiariser avec l'IA, notamment en raison de l'impact qu'elle a déjà sur la main-d'œuvre, mais tous les professionnels des RH doivent être prêts à poser les questions difficiles. Par exemple, selon un conseiller en technologie, les professionnels des RH finiront par utiliser des algorithmes pour trouver le bon candidat pour un poste en quelques secondes.
Mais il estime que ce sont les données souvent corrompues sur lesquelles s'appuie le monde des affaires qui sont les plus préoccupantes. « Bien qu'il soit nécessaire de prendre le temps de nettoyer les ensembles de données existants des biais humains inhérents, l'adoption à grande échelle de l'IA dans les RH restera dans un avenir prévisible le fruit de l'imagination débordante des spécialistes du marketing et des geeks », a-t-il déclaré.
Aujourd'hui, certains fournisseurs de logiciels de recrutement proposent des outils d'entretien vidéo optimisés par l'IA pour aider à rationaliser les exercices de recrutement de masse. Cependant, la plupart des directeurs RH expérimentés connaissent des histoires d'horreur de candidats qui ont coché toutes les cases, mais qui n'ont pas réussi à s'épanouir dans une culture d'entreprise particulière, ou de candidats aberrants qui semblaient présenter un risque élevé, mais qui se sont avérés être des superstars.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de la lettre de licenciement du PDG de Xsolla ?
:fleche: Quel est votre avis sur l'utilisation de l'IA et du Big Data dans les RH ?
:fleche: Pensez-vous que les avantages de cette utilisation l'emportent sur les inconvénients ?
:fleche: Quelles sont vos recommandations pour réduire, voire éliminer, les biais des systèmes d'IA utilisés dans les RH ?
Voir aussi
:fleche: Un chauffeur d'Amazon démissionne de l'entreprise à cause des caméras connectées à une IA installées dans les camions, capables d'enregistrer et analyser son visage et son corps pendant toute la durée
:fleche: Voici comment Amazon surveille et licencie automatiquement ses ouvriers d'entrepôt, ceci pour des raisons de productivité
:fleche: Amazon utilise des caméras connectées à une IA dans les camionnettes de livraison et certains conducteurs sont préoccupés par le respect de leur vie privée
:fleche: Amazon révèle que son outil automatique de recrutement exerce une discrimination contre les femmes et décide de le suspendre
:fleche: L'IA peut-elle éliminer les biais dans le processus de recrutement ? Oui, d'après des observateurs qui pensent qu'elle supplante l'humain
Ia et flicage de l'activité
Une parade peut-être :
Astuce et compétence pour utiliser l'IA à son profit et simuler une activité "normale" alors que l'on ne glande rien ! Un peu de travail au début pour mettre en place et ensuite, roue libre !
1 pièce(s) jointe(s)
Les entreprises utilisent l'IA pour surveiller en temps réel les messages des employés dans Zoom, Teams, etc.
Les entreprises comme Walmart et Delta utilisent l'IA pour surveiller en temps réel les messages des employés sur les applications de collaboration
afin de contrôler le sentiment et la toxicité
L'utilisation de l'IA pour surveiller les employés sur le lieu du travail semble avoir pris de l'ampleur dans les grandes entreprises comme Walmart, Delta, T-Mobile, Chevron et Starbucks. Aware, une société spécialisée dans l'analyse des messages des employés, fournit des outils d'IA qui permettent aux entreprises de surveiller leurs employés, notamment les conversations sur les canaux de collaboration et de messagerie comme Teams et Zoom. Cette forme de surveillance semble nettement plus invasive que les méthodes utilisées par le passé. Les experts et les défenseurs de la vie privée dénoncent cette pratique et appellent à une réglementation visant à l'interdire.
Un rapport publié récemment par CNBC indique que l'IA ne se contente pas d'arracher les emplois de certains travailleurs : elle est également chargée de scruter en temps réel les interactions entre ceux qui réussissent à conserver leurs places dans les entreprises. Il indique qu'un certain nombre de grandes entreprises américaines utilisent des systèmes de surveillance basés sur l'IA pour analyser les communications des employés dans des applications professionnelles populaires telles que Slack, Teams, Zoom, etc. La tendance aurait également gagné l'Europe avec des marques telles que Nestlé et AstraZeneca.
Le rapport révèle que ces grandes entreprises utilisent une technologie fournie par Aware, une startup basée à Columbus, dans l'Ohio, aux États-Unis. Aware affirme qu'il fournit une plateforme d'intelligence contextuelle qui identifie et atténue les risques, renforce la sécurité et la conformité, et découvre des informations commerciales en temps réel à partir de conversations numériques à grande échelle. Les conversations numériques auxquelles Aware fait allusion dans la description de son produit sont les discussions que les travailleurs ont sur les applications de productivité et de collaboration.
Le produit phare d'Aware vise à surveiller le "sentiment" et la "toxicité" en utilisant des capacités de détection et d'analyse de la parole et de l'image pour observer les discussions des gens et leurs sentiments sur diverses questions. Le cofondateur et PDG d'Aware, Jeff Schuman, a expliqué que les rapports élaborés par le logiciel sont anonymisés et qu'il ne permet pas d'identifier les travailleurs. Il a ajouté que le logiciel permet aux entreprises de connaître en temps réel le sentiment des employés, plutôt que de dépendre d'une enquête annuelle ou semestrielle. Répondant aux questions de CNBC, Schuman a déclaré :
« Il n'y aura pas de noms de personnes, pour protéger la vie privée. Les entreprises verront plutôt que peut-être la main-d'œuvre âgée de plus de 40 ans dans cette partie des États-Unis voit les changements apportés à [une] politique de manière très négative en raison du coût, mais que tous les autres, en dehors de cette tranche d'âge et de ce lieu, les voient de manière positive parce qu'ils sont touchés d'une manière différente ». Mais les experts ne sont pas d'accord avec Schuman. Bien que les données soient ostensiblement anonymes, des étiquettes peuvent être ajoutées pour les fonctions, l'âge, le sexe, etc.
Ce qui permet à la plateforme d'identifier si certains départements ou groupes démographiques réagissent plus ou moins positivement aux nouvelles politiques ou annonces de l'entreprise. Mais un autre outil proposé par Aware permet de signaler les messages de certaines personnes. Les choses empirent cependant avec un autre de leurs outils, l'eDiscovery. Il permet aux entreprises de nommer des personnes (des représentants des ressources humaines, des managers, des cadres supérieurs) qui pourraient identifier des individus spécifiques violant les politiques de "risque extrême" définies par une entreprise donnée.
Ces risques peuvent être légitimes, comme les menaces de violence, les brimades ou le harcèlement, mais il n'est pas difficile d'imaginer que le logiciel soit chargé de signaler des risques moins authentiques. En effet, d'après Schuman, les dizaines de modèles d'IA d'Aware, conçus pour lire les textes et traiter les images, seraient en mesure d'identifier les brimades, le harcèlement, la discrimination, la non-conformité, la pornographie, la nudité et d'autres comportements. Toutefois, les experts estiment que le logiciel d'Aware peut renfermer différents biais, ce qui signifie qu'il pourrait renvoyer de nombreux faux positifs.
Parlant du logiciel, Schuman a déclaré : « il suit en permanence le sentiment des employés en temps réel, et il suit en permanence la toxicité en temps réel. Si une banque utilise Aware et que le sentiment de ses employés monte en flèche au cours des 20 dernières minutes, c'est parce qu'ils parlent de quelque chose de positif, collectivement. La technologie serait en mesure de leur dire de quoi il s'agit ». Selon les experts, certains pourraient affirmer qu'il n'existe pas de droit ou d'attente en matière de protection de la vie privée sur les applications de messagerie interne et de collaboration utilisées en entreprise.
Cependant, la nouvelle d'un suivi analytique aura sans aucun doute un effet dissuasif sur la parole des gens. Il y a un monde de différence entre les méthodes traditionnelles de collecte passive de données et cette nouvelle surveillance en temps réel par l'IA. Aware s'empresse de souligner que les données de son produit sont anonymes, mais de nombreux critiques affirment que cette affirmation est très difficile à démontrer. L'absence de noms peut rendre les données sémantiquement anonymes, mais il suffit souvent d'une poignée de points de données pour identifier une personne (ou qui a dit quoi).
Des études remontant à plusieurs décennies ont montré qu'il était possible d'identifier des personnes dans des ensembles de données "anonymes" en utilisant très peu d'éléments d'information de base. Il sera intéressant de voir les répercussions lorsque les premiers licenciements auront lieu parce que l'IA a déterminé que le chat Teams d'une personne présentait un "risque extrême". Aware affirme avoir analysé plus de 20 milliards d'interactions entre plus de trois millions d'employés. Certains craignent qu'ils ne soient entrés dans un territoire orwellien, en référence au roman "1984" du regretté George Orwell.
En août 2021, la société russe de services de paiement Xsolla a licencié 150 employés en une seule fois. Ce qui a suscité la controverse n'est pas la réduction du personnel en elle-même, mais la lettre du PDG, dans laquelle il a tenté d'expliquer la raison de cette décision : l'IA. Le PDG et fondateur de Xsolla, Aleksandr Agapitov, a informé ses employés qu'ils ont été licenciés sur la base d'une analyse Big Data de leur activité. Xsolla a fait face à des réactions négatives pour ce qui a été perçu comme un espionnage secret de ses employés. De nombreuses personnes ont également critiqué le ton de la lettre.
Jutta Williams, cofondatrice de l'organisation à but non lucratif Humane Intelligence, a déclaré que l'IA ajoute une nouvelle dimension, potentiellement problématique, aux programmes de lutte contre le risque d'intrusion, qui existent depuis des années pour évaluer des phénomènes tels que l'espionnage d'entreprise, en particulier dans le cadre des communications par courriel. Elle a déclaré à propos de ces outils de surveillance : « une grande partie de cette technologie devient une forme de criminalité intellectuelle. Il s'agit de traiter les gens comme des stocks d'une manière que je n'ai jamais vue ».
Amba Kak, directrice générale du groupe "AI Now Institute" de l'université de New York, s'inquiète de l'utilisation de l'IA pour déterminer ce qui est considéré comme un comportement à risque. Elle a déclaré que la Federal Trade Commission (FTC) des États-Unis, le ministère américain de la Justice (DOJ) et l'Equal Employment Opportunity Commission (EEOC) ont tous exprimé des inquiétudes à ce sujet, bien qu'elle ne parlait pas spécifiquement de la technologie d'Aware. « Il s'agit autant de questions relatives aux droits des travailleurs qu'à la protection de la vie privée ».
Pendant des années, les entreprises ont surveillé le contenu des courriels de leurs employés, en mettant en place des outils et des règles pour vérifier passivement ce que les employés s'envoyaient les uns aux autres et envoyaient dans le monde. Toutefois, cette surveillance est appelée à devenir nettement plus invasive. Une autre préoccupation est que même les données agrégées peuvent être facilement désanonymisées lorsqu'elles sont rapportées à un niveau granulaire, "comme l'âge de l'employé, le lieu de travail, la division, l'ancienneté ou la fonction".
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de la surveillance des employés avec des outils d'IA ?
:fleche: Cette forme de surveillance va-t-elle à devenir la norme sur le marché du travail ?
:fleche: Selon vous, cette forme de surveillance est-elle l'égale ? Sinon doit-elle être interdite ?
:fleche: Quels pourraient être les impacts de cette surveillance sur les employés et les entreprises elles-mêmes ?
Voir aussi
:fleche: Les entreprises devraient-elles utiliser l'IA pour surveiller les habitudes de travail de leurs employés ? Xsolla licencie 150 employés sur la base d'une analyse Big Data de leur activité
:fleche: La pandémie a-t-elle normalisé les logiciels de surveillance des employés ? Des rapports indiquent que ces logiciels se répandent rapidement
:fleche: Les entreprises technologiques ont déjà supprimé 34 000 emplois depuis le début de l'année pour se tourner vers l'IA, afin d'alimenter leur prochaine phase de croissance