Franchement c'est plutôt "nous aurions dû agir hier contre Facebook" dans les faits.
Franchement c'est plutôt "nous aurions dû agir hier contre Facebook" dans les faits.
Des documents révèlent que Facebook ciblait des enfants de 6 ans pour sa base d'utilisateurs,
l’entreprise recrutait des employés pour développer des programmes destinés aux enfants de 6 à 17 ans
Les documents Facebook qui ont fait l'objet d'une fuite ont révélé que le géant des médias sociaux s'efforçait de cibler les enfants dès l'âge de 6 ans afin d'élargir sa base de consommateurs et de générer davantage de profits pour le titan de la technologie. Un article de blog interne publié le 9 avril a annoncé que la société était en train d'embaucher des employés pour revoir sa gamme complète de produits destinés aux enfants de 6 à 9 ans et aux préadolescents de 10 à 12 ans. Actuellement, la société cible déjà les enfants à partir de 13 ans. Ce document, intitulé « Internet n'a pas été construit en pensant aux jeunes, mais nous sommes sur le point de changer cela », fait partie des documents publiés par l'équipe juridique de la dénonciatrice Frances Haugen et fournis au Congrès et à la Securities and Exchange Commission.
Des documents internes montrent que Facebook a activement recruté des employés pour créer des produits destinés aux enfants dès l'âge de 6 ans afin d'élargir sa base d'utilisateurs. « Notre entreprise fait un investissement majeur dans la jeunesse et a créé une équipe virtuelle interentreprises pour créer des expériences plus sûres et plus privées pour les jeunes qui améliorent leur bien-être et celui de leur foyer. Pour beaucoup de nos produits, nous n'avons historiquement pas conçu pour les moins de 13 ans », a écrit l'auteur d'un blog, dont le nom a été masqué.
Dans le billet de blog interne publié le 9 avril, l'auteur a écrit que la société prévoyait d'embaucher plusieurs postes au fur et à mesure qu'elle se développait pour offrir sa gamme complète de produits aux enfants plus jeunes que son seuil actuel de 13 ans. Les diagrammes illustrent les nouveaux groupes d'âges cibles proposés, allant des enfants de 6 à 9 ans et des préadolescents de 10 à 12 ans, ainsi que les cibles existantes que sont les jeunes adolescents de 13 à 15 ans, les adolescents de 16 à 17 ans et les adultes. « Ces cinq groupes d'âge peuvent être utilisés pour définir l'éducation, la transparence, les contrôles et les valeurs par défaut qui répondront aux besoins des jeunes utilisateurs », écrit l'employé de Facebook.
Les détracteurs de l'entreprise affirment que ces documents s'inscrivent dans une tendance de longue date de Facebook à tenter d'attirer les jeunes utilisateurs le plus tôt possible. « Facebook et Instagram ont montré à plusieurs reprises qu'on ne peut tout simplement pas leur faire confiance lorsqu'il s'agit du bien-être des enfants et des adolescents. Ils doivent se concentrer sur le nettoyage de leurs plateformes existantes au lieu d'essayer d'accrocher plus d'enfants à leurs plateformes addictives à des âges de plus en plus jeunes », a déclaré James Steyer, le fondateur et PDG de Common Sense Media, une organisation à but non lucratif qui fait des recherches sur la relation entre les enfants et le monde numérique.
Pour ce qui est de ses efforts pour attirer un public plus jeune, Facebook a commenté : « Les entreprises qui opèrent dans un espace hautement concurrentiel font des efforts pour attirer les jeunes générations. Étant donné que nos concurrents font la même chose, le fait que Facebook ne fasse pas ce travail mériterait d'être signalé dans les journaux ».
Les documents ont été inclus dans les divulgations faites à la Securities and Exchange Commission et fournis au Congrès sous une forme expurgée par le conseiller juridique de Frances Haugen, qui a travaillé comme chef de produit chez Facebook jusqu'en mai et qui s'est présentée comme une dénonciatrice. Des versions numériques des divulgations, avec certains noms et d'autres informations personnelles caviardées, ont été obtenues par un consortium d'organismes de presse. La plupart des documents sont des photographies numériques du matériel de l'entreprise sur des écrans d'ordinateur.
Le document a été partagé sur le forum interne de Facebook. « Nous avons quelques chercheurs à travers l'entreprise qui donnent le coup d'envoi de cette équipe virtuelle et nous en embauchons d'autres au fur et à mesure que ce travail se déploie », a écrit l'auteur, expliquant que l'équipe prévoyait de s'étendre en embauchant des personnes ayant de l'expérience dans « la recherche mondiale parmi les jeunes (en particulier les enfants, les préadolescents et leurs parents et proches) ». Le post énumère des emplois pour des catégories telles que Messenger Kids/Youth Platform et Instagram Child Safety et a partagé le nom du responsable de l'embauche pour chaque rôle, qui a été expurgé. Messenger Kids est une application d'appel vidéo et de messagerie créée par Facebook qui est actuellement disponible pour les enfants.
Le post comprend un diagramme intitulé " Where we've been and where we're going .... "(Où nous avons été et où nous allons) qui explique comment l'entreprise prévoit de s'étendre à des publics inférieurs à son seuil actuel de 13 ans. Le document cite la réglementation actuelle de la Federal Trade Commission concernant les services en ligne destinés aux enfants de moins de 13 ans, appelée le Children's Online Privacy Protection Act (COPPA). Le COPPA est une loi des États-Unis de 1998 visant à protéger la vie privée des enfants sur Internet. Cette loi concerne la collecte, par des personnes physiques ou morales sous le joug de la juridiction des États-Unis, d'informations sur les mineurs de 13 ans.
Dans un diagramme décrivant la manière dont l'entreprise travaille actuellement avec les jeunes utilisateurs, une note explique pourquoi l'entreprise a fixé un seuil à 13 ans. « La ligne COPPA est simple : nous traitons les 13 ans et plus comme les autres utilisateurs et demandons aux plus jeunes de ne pas utiliser nos produits ». Le diagramme adjacent est intitulé « Et à l'avenir » et la ligne « stop » qui représente les restrictions actuelles est supprimée et remplacée par des niveaux d'utilisateurs, notamment "Tweens 10-12" et "Kids 6-9." La diapositive n'explique pas comment la société s'y prendrait pour contourner les restrictions actuelles de la COPPA à l'avenir. Dans une diapositive intitulée « La conception pour les jeunes nécessite une attention particulière à la maturité cognitive et sociale », des personnages de dessins animés sont utilisés pour décrire différents groupes d'âge, dès les enfants de 6 à 9 ans.
Cette publication est diffusée une semaine avant qu'une coalition de 35 organisations et de 64 experts individuels, coordonnée par Fairplay, anciennement connue sous le nom de Campaign for a Commercial-Free Childhood, une organisation à but non lucratif basée à Boston, ne soulève des préoccupations concernant la vie privée, le temps d'écran, la santé mentale, l'estime de soi et la pression commerciale dans une lettre adressée au PDG de Facebook, Mark Zuckerberg. « Ces documents montrent clairement qu'au lieu de s'efforcer de rendre ses plateformes existantes moins nocives pour les adolescents, la priorité de Facebook était de piéger les jeunes enfants et de créer un réservoir d'utilisateurs à vie des produits Facebook. Malgré les affirmations de Facebook selon lesquelles sa motivation pour Instagram for Kids est de créer une expérience plus sûre pour les préadolescents, il est clair que la véritable raison est que Facebook fait une fixation sur les enfants pour stimuler la croissance. Les produits Facebook ne sont pas sûrs pour les jeunes enfants et une entreprise qui privilégie systématiquement les profits au détriment du bien-être des jeunes n'a pas à construire des plateformes pour les enfants », a déclaré Josh Golin, directeur exécutif de Fairplay.
En septembre, le responsable d'Instagram, Adam Mosseri, a annoncé que l'entreprise allait mettre en pause le développement d'une version de l'application de partage de photos destinée aux enfants. « Je reste fermement convaincu que c'est une bonne chose de construire une version d'Instagram conçue pour être sûre pour les préadolescents, mais nous voulons prendre le temps de parler aux parents, aux chercheurs et aux experts en sécurité et parvenir à un plus grand consensus sur la façon d'aller de l'avant », a-t-il déclaré.
Source : Documents Facebook
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des recherches internes de Facebook sur les enfants ?
Pensez-vous que Facebook et ses filiales sont investis dans la protection des enfants en ligne ?
Voir aussi :
Des documents internes de Facebook divulgués décrivent les enfants de 10 à 12 ans comme une "richesse inexploitée", et contiennent des plans pour attirer les enfants sur le réseau social
Instagram pour les enfants ? Mark Zuckerberg cible maintenant vos enfants et si le milliardaire les attrape tôt, il les aura pour la vie
Facebook affirme qu'il n'y a pas de lien entre l'utilisation de ses plateformes et la dépression des utilisateurs, mais les chercheurs décrivent une corrélation de plus en plus évidente
Punaise, mais laissez les grandir en paix !
Facebook est une boîte qui collecte autant d'information et qui ne les protège pas (cf. les fuites de données massives de ces dernières années). Je dirais même qu'ils s'en moque, si l'on en crois le mail interne qui avait lui aussi fuité et qui disait qu'il fallait habituer les utilisateurs au fuites de données en normalisant ces évènements...
Si l'on tient à la sécurité de ses enfants, il faut essayer de les tenir le plus éloignés possible de cette cochonnerie.
La seule protection dans laquelle Facebook investit c'est la protection de ses revenus.
La lanceuse d'alerte Frances Haugen exhorte Mark Zuckerberg à démissionner et à investir davantage sur la « sécurité »
au lieu de consacrer des ressources au « métavers »
Dans sa première allocution publique depuis qu'elle a divulgué une mine de documents préjudiciables sur le fonctionnement interne de Facebook, la dénonciatrice Frances Haugen a exhorté son ancien patron, Mark Zuckerberg, à démissionner et à autoriser le changement plutôt que de consacrer des ressources à une nouvelle image de marque.
« Je pense qu'il est peu probable que l'entreprise change si [Mark Zuckerberg] reste le PDG », a déclaré Haugen lundi dans une salle comble lors de la soirée d'ouverture du Web Summit, un festival technologique attirant des dizaines de milliers de personnes dans la capitale portugaise, Lisbonne.
L'ancien chef de produit Facebook a répondu positivement à la question de savoir si Zuckerberg devrait démissionner et a ajouté : « C'est peut-être une chance pour quelqu'un d'autre de prendre les rênes... Facebook serait plus fort avec quelqu'un qui serait prêt à se concentrer sur la sécurité ».
Le changement de nom de Facebook perçu comme une manœuvre de distraction pour certains et applaudi par d'autres
Durant l'édition 2021 de la Facebook Connect qui a eu lieu jeudi, Facebook a annoncé le changement de son nom. Comme Google l'avait fait auparavant en présentant Alphabet, Meta est la maison-mère de différentes entreprises dont Facebook, WhatsApp, Instagram, Messenger et Oculus. « Notre marque était trop liée à un seul de nos services et ne reflétait pas tout ce que nous faisons », a expliqué le PDG du groupe. « Ce nouveau nom marque notre nouvel objectif : aider à donner vie au métavers. »
Le projet, en développement dans le département Facebook Reality Labs (qui s'occupe des technologies de réalité augmentée, virtuelle et mixte), compte actuellement 10 000 salariés aux États-Unis. Facebook a annoncé le recrutement dans les cinq prochaines années de 10 000 ingénieurs et développeurs supplémentaires en Europe. Un projet pour lequel Facebook a réservé 10 milliards de dollars rien que pour 2021, une addition qui sera donc plus salée les années à venir.
Lors du discours d’ouverture de Facebook Connect, Mark Zuckerberg et d’autres cadres de l'entreprise ont parlé d'Horizon, le nom que donne l’entreprise au métavers qu’elle est en train de créer.
Selon eux, Horizon va révolutionner notre quotidien, du travail au divertissement, en passant par le sport. Aussi, plusieurs usages du métavers ont été montrés, comme pouvoir jouer à des jeux, se retrouver entre amis, assister à des évènements virtuels, faire du sport, ou même travailler.
« On utilisera sûrement des avatars hyper réalistes pour le monde du travail, mais aussi d'autres plus cartoons voire totalement fantaisistes pour d'autres activités », a noté le PDG. « Les avatars deviendront aussi communs que les photos de profil aujourd'hui, mais ils produiront des interactions beaucoup plus riches grâce aux expressions faciales et au langage du corps ». Les utilisateurs pourront également habiller leurs avatars grâce à des objets virtuels qu'ils pourraient acquérir.
Mais ce changement de nom est interprété comme une manœuvre de distraction par les critiques du groupe californien, empêtré dans les scandales et controverses.
« Facebook pense qu’un nouveau nom de marque peut l’aider à éviter le sujet », a indiqué il y a quelques jours The Real Facebook Oversight Board, une organisation non gouvernementale d’activistes anti-Facebook.
Les premiers utilisateurs des mondes virtuels connus sous le nom de métavers ont estimé que le changement de marque de Facebook est une tentative de capitaliser sur le buzz croissant autour d'un concept qu'il n'a pas créé.
Dans les mondes virtuels, les utilisateurs peuvent se promener en tant qu'avatar, rencontrer des amis et jouer à des jeux. Certains qui sont basés sur la blockchain permettent également aux utilisateurs de spéculer sur l'immobilier virtuel.
« Je pense que Facebook a effectué ce changement de nom précoce pour essentiellement sécuriser la nouvelle marque légalement dès que possible, à mesure que de plus en plus de marques s'y intéressent », a déclaré un investisseur en crypto basé au Royaume-Uni connu sous le nom de Pranksy, qui a déclaré avoir acheté pour la première fois des biens immobiliers dans le monde virtuel en 2020.
Artur Sychov, qui a fondé le métavers Somnium Space en 2017, a déclaré que l'annonce du changement de marque par le PDG de Facebook, Mark Zuckerberg, semblait « précipitée... c'est un peu comme essayer de s'insérer dans le récit du métavers qui se déroule actuellement ».
Sychov passe jusqu'à cinq heures par jour dans Somnium Space avec 1 000 à 2 000 autres utilisateurs quotidiens.
Dave Carr, responsable des communications de l'organisation qui gère le monde virtuel Decentraland, a déclaré que la décision de Facebook pourrait rencontrer la résistance des utilisateurs du métavers qui se méfient de son contrôle sur le contenu.
« Les personnes qui souhaitent déterminer l'avenir des mondes virtuels qu'ils habitent, conserver la propriété de leur production créative et se déplacer librement entre eux choisiront la version décentralisée », a-t-il déclaré, décrivant l'environnement métavers de Decentraland comme décentralisé et le plan de Facebook comme probablement centralisé.
Les cadres de Facebook martèlent que Facebook ne cherche pas, avec le « métavers », à construire un nouvel univers fermé, à l'image de son réseau social « aucune entreprise ne possédera ni n'exploitera le métavers ». « Comme internet, sa caractéristique principale sera son ouverture et son interopérabilité. Pour lui donner vie, la collaboration et la coopération seront nécessaires entre les entreprises, les développeurs, les créateurs et les décideurs politiques », affirment-ils.
Facebook, qui a massivement investi dans la réalité virtuelle (VR) et la réalité augmentée (AR), notamment en rachetant des sociétés comme Oculus, entend connecter ses près de trois milliards d'utilisateurs grâce à plusieurs appareils et applications. Zuckerberg pense que le métavers serait accessible sur VR, AR, PC, appareils mobiles et consoles de jeux.
De nombreuses plateformes de métavers existantes sont basées sur la technologie blockchain qui rend le contrôle central impossible. La blockchain est l'architecture de grand livre distribué qui sous-tend les cryptomonnaies. Dans ces mondes virtuels, les gens utilisent des cryptomonnaies pour acheter des terrains et d'autres objets numériques sous la forme de jetons non fongibles (NFT).
Cependant, la réaction des premiers utilisateurs du métavers n'a pas été entièrement négative. Certains ont déclaré que l'entrée de Facebook pourrait susciter l'intérêt pour le concept de mondes virtuels en général, attirer plus d'utilisateurs et soutenir le développement de plusieurs mondes virtuels.
Tristan Littlefield, cofondateur de la société NFT nft42 et utilisateur du métavers depuis 2018, a déclaré que sa première réaction à l'annonce de Facebook était négative, car il n'aime pas sa vente de données utilisateur.
Mais « avoir un mastodonte comme Facebook qui vient déverser des milliards de dollars… pourrait être positif » en raison des nouvelles personnes que cela amènerait dans l'espace, a-t-il déclaré.
Comment Haugen voit-il le changement de nom de Facebook ?
Commentant le changement de marque, Haugen a déclaré que cela n'avait aucun sens compte tenu des problèmes de sécurité qui n'ont pas encore été résolus.
« Encore et encore, Facebook choisit l'expansion dans de nouveaux domaines plutôt que de s'en tenir à ce qu'il a déjà fait. Je trouve cela inadmissible... Il faut consacrer plus de ressources aux systèmes de sécurité de base », a-t-elle déclaré devant une foule animée qui a fréquemment applaudi pendant qu'elle parlait.
« Au lieu d'investir pour s'assurer que leurs plateformes sont un minimum sûres, ils sont sur le point [d'engager] 10 000 ingénieurs » en Europe pour le développement du "métavers" », a-t-elle ajouté à propos du monde parallèle numérique qui représente, selon le patron de Facebook, l'avenir d'internet. « Je ne peux imaginer comment cela puisse avoir du sens », a-t-elle encore dit.
Plus tôt ce mois-ci, Facebook a annoncé son intention d'embaucher du personnel hautement qualifié en Europe pour son projet :
« Nous annonçons donc aujourd'hui un plan de création de 10 000 nouveaux emplois hautement qualifiés au sein de l'Union européenne (UE) au cours des cinq prochaines années. Cet investissement est un vote de confiance dans la force de l'industrie technologique européenne et le potentiel des talents technologiques européens. »
« L'Europe est extrêmement importante pour Facebook. Des milliers d'employés dans l'UE aux millions d'entreprises utilisant nos applications et outils chaque jour, l'Europe est une grande partie de notre succès, car Facebook est investi dans le succès des entreprises européennes et de l'économie au sens large. »
« C'est une période passionnante pour la technologie européenne. L'UE présente un certain nombre d'avantages qui en font un endroit idéal pour les entreprises technologiques : un vaste marché de consommation, des universités de premier ordre et, surtout, des talents de premier ordre. Les entreprises européennes sont à la pointe de plusieurs domaines, qu'il s'agisse de la biotechnologie allemande qui aide à développer le tout premier vaccin à ARNm ou de la coalition de néo-banques européennes menant l'avenir de la finance. L'Espagne enregistre des niveaux record d'investissements dans des startups qui résolvent tout, de la livraison d'épicerie en ligne à la neuroélectronique, tandis que la Suède est en passe de devenir la première société sans numéraires au monde d'ici 2023. »
« Nous pensons depuis longtemps que le talent européen est un leader mondial, c'est pourquoi nous y avons investi si massivement au fil des ans - du financement de subventions à l'Université technique de Munich à l'ouverture de notre premier grand laboratoire de recherche européen en IA et programme d'accélérateur FAIR en France et Facebook Reality Labs à Cork. »
L'annonce de Facebook est intervenue au milieu de vives critiques de la part des législateurs et des régulateurs concernant les pratiques commerciales de la société, en particulier son énorme pouvoir de marché, les décisions de ses algorithmes et la police des abus sur ses services.
Le réseau de médias sociaux, qui exploite une structure d'actions à double classe à travers laquelle Zuckerberg et un petit groupe d'investisseurs contrôlent l'entreprise, a riposté en affirmant que les documents divulgués par Haugen étaient utilisés pour brosser un « faux tableau » du fonctionnement.
Haugen a déclaré le mois dernier aux législateurs britanniques et américains que Facebook alimenterait des troubles plus violents dans le monde à moins qu'il ne réduise ses algorithmes qui poussent un contenu extrême et controversé et s'attaquent à des données démographiques vulnérables pour les faire défiler.
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
« Un problème clef est que la base de la sécurité de la plateforme repose sur la surveillance du contenu langue par langue, ce qui ne s'applique pas à tous les pays où Facebook opère », a noté Haugen.
Source : Web Summit
Et vous ?
Que pensez-vous du métavers ? La prochaine évolution technologique ou simplement un mot tendance ?
Le projet piloté par Facebook vous perturbe-t-il ?
Partagez-vous l'opinion de certains utilisateurs de métavers qui estime que le changement de marque de Facebook est une tentative de capitaliser sur le buzz croissant autour d'un concept qu'il n'a pas créé ?
Vous rangez-vous plutôt du côté de certains utilisateurs de métavers qui estiment que l'arrivée d'une grande enseigne numérique de la taille de Facebook dans le domaine ne pourra que susciter l'intérêt du public et attirer donc plus de personnes ?
Que pensez-vous des propos de la lanceuse d'alerte qui demande notamment à Mark Zuckerberg d'abandonner son poste pour que Facebook puisse prendre une nouvelle direction, et qui demande à l'entreprise de plus investir dans la sécurité au lieu de s'étendre dans le métavers ?
Voir aussi :
Facebook encourage les discours de haine pour gagner de l'argent, selon une lanceuse d'alerte, qui a publié des informations qu'elle a pu glaner durant son passage au sein de l'entreprise
La dénonciatrice de Facebook demande au Sénat de tenir les réseaux sociaux pour responsables de leurs algorithmes en modifiant l'article 230 de la Communications Decency Act
La lanceuse d'alerte de Facebook estime que la société fait trop peu pour protéger les utilisateurs, la plupart des gens sont d'accord et estiment qu'une action du Congrès est nécessaire
Bonsoir,
Je préfère les Sims . Le metavers de Facebook, c'est une pâle et malsaine copie de Second Life (une daude).Que pensez-vous du métavers ?
Effet de mode. Donc mot tendance.La prochaine évolution technologique ou simplement un mot tendance ?
Oui car facebook est en train de déshumaniser la société ... Tout est fait à distance et on constate littéralement un effritement des relations sociales/contacts humains.Le projet piloté par Facebook vous perturbe-t-il ?
Je dirais plutôt se protéger les fesses en cas d'attaque en justice.Partagez-vous l'opinion de certains utilisateurs de métavers qui estime que le changement de marque de Facebook est une tentative de capitaliser sur le buzz croissant autour d'un concept qu'il n'a pas créé ?
Hélas oui et pas qu'en bien.Vous rangez-vous plutôt du côté de certains utilisateurs de métavers qui estiment que l'arrivée d'une grande enseigne numérique de la taille de Facebook dans le domaine ne pourra que susciter l'intérêt du public et attirer donc plus de personnes ?
Voeux pieuQue pensez-vous des propos de la lanceuse d'alerte qui demande notamment à Mark Zuckerberg d'abandonner son poste pour que Facebook puisse prendre une nouvelle direction, et qui demande à l'entreprise de plus investir dans la sécurité au lieu de s'étendre dans le métavers ?
Ah bon ! Moi qui croyais que le metavers de facebook est un parasite de l'être humain.
Un ancien investisseur de Facebook réclame des poursuites pénales et la prison pour les dirigeants de Facebook,
alors que le monde de la technologie entre en révolte ouverte contre les médias sociaux
Le Web Summit est un événement, regroupant une série de conférences sur les technologies, qui se tient chaque année depuis 2009. La conférence est énorme et a attiré 80 000 personnes certaines années. Elle s'étale sur quatre jours sur le littoral de la capitale portugaise. Habituellement, on y parle d'offres publiques initiales, de "mise à l'échelle", d'évaluations et de "sorties". Pas cette fois. Le monde de la technologie est désormais en révolte ouverte contre ses propres grandes plateformes. Cette année, Facebook est l'ennemi public n° 1. La plupart des discussions entre les participants portent sur la façon de tuer les médias sociaux, de réguler Google ou de contourner les deux. Lorsque Roger McNamee, ancien investisseur de Facebook, est monté sur scène pour réclamer six enquêtes criminelles différentes sur Facebook et des peines de prison pour tout dirigeant jugé responsable, il est devenu évident que le Web Summit de cette année serait différent des sessions précédentes.
Roger McNamee (à gauche), ancien investisseur de Facebook, lors du Web Summit à Lisbonne, au Portugal, en novembre 2021
Le Web Summit est un rassemblement largement apolitique de fondateurs de start-up technologiques, de spécialistes des logiciels, de hackers et de capital-risqueurs qui veulent leur donner de l'argent. Et cette année, la conférence a été officiellement ouverte par la lanceuse d'alerte de Facebook, Frances Haugen, qui a déclaré devant les 20 000 personnes présentes sur la scène centrale que le PDG de Facebook, Mark Zuckerberg, devait démissionner. « Facebook donne actuellement la priorité aux contenus dans le fil d'actualité, ce qui a pour effet secondaire de privilégier et d'amplifier les contenus les plus extrêmes et les plus conflictuels », a-t-elle déclaré.
Frances Haugen a cité l'exemple de l'Éthiopie. Ce pays est actuellement en proie à une guerre civile qui pourrait renverser son gouvernement. Les pays « les plus fragiles » ne disposent pas d'une modération artificiellement intelligente capable de supprimer automatiquement les contenus toxiques, car Facebook donne la priorité à l'anglais et à ses utilisateurs américains sur tous les autres, a-t-elle expliqué. En Éthiopie, « où des violences ethniques ont lieu en ce moment même », 100 millions de personnes parlent six langues et 95 dialectes. La modération du contenu « n'est pas adaptée aux endroits les plus fragiles du monde ».
Le lendemain, Roger McNamee a participé à une discussion avec la journaliste Jane Martinson, devant un public d'environ 1 000 personnes. Roger McNamee a été l'un des premiers investisseurs de Facebook et a joué un rôle clef dans des décisions telles que le refus de l'offre de rachat de Yahoo pour 1 milliard de dollars en 2006, ainsi que l'embauche de Sheryl Sandberg en 2008. Il a investi 210 millions de dollars dans l'entreprise en 2009, deux ans seulement avant son introduction en bourse.
Ses sentiments à l'égard de l'entreprise ont évolué au fil du temps, car il en est venu à penser que Facebook tirait profit de la manipulation des consommateurs, allant même jusqu'à dire que « Facebook est terrible pour l'Amérique ». Aujourd'hui, l'un des plus grands détracteurs de l'entreprise, McNamee a qualifié la démonstration Meta « d'embarrassante » et a déclaré qu'il n'y avait rien dans la nouvelle image de marque qui n'était pas déjà disponible sur le marché depuis longtemps.
« Je pense qu'il y a au moins six domaines dans lesquels des enquêtes criminelles sont justifiées », a-t-il déclaré à l'auditoire :
- la Commission américaine des valeurs mobilières et des changes devrait se pencher sur le fait que Facebook n'a pas divulgué d'informations sur ses activités ;
- Facebook a autorisé le trafic d'êtres humains sur sa plateforme et a été « payé pour que cela se produise » ;
- la direction de Facebook a été "complice" de la campagne "Stop the Steal" qui a conduit à l'insurrection du 6 janvier au Capitole ;
- la société fait l'objet d'une enquête du procureur général de l'État du Texas visant à déterminer si Facebook a collaboré avec Google pour fixer les prix.
« La peine standard pour cela est de trois ans et demi de prison pour tous les dirigeants et c'est le cas le plus clair de fixation des prix aux États-Unis depuis des décennies », a-t-il lancé. McNamee n'a pas donné de détails sur les deux autres enquêtes qui, selon lui, sont justifiées.
Avant que McNamee ne prenne la parole, la légende du football Thierry Henry a dit au public qu'il avait abandonné tous ses comptes de médias sociaux au début de l'année parce qu'il était fatigué des abus racistes qu'il recevait d'eux. « Quand vous découvrez qu'ils génèrent de l'argent par la haine, c'est très difficile quand votre médicament est votre poison », a-t-il déclaré.
Autrefois, avant la pandémie, les visiteurs du Web Summit utilisaient le mot "disruption" pour décrire la façon dont ils souhaitaient que leurs applications et leur codage remplacent les industries de type "brick-and-mortar" ou les anciennes entreprises de type "cash". Cette année le même thème revenait sans cesse : comment perturber Facebook et Google. Ou les abandonner, ou les miner, ou les éviter, ou les bloquer, ou encore remplacer leurs activités par des logiciels plus éthiques.
Sridhar Ramaswamy, l'ancien vice-président senior des annonces et du commerce chez Google, est aujourd'hui cofondateur et directeur général de Neeva, un moteur de recherche sur abonnement qui offre un service plus privé, sans publicité, axé sur la qualité des classements et non sur l'engagement. L'engagement est le problème, pas la solution, a-t-il expliqué : « Les écosystèmes basés sur l'engagement récompensent les pires acteurs sur n'importe quelle plateforme, car leur comportement horrible attire le plus d'attention". Une quête sans fin pour plus de temps et plus d'attention ».
McNamee a déclaré que l'engagement associé à l'anonymat étaient les deux principaux poisons délivrés par les médias sociaux. « Historiquement, l'anonymat a donné aux trolls un pouvoir énorme par rapport à leur nombre... et pourtant vous pouvez les cibler parfaitement avec des publicités. Et puis vous créez des incitations économiques pour les voix les plus émotionnellement extrêmes, n'est-ce pas ? ».
Nick Clegg, actuel vice-président chargé des affaires internationales au sein de la société mère de Facebook, Meta, est apparu à la conférence grâce à un écran vidéo pour défendre l'entreprise. Il a déclaré que Facebook ne voulait pas plus que quiconque que des propos haineux soient diffusés sur sa plateforme. « Les personnes qui paient pour générer ces publicités, les annonceurs, ne veulent pas de ce contenu à côté de nous… Les utilisateurs ne continueront pas à utiliser nos produits s'ils ont une mauvaise expérience. Sur 10 000 éléments de contenu que vous voyez dans le fil d'actualité, seuls cinq seront des discours de haine » a déclaré Clegg.
Frances Haugen, qui s'est exprimée plus tôt, a reconnu que seul un petit nombre de personnes sur Facebook est à l'origine de la plupart des « problèmes d'intégrité ». Mais cela ne signifie pas que ces problèmes sont mineurs, car leur engagement est plus élevé que celui de tous les autres. « Le classement basé sur l'engagement est dangereux parce qu'à l'heure actuelle, le contenu le plus extrême l'emporte sur cette course de fond. C'est comme les facteurs de variante virale et ceux qui vont être les plus extrêmes et les plus polarisants sont ceux qui obtiennent le plus d'audience », a-t-elle ajouté.
Source : Web Summit
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Facebook encourage les discours de haine pour gagner de l'argent, selon une lanceuse d'alerte, qui a publié des informations qu'elle a pu glaner durant son passage au sein de l'entreprise
La dénonciatrice de Facebook demande au Sénat de tenir les réseaux sociaux pour responsables de leurs algorithmes en modifiant l'article 230 de la Communications Decency Act
La lanceuse d'alerte Frances Haugen exhorte Mark Zuckerberg à démissionner et à investir davantage sur la « sécurité », au lieu de consacrer des ressources au « métavers »
En Birmanie, les roynghas, minorité ethnique du pays, est parquée dans des camps sur une île suite à une campagne d'appel à la haine sur Facebook. Cambridge analytica représente la partie émergée de l'iceberg. A mon humble avis, Facebook génère moins de troubles que de bienfaits mais lorsque cela arrive, il s'agit de faits gravissimes à cause des algorithmes.
Et ces algorithmes générant de l'argent et des bénéfices, rien ne change pour satisfaire les marchés. La modération humaine ne suffisant pas à contrer cette politique de faire du fric.
Bonjour,
Facebook est clairement une "arme politique" . En occident , c'est une arme d'influence pour piquer des voies et influencer les masses les plus naïves (consommateurs, jeunes , ...) .Un ancien investisseur de Facebook réclame des poursuites pénales et la prison pour les dirigeants de Facebook, alors que le monde de la technologie entre en révolte ouverte contre les médias sociaux.
Quel est votre avis sur le sujet ?
Dans les pays moins démocratique et avec un système politique plus fragile, cela est une forme de "corruption" et "d'ingérence politique".
Clairement, il y aurait de quoi sérieusement enquêter. Cela demande par contre des moyens humains (justice, police, ...) pour mener de lourdes enquêtes ...
Problème pour aller trouver un ou des responsables , c'est très complexe . La justice ne traitera jamais cela. Qui plus est , cela supposerait aussi une coopération internationale façon europol . Financièrement, cela couterait plus cher que ce que cela ne rapporterait .
Les chercheurs de Facebook ont découvert que l'application avait des impacts négatifs pour 360 millions de ses utilisateurs,
car certains « manquaient de contrôle sur le temps qu'ils passaient sur Facebook »
Les recherches internes de Facebook ont révélé que l'utilisation compulsive de Facebook nuisait au sommeil, aux relations de travail ou à la responsabilité parentale pour environ 12,5 % des utilisateurs. Les propres chercheurs de Facebook ont découvert que l'application avait des impacts négatifs sur certains utilisateurs, a rapporté le WSJ. Facebook a qualifié la publication des informations par le Wall Street Journal « d'irresponsable » et a déclaré qu'il enquêtait de manière proactive sur « l'utilisation problématique » de ses applications.
Une enquête interne de Facebook a révélé qu'un utilisateur sur huit déclare que son utilisation de l'application nuit à son sommeil, son travail, ses relations et son rôle parental, selon des documents consultés par le Wall Street Journal. Les chercheurs ont estimé que ces problèmes affectent environ 12,5 % des plus de 2,9 milliards d'utilisateurs de l'application, soit l'équivalent de plus de 360 millions de personnes.
Dans le document, les chercheurs ont déclaré que ces situations résultaient de l'utilisation compulsive de l'application par les utilisateurs, ce qui reflète ce que l'on appelle communément la « dépendance à Internet », a rapporté The Journal.
Les modèles d'utilisation sont perçus comme étant pires sur Facebook, qui s'appelle désormais Meta, que sur toute autre grande plateforme de médias sociaux, qui essaient toutes de faire revenir les utilisateurs, selon les documents. Cependant, les chercheurs n'ont pas établi de causalité.
Facebook appelle cela « l'utilisation problématique » de sa plateforme.
Les résultats font partie de la série Facebook Files, principalement basée sur des documents internes divulgués par l'ex-employée de Facebook devenue dénonciatrice Frances Haugen.
Les chercheurs ont précédemment découvert que la santé mentale des utilisateurs adolescents était affectée négativement par l'utilisation de l'application Instagram, qui sert essentiellement à partager des photos et des vidéos.
Selon le Wall Street Journal, la recherche sur l'utilisation des médias sociaux qui peut nuire à la vie quotidienne des gens a été lancée il y a plusieurs années par une équipe de Facebook axée sur l'atténuation des comportements préjudiciables. L'équipe a suggéré une série de correctifs et, bien que l'entreprise en ait mis en œuvre certains, elle a ensuite décidé de dissoudre l'équipe en 2019. L'équipe a partagé ses conclusions lors d'une présentation interne en mars 2020.
Ils ont découvert que certains utilisateurs « manquaient de contrôle sur le temps qu'ils passaient sur Facebook » et avaient par la suite des problèmes dans leur vie.
Ces problèmes incluent une « perte de productivité lorsque les gens arrêtent d'effectuer des tâches dans leur vie pour consulter fréquemment Facebook, une perte de sommeil lorsqu'ils restent éveillés tard en faisant défiler l'application et la dégradation des relations en personne lorsque les gens remplacent le temps avec le temps en ligne », selon les documents consultés par le Wall Street Journal.
« Je suis sur Facebook tous les jours, à chaque instant. Littéralement, à chaque instant, en dehors des moments où je suis par exemple sous la douche », a déclaré un utilisateur aux chercheurs.
La réaction de Facebook
C'est par le biais de Pratiti Raychoudhury, Vice President, Head of Research que l'entreprise a réagi. Il a d'abord indiqué que :
- l'usage problématique n'est pas synonyme d'addiction. L'utilisation problématique a été utilisée pour décrire la relation des gens avec de nombreuses technologies, comme les téléviseurs et les smartphones. Nous avons créé des outils et des contrôles pour aider les gens à gérer quand et comment ils utilisent nos services. De plus, nous avons une équipe dédiée qui travaille sur toutes nos plateformes pour mieux comprendre ces problèmes et nous assurer que les gens utilisent nos applications de manière significative pour eux ;
- nous étudions le bien-être depuis plus d'une décennie et cela continue aujourd'hui. La suggestion que ce travail s'est arrêté en 2019 ne pourrait pas être plus éloignée de la vérité. En témoignent les différentes recherches que nous avons publiées en externe depuis lors et notre engagement et collaboration accrus avec des experts tels que l'Aspen Institute, le Humanity Center et notre rôle en tant que sponsor fondateur du Digital Wellness Lab géré conjointement par l'Université Harvard et l'hôpital pour enfants de Boston ;
- nous livrons des fonctionnalités pour aider les gens à gérer leurs expériences sur nos applications et services. Rien que depuis 2018, nous avons introduit près de 10 produits pour mieux soutenir le bien-être des gens, y compris l'utilisation problématique de nos applications, et ce travail se poursuit aujourd'hui ;
- il s'agit d'un défi à l'échelle de l'industrie et nous avons un effort de recherche sur le bien-être de premier plan et coordonné au niveau central qui travaille avec les leaders des produits et de l'ingénierie dans tous nos services pour comprendre et résoudre les problèmes ayant un impact sur le bien-être, y compris l'utilisation problématique.
Puis de continuer en disant :
« Le Wall Street Journal a une fois de plus décidé de choisir parmi des documents internes de l'entreprise pour présenter un récit qui est tout simplement faux sur la façon dont nous utilisons la recherche pour résoudre un problème important - cette fois sur l'utilisation problématique. »
« Notre entreprise a été engagée et soutenue tout au long de nos efforts pluriannuels pour mieux comprendre et responsabiliser les personnes qui utilisent nos services pour gérer les utilisations problématiques. C'est pourquoi ce travail s'est étalé sur plusieurs années, y compris maintenant. »
« Nous avons travaillé pour mener des recherches et non pas en secret, mais en public. En fait, la principale recherche interne citée par le Journal a été publiée en mai 2019 lors d'une conférence universitaire de premier plan sur les technologies de la communication et est disponible ici. Nous explorons également ces questions et utilisons les principes du bien-être pour éclairer notre travail depuis plus de 10 ans. »
« Nous voulons que les gens aient une expérience positive sur nos services, donc même s'il n'y a pas de définition établie par l'industrie de l'utilisation problématique, c'est quelque chose que nous nous efforçons de comprendre. Nos propres recherches ainsi que des recherches externes ont révélé une variation significative du nombre de personnes qui déclarent une consommation problématique, selon la façon dont elle est mesurée. Après l'étude de mai 2019, nous avons mené une autre étude qui a également demandé aux gens s'ils se sentaient coupables de leur utilisation des médias sociaux - en élargissant intentionnellement les définitions précédentes pour capturer un ensemble plus large d'expériences. Sans surprise, la prévalence de l'usage problématique dans cette étude était plus élevée parce que nous avons étudié plus d'aspects de la question. Pourquoi ferions-nous des recherches qui montreraient potentiellement des niveaux plus élevés d'utilisation problématique ? Parce que cela faisait partie des premières recherches sur ce sujet destinées à nous aider à comprendre les différentes facettes de l'utilisation problématique et à développer des messages et des outils plus adéquats pour aider les personnes qui utilisent nos produits. Bien qu'aucun lien de causalité entre les médias sociaux et la toxicomanie n'ait été trouvé, et dans l'ensemble, les recherches suggèrent qu'en moyenne, les médias sociaux n'ont pas un impact négatif majeur sur le bien-être, nous voulons toujours fournir aux gens des outils pour les aider à gérer comme bon leur semble. »
« Qu'est-ce que cette recherche a conduit Facebook à faire ? Déployer près de 10 outils depuis 2018, dont :
- Votre temps sur Facebook, que nous avons lancé en août 2018, centralisant les outils et les options permettant aux utilisateurs de gérer leur temps. En avril 2020, nous avons ajouté le mode silencieux à cela, qui coupe la plupart des notifications push. Si vous essayez d'ouvrir Facebook en mode silencieux, il vous sera rappelé que vous avez réservé ce temps pour limiter votre temps d'utilisation de l'application ;
- Contrôlez vos notifications, qui comprend des raccourcis pour vous aider à gérer vos notifications. Il comprend une option pour désactiver toutes les notifications push ainsi que pour gérer les "points rouges" dans le menu des raccourcis. Les points rouges peuvent être supprimés de la place de marché, des groupes, des actualités et du menu "hamburger" ;
- Voir votre temps, qui présente le temps d'utilisation par jour, jour/nuit et les visites d'applications. Vous pouvez également obtenir des mises à jour d'utilisation hebdomadaires et un accès facile à votre journal d'activité. »
« Nous avons également lancé une série d'outils et de fonctionnalités sur Instagram pour aider les gens à contrôler le temps qu'ils passent sur l'application. Cela inclut des éléments tels que la possibilité de "couper le son" des comptes pour contrôler les publications que vous voyez, une fonctionnalité appelée "Vous êtes tous pris au piège" qui vous permet de savoir quand vous avez vu tout le contenu récent de votre flux et des outils de gestion du temps où vous pouvez voir votre temps total sur l'application chaque jour et définir un rappel quotidien qui vous avertit lorsque vous avez atteint un certain temps sur Instagram. Nous avons également partagé deux nouvelles fonctionnalités que nous construisons pour aider les gens à contrôler leur temps sur Instagram. »
« Ceci n'est qu'un petit échantillon des types de produits et de contrôles que nous avons lancés publiquement ou que nous continuons d'explorer sur la base de cette recherche. Nous avons l'intention d'aborder ces problèmes de manière encore plus approfondie et continuerons d'investir davantage dans ce travail. »
« Le Journal cite également une étude interne pour spéculer sur le nombre de personnes sur Facebook confrontées à une utilisation problématique. C'est irresponsable, car, comme cela est noté dans l'étude elle-même, la recherche a été conçue pour être aussi vaste que possible pour nous aider à mieux comprendre le défi. Pendant des décennies, il y a eu des inquiétudes quant à l'utilisation excessive d'une nouvelle technologie lorsqu'elle devient disponible. Combien de personnes pensent aujourd'hui qu'elles devraient passer plus de temps sur leurs smartphones ou regarder leurs émissions de télévision préférées ? Par exemple, un rapport de 2018 sur le sondage Morning Consult/Hollywood Reporter a déclaré : "Quatre-vingt-six pour cent ont déclaré qu'ils étaient restés éveillés après l'heure normale du coucher pour regarder une émission, et 52 pour cent ont déclaré qu'ils étaient restés debout toute la nuit. Et tandis que 40 pour cent de tous les téléspectateurs ont fait des choix alimentaires ou d'exercices moins sains à cause d'une émission, 57 pour cent des jeunes adultes l'ont fait". »
« Des plateformes comme la nôtre ont encore un rôle à jouer pour résoudre ce problème. Chez Meta, c'est exactement ce que nous faisons depuis de nombreuses années - et ce travail continue d'avancer à toute vapeur ».
Source : Méta (Facebook)
Et vous ?
Dans le cas de Facebook, qui devrait être, selon vous, tenu pour responsable de l'addiction : Facebook ou l'utilisateur ? Dans quelle mesure ?
Avez-vous déjà rencontré directement ou indirectement (un de vos proches) un problème décrit par la perte de contrôle sur le temps passé sur Facebook ou ses autres applications ? Si oui comment l'avez-vous résolu ?
Que pensez-vous des outils mis à la disposition des utilisateurs par Facebook pour leur permettre de mieux gérer leur temps passé sur la plateforme ?
Estimez-vous être dépendant à une application en général ou un réseau social en particulier ? Laquelle / lequel ?
Je trouve cet article problématique.
Peut on reprocher aux voiture de faire des accrocs de la vitesse?
Peut on reprocher à l'alcool de faire des alcooliques?
Facebook provoque des problèmes bien plus importants que de se coucher trop tard parce que certains passent trop de temps à scroller pendant 1h.
Sortir cette étude permet à Facebook de noyer le poisson.
Cette étude ou une autre du genre fait surface régulièrement, Facebook y est habitué et a une réponse qui est probablement toujours plus ou moins la même.
Ils ont beaucoup plus de mal à se défendre contre les accusations d'être le principal média de diffusion de la désinformation.
Ma réponse reste malgré tout ni l'un ni l'autre ou un peu des deux. Je ne sais pas.
L'entourage aussi qui ne prend pas toujours son rôle de garde fou voir qui impose de rester sur facebook (associations, clubs, famille)
L'engagement est l'objectif de Facebook, l'optimiser est jouer avec la frontière de l'addiction.
Je perds actuellement le contrôle du temps passé sur facebook : J'aimerais ne plus du tout y aller mais je fait partie d'un club de sport qui ne communique quasiment que par facebook.
J'ai complètement coupé facebook pendant toute la période de pause sportive dûe au covid.
Maintenant je vais sur facebook maximum 1 fois par jour (souvent 1 ou 2 fois par semaine), le temps de voir les news du club. Certains trouvent que c'est problématique parce que je répond rarement en moins de 10-12h. Je trouve que ça rend service : ce qui semble entre une crise à gérer très vite deviens un truc à gérer en prenant le temps.
Je ne les connais pas.
Le seul que j'ai essayer est la réclamation : j'ai prétendu être un ancien alcoolique et demandé à ne plus recevoir de pub d'alcool. J'en reçoit toujours et je ne retrouve pas ma réclamation.
Pour moi les meilleurs outil sont :
supprimer facebook de son téléphone.
Supprimer toutes les notifications facebook
ne jamais répondre à un post avec lequel on est pas d'accord.
ne jamais répondre à un post ou on est pas identifié ou directement impliqué.
Et je n'ai besoin de facebook pour aucun d'eux
Oui, je ne peux pas me passer de facebook si je veux maintenir certains de mes loisirs.
Ce n'est probablement pas le sens de la question mais ça reste autant problématique pour moi.
Bonjour,
C'est 50 / 50 . Facebook favorise la publication et le suivi de contenu qu'on ne veut pas ... Parfois on en est même inondé. Signalement et refus de suivis sont contre productif.Dans le cas de Facebook, qui devrait être, selon vous, tenu pour responsable de l'addiction : Facebook ou l'utilisateur ?
Une personne victime d'addiction qui n'a pas de cercle de soutien pour l'extirper est victime d'elle même et d'isolement au finalDans quelle mesure ?
Il suffit de réduire le nombre de page suivi quand le canal de comm' "impose" facebook. Pour tout ce qui est associatif , même problème que mon interlocuteur du dessus. L'environnement social/sociétal , impose ce canal de comm'.Avez-vous déjà rencontré directement ou indirectement (un de vos proches) un problème décrit par la perte de contrôle sur le temps passé sur Facebook ou ses autres applications ?
J'ai réduit drastiquement, le nombre de page suivi. Donc ouiSi oui comment l'avez-vous résolu ?
C'est de l'enfumage.Que pensez-vous des outils mis à la disposition des utilisateurs par Facebook pour leur permettre de mieux gérer leur temps passé sur la plateforme ?
Dépendant d'un système et d'un mode de fonctionnement plutôt. On peut de moins en moins choisir, comment on communique. L'utilisateur "subit" et n'est pas vraiment mettre des choix.Estimez-vous être dépendant à une application en général ou un réseau social en particulier ?
Facebook s'impose comme un outil "obligatoire", avec Messenger et Whatsapp.Laquelle / lequel ?
Le métavers de Zuckerberg va porter atteinte à la vie privée des travailleurs et pourrait obliger davantage de personnes à communiquer davantage de données,
d’après la lanceuse d'alerte Frances Haugen
Le mois dernier, Mark Zuckerberg a annoncé qu'il allait concentrer son entreprise sur le métavers. Si ce concept a de nombreuses significations, pour Zuckerberg, il s'agit d'un « Internet encore plus immersif et incarné », où les utilisateurs peuvent rencontrer leurs amis, se connecter à leurs collègues, acheter des biens et des services, etc. En d'autres termes, Zuckerberg veut prendre la vie des gens et la placer dans un métavers, de préférence sous son contrôle. Pour Frances Haugen, lanceuse d'alerte pour Facebook, c'est un signal d'alarme : « La vision de Mark Zuckerberg, PDG de Facebook/Meta, d'un avenir alimenté par la réalité virtuelle pourrait entraîner de nouveaux risques pour la vie privée dans nos foyers et sur nos lieux de travail », a-t-elle déclaré.
Frances Haugen a été chef de produit chez Facebook jusqu'en avril de cette année. Avant de démissionner, elle a rassemblé des dizaines de milliers de documents détaillant divers problèmes au sein de l'entreprise, allant des atteintes à la santé mentale des adolescents à la violence ethnique en passant par le traitement spécial réservé aux VIP. Elle a remis ces documents au Congrès, au Wall Street Journal et aux régulateurs de la Securities and Exchange Commission (SEC), où elle a également intenté une action en justice pour dénonciation, estimant que la société avait manqué à son obligation fiduciaire en cachant aux actionnaires bon nombre de ses problèmes.
À la suite des révélations de Haugen, Facebook a rebaptisé sa société mère Meta et Mark Zuckerberg a commencé à présenter le métavers comme la prochaine grande nouveauté de la société de médias sociaux. Haugen a déclaré que ces mesures constituaient une tentative de détourner l'attention des problèmes de l'entreprise. La mentalité de Facebook, dit-elle, a été : « Si vous n'aimez pas la conversation alors vous essayez de la changer ».
« Facebook devrait avoir un plan de transparence pour le métavers avant de commencer à construire tout cela, parce qu'ils ont démontré, en ce qui concerne Facebook, qu'ils peuvent se cacher derrière un mur, qu'ils continuent à faire des erreurs involontaires, qu'ils continuent à faire des choses qui donnent la priorité à leurs propres profits plutôt qu'à notre sécurité », a-t-elle déclaré dans une interview.
Frances Haugen appelle l’Europe à modérer Facebook
Lundi, Frances Haugen était à Bruxelles pour s'exprimer devant le Parlement européen. Ses commentaires et sa séance de questions-réponses ont duré près de trois heures. Dans ses remarques, elle a prévenu que Facebook excelle à « danser avec les données » et elle a encouragé les législateurs à demander à Facebook des détails sur toutes les données qu'ils reçoivent de l'entreprise, y compris la manière exacte dont elles ont été obtenues. Elle a également recommandé aux législateurs européens de se concentrer sur l'avenir de la proposition de loi sur les services numériques, qui augmenterait la pression sur les plateformes pour modérer les contenus illégaux.
« La loi sur les services numériques qui est actuellement examinée par ce Parlement a le potentiel pour devenir un étalon d’or mondial. Elle peut inspirer d'autres pays, dont le mien, à poursuivre de nouvelles règles qui protégeraient nos démocraties. Mais la loi doit être forte et son application ferme. Sinon, nous perdrons cette opportunité unique en son genre d'aligner l'avenir de la technologie et de la démocratie », a-t-elle déclaré dans son propos introductif.
Facebook/Meta a cherché à amadouer les législateurs européens en promettant de créer 10 000 emplois dans le bloc pour développer son concept de métavers.
Des craintes amplifiées
Haugen craint qu'un métavers appartenant à Facebook/Meta ne fasse qu'exacerber les problèmes qui existent sur les plateformes actuelles de l'entreprise. Les environnements virtuels tels que ceux proposés par Zuckerberg peuvent créer une dépendance extrême et encourager les gens à se déconnecter de la réalité dans laquelle ils vivent », a-t-elle déclaré.
Elle craint également que l'arrivée de Facebook/Meta sur le lieu de travail ne donne pas d'autre choix aux gens que de transmettre davantage de données personnelles à l'entreprise. « Dans le cas des lieux de travail, nous n'avons pas le choix d'être dans ces espaces. Si votre employeur décide qu'il est désormais une entreprise métaverse, vous devez donner beaucoup plus de données personnelles à une entreprise qui a démontré qu'elle mentait chaque fois que c'était dans son intérêt », a-t-elle déclaré.
Le fait que Facebook/Meta lance une initiative majeure au milieu d'une crise à l'échelle de l'entreprise est emblématique de la façon dont l'entreprise aborde les problèmes, a-t-elle ajouté. Elle préfère « passer à autre chose » plutôt que de réparer ses produits existants. « Le fait qu'ils puissent se permettre 10 000 ingénieurs supplémentaires pour construire des jeux vidéo alors qu'ils ne peuvent prétendument pas se permettre d'avoir 10 000 ingénieurs travaillant sur notre sécurité, je trouve cela inadmissible », a déclaré Frances Haugen au Parlement européen.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Facebook annonce qu'il va embaucher 10 000 personnes en Europe pour l'aider à construire un « métavers », qui imitera l'expérience d'interagir en personne grâce à des techno comme l'AR et la VR
La lanceuse d'alerte Frances Haugen exhorte Mark Zuckerberg à démissionner et à investir davantage sur la « sécurité », au lieu de consacrer des ressources au « métavers »
Le métaverse de Facebook pourrait être toxique pour la société humaine, ce qui reflète l'inquiétude que suscite la sécurité de l'intelligence artificielle, selon Eric Schmidt, l'ex-PDG de Google
Contrairement à Facebook, Méta ne va pas abandonner son algorithme de reconnaissance faciale, la maison-mère de Facebook compte bien se servir de DeepFace dans son métavers
Un projet de loi obligerait Facebook à proposer une version où le contenu n'est pas sélectionné par un « algorithme opaque »
s'appuyant sur les données personnelles
De récentes révélations sur les résultats des recherches internes de Facebook ont ravivé l'intérêt des législateurs pour les projets de loi qui visent à donner aux gens plus de poids sur la façon dont les algorithmes façonnent leurs expériences en ligne. Un groupe bipartite de législateurs de la Chambre a présenté un projet de loi qui obligerait les plateformes en ligne à permettre aux utilisateurs de refuser que des algorithmes basés sur des données personnelles sélectionnent le contenu qu'ils voient, selon une copie du texte. Le projet de loi montre que la colère suscitée par la façon dont les plateformes utilisent leurs algorithmes pour cibler les utilisateurs avec un contenu spécialisé est un problème bipartite. Les algorithmes qui personnalisent le contenu sur les réseaux sociaux et autres applications peuvent rendre les services addictifs, violer la vie privée des utilisateurs et promouvoir l'extrémisme, soutiennent les critiques et de nombreux législateurs. Les conservateurs ont également affirmé que les services censuraient délibérément leur discours.
Un groupe bipartite de législateurs à la Chambre des représentants a présenté un projet de loi qui obligerait les plateformes de médias sociaux à permettre aux gens d'utiliser des sites sans algorithmes qui filtrent ou hiérarchisent le contenu que les utilisateurs voient. Le projet de loi rejoint un projet de loi similaire proposé au Sénat. Ces deux projets l'antipathie du législateur envers les sociétés de médias sociaux n'est pas prête de disparaître.
Le Filter Bubble Transparency Act exigerait que les plateformes Internet permettent aux gens d'utiliser une version de leurs services où le contenu n'est pas sélectionné par des « algorithmes opaques » pilotés par des données personnelles.
« Les consommateurs devraient avoir la possibilité de s'engager avec des plateformes Internet sans être manipulés par des algorithmes secrets pilotés par des données spécifiques à l'utilisateur », a déclaré le représentant Ken Buck (R-Colo.). Buck a présenté le projet de loi avec trois autres élus, les représentants David Cicilline (D-R.I.), Lori Trahan (D-Mass.) et Burgess Owens (R-Utah).
« Facebook et d'autres plateformes dominantes manipulent leurs utilisateurs via des algorithmes opaques qui donnent la priorité à la croissance et au profit par rapport à tout le reste », a déclaré la représentante Cicilline dans un communiqué. « Et en raison du pouvoir de monopole et de la domination de ces plateformes, les utilisateurs se retrouvent avec peu d'alternatives à ce modèle commercial d'exploitation, que ce soit dans leur flux de médias sociaux, sur des publicités payantes ou dans leurs résultats de recherche ».
Pour mémoire, Frances Haugen, la dénonciatrice derrière la fuite d'un énorme cache de documents Facebook qui a servi de socle pour une série de révélations sur le numéro un des réseaux sociaux, a estimé que la racine du problème de Facebook réside dans un changement qu'il a apporté en 2018 à ses algorithmes (la programmation qui décide de ce que vous voyez sur votre fil d'actualité Facebook) :
« Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer. L'algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé. Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent ».
Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.
« Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment ».
Cette dynamique a conduit à une plainte auprès de Facebook par les principaux partis politiques à travers l'Europe. Ce rapport interne de 2019 obtenu par Haugen indique que les parties, « … ont le sentiment profond que le changement de l'algorithme les a forcées à biaiser négativement leurs communications sur Facebook… les conduisant à adopter des positions politiques plus extrêmes ».
Un projet de loi susceptible d'apporter de réelles solutions ?
À première vue, le projet de loi proposé semble attrayant, échangeant sur une certaine nostalgie pour un temps plus simple. La population qui voudrait faire l'expérience d'Internet avant que Facebook n'impose des algorithmes sur son fil d'actualité ou que Google ne commence à personnaliser les résultats de recherche*n'est sans doute pas négligeable.
Pour Google, le résultat pourrait être le bienvenu pour les utilisateurs et éventuellement apporter une amélioration, forçant l'entreprise à s'éloigner des résultats qui renforcent les bulles de filtrage. Mais pour les réseaux de médias sociaux comme Facebook et Twitter, où les gens ont été connectés à des centaines « d'amis » et de followers qui publient collectivement des milliers de contenus par jour, les résultats rendraient les sites presque inutilisables.
Ou peut-être que le projet de loi obligerait les utilisateurs à réduire leurs listes d'amis pour n'inclure que les personnes qu'ils jugent les plus importantes.
Le projet de loi obligerait les sites de médias sociaux à publier un avis la première fois qu'une personne interagit avec un algorithme « opaque ». L'avis donnerait aux utilisateurs la possibilité de désactiver l'algorithme. Le projet de loi définit un algorithme opaque comme celui qui « détermine l'ordre de la manière dont les informations sont fournies à un utilisateur... sur la base, en tout ou en partie, de données spécifiques à l'utilisateur qui n'ont pas été expressément fournies par l'utilisateur à la plateforme dans un tel but ». Les sociétés de médias sociaux seraient également tenues d'offrir un paramètre permettant aux utilisateurs de basculer entre l'utilisation ou non de ces algorithmes. Les sociétés de médias sociaux envelopperaient sans aucun doute des mots autour de ces paramètres qui décourageraient les gens de les utiliser, mais pour les utilisateurs avertis, le projet de loi pourrait ouvrir une nouvelle façon d'utiliser les médias sociaux.
Il est facile de voir ce projet de loi comme une tentative malavisée d'apprivoiser les grandes entreprises technologiques et leurs algorithmes de classement du contenu. Mais ce serait également ignorer l'objectif que de petits pas comme celui-ci peuvent servir dans le processus législatif.
Dans sa déclaration, Cicilline a qualifié le projet de loi « d'étape importante ». Le projet de loi ferait certainement plaisir à certains utilisateurs et, en attendant, il continuerait à instaurer la confiance entre les législateurs des différents partis. Buck et Cicilline ont aidé à faire sortir une série de projets de loi antitrust du comité judiciaire de la Chambre cet été. Chaque projet de loi en lui-même n'était pas une menace majeure pour les grandes entreprises technologiques, tout comme celle-ci est peu susceptible de mettre Facebook au pas. Pourtant, chaque projet de loi successif pose les bases du suivant.
Il peut y avoir ou non un grand plan en cours, mais l'histoire peut-être difficile à comprendre lorsque vous la vivez. Ensemble, ces projets de loi peuvent ne pas représenter grand-chose. Mais ils pourraient aussi être le début de quelque chose qui apporte une réforme dans la réglementation technologique pour les générations à venir.
Les réseaux sociaux responsables de leurs algorithmes
De même, au début du mois dernier, la dénonciatrice de Facebook Frances Haugen a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.
L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.
Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l'article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.
En fait, le ministère américain de la Justice a fait des propositions visant à l'affaiblir dans l'optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles suppriment le contenu des utilisateurs (si elles souhaitent conserver l'immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Mis ensemble, le cocktail serait peut être plus efficace.
Source : Projet de loi
Et vous ?
Que pensez-vous de ce projet de loi ? Aimeriez-vous utiliser Facebook sans algorithme qui sélectionne le contenu sur la base de données personnelles ? Qu'en est-il de Google ?
Frances haugen a témoigné devant une commission parlementaire ce matin diffusé sur public sénat et a dit que modifier l'algorithme de diffusion de contenu sur un fil de discussion d'une page Facebook ne suffirait pas à répondre à la question mais qu'il fallait maintenant revoir tout le fonctionnement du système du réseau social pour empêcher les contenus négatifs prenant une ampleur disproportionnée.
Si on veut arrêter de perdre du temps sur FB, il n'y a pas 36 solutions : ne plus s'y connecter point. Leurs algos sont juste trop addictifs.L'entourage aussi qui ne prend pas toujours son rôle de garde fou voir qui impose de rester sur facebook (associations, clubs, famille)
Le club -> leur faire mettre leur page FB en accès public avec les annonces publiques (ça se trouve c'est déjà le cas ?) : ce qui permet d'avoir leurs infos par URL directe même sans compte. (Ou les pousser vers un CMS...)
La famille / amis : à un moment, il faut migrer vers une messagerie... au pire messenger de FB si on ose installer ce malware sur son téléphone.
Deja essayer tout sa et on est revenu a Facebook car tu oublies les amis des amis. Sans compter que les gens veulent tout simplement pas gérer plein de compte sur différents plateforme quand tu as tout la dedans. Quand tu es activiste ou quand tu es patron, faire le buzz c'est aussi important et la concentration de gens dans Facebook le permet. Au final tu dois quand meme garder Facebook.
En plus ceux qui utilise vraiment les reseaux sociaux a fond, le font pour différentes raison, trouver des gens d'un autre ville pour les héberger, utiliser comme une alternative pour le bon coin, utiliser des events sans devoir demander a tes amis de faire un compte sur une plateforme comme meetup, avoir des reductions, gagner des prix sur Facebook, mon preferer stalker ses amis et camarades de classe.
Bonjour
Sur le papier , c'est "bien". Dans les fait Facebook fait travailler tellement d'entreprises prestataires, qu'ici on court le risque que cela soit les prestataires qui continuent d'entretenir ce que l'on critique.Un projet de loi obligerait Facebook à proposer une version où le contenu n'est pas sélectionné par un « algorithme opaque » s'appuyant sur les données personnelles.
Que pensez-vous de ce projet de loi ?
Facebook pourrait se dédouaner et dire "c'est pas nous, c'est nos prestataires" ... Comme avec Cambridge Analytica. 1 société de supprimée, 10 autres qui se battent en duel pour décrocher le marché ...
Cela pourrait même être encore plus contreproductif dans le sens ou , la data ne serait plus forcement dans le pays d'origine. Genre les datas belges ou suisses qui se retrouvent , chez un presta en Asie. A la merci d'ingérences ou de manipulations encore pire, que ce que l'on a pu connaitre.
1) soit un modèle par abonnement ou l'on doit payer ... Facebook n'en veut pas au risque de voir partir ces users.Aimeriez-vous utiliser Facebook sans algorithme qui sélectionne le contenu sur la base de données personnelles ?
2) soit un modèle économique ou l'utilisateur choisit "ses" pub. Bon ici encore un truc plutôt boiteux. Si je choisis les entreprises qui peuvent me faire de la pub, pas sur que cela rapporte beaucoup ... si je ne consomme pas chez elles.
Chez Google, suffit d'avoir une boite mail "poubelle" ,. Au moins la ils peuvent balancer toute la pub qu'ils veulent, on s'en tamponneQu'en est-il de Google ?
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager