IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Invité de passage
    Homme Profil pro
    Developpeur Web
    Inscrit en
    Juin 2012
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Congo-Kinshasa

    Informations professionnelles :
    Activité : Developpeur Web
    Secteur : Associations - ONG

    Informations forums :
    Inscription : Juin 2012
    Messages : 1
    Par défaut La liberté c'est aussi de rendre les gens responsables de leur publication
    Personnellement je crois que les gouvernements cherchent à recuperer le pouvoir qu'ils ont sur les média au travers la (destruction de FB) car ce dernier compte des millions d'utilisateurs et lorsque les informations qui y circulent ne sont pas en leur faveur ils seront des perdant.

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 941
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 941
    Par défaut Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes
    Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes
    notant que l'IA est loin de pouvoir appliquer avec succès les règles de la plateforme contre les contenus problématiques

    Facebook comptait sur son système d'intelligence artificielle pour faire fonctionner correctement la plateforme en appliquant ses règles contre les discours violents ou haineux. Pourtant, les ingénieurs de Facebook affirment que l'intelligence artificielle est loin d'être en mesure d'appliquer avec succès les règles de la plateforme contre les discours de haine, les images violentes et autres contenus problématiques, selon des documents internes de l'entreprise.

    Les dirigeants de Facebook, Inc. disent depuis longtemps que l'intelligence artificielle résoudrait les problèmes chroniques de l'entreprise en gardant ce qu'elle considère comme des discours de haine et une violence excessive ainsi que les utilisateurs mineurs hors de ses plateformes.

    Cet avenir est plus éloigné que ne le suggèrent ces dirigeants, selon des documents internes examinés par le Wall Street Journal. L'IA de Facebook ne peut pas systématiquement identifier les vidéos filmées à la première personne, les diatribes racistes et même, dans un épisode notable qui a intrigué les chercheurs internes pendant des semaines, la différence entre les combats de coqs et les accidents de voiture.

    Concernant les discours de haine, les documents internes montrent que les employés de Facebook ont estimé que l'entreprise ne supprime qu'une partie des messages qui enfreignent ses règles (un pourcentage à un chiffre, disent-ils). Lorsque les algorithmes de Facebook ne sont pas suffisamment certains que le contenu enfreint les règles pour le supprimer, la plateforme montre moins souvent ce contenu aux utilisateurs, mais les comptes qui ont publié le contenu restent impunis.

    Les employés analysaient le succès de Facebook dans l'application de ses propres règles sur le contenu qu'il énonce en détail en interne et dans des documents publics comme ses normes communautaires.

    Les documents examinés par le Journal montrent également qu'il y a deux ans, Facebook a réduit le temps que les examinateurs humains passaient sur les plaintes pour propos haineux des utilisateurs et a apporté d'autres ajustements qui ont réduit le nombre total de plaintes. Cela a rendu l'entreprise plus dépendante de l'application de ses règles par l'IA et a gonflé le succès apparent de la technologie dans ses statistiques publiques.

    Selon les documents, les personnes chargées de maintenir la plateforme exempte de contenus que Facebook juge offensants ou dangereux reconnaissent que l'entreprise est loin de pouvoir la filtrer de manière fiable.

    « Le problème est que nous n'avons pas et n'aurons peut-être jamais un modèle qui capture même la majorité des atteintes à l'intégrité, en particulier dans les zones sensibles », a écrit un ingénieur de l'équipe de recherche dans une note à la mi-2019.

    Il a estimé que les systèmes automatisés de l'entreprise supprimaient les messages qui généraient seulement 2 % des vues de discours de haine sur la plateforme qui enfreignaient ses règles. « Des estimations récentes suggèrent qu'à moins d'un changement majeur de stratégie, il sera très difficile de l'améliorer au-delà de 10-20 % à court et moyen terme », a-t-il écrit.

    En mars, une autre équipe d'employés de Facebook a tiré une conclusion similaire, estimant que ces systèmes supprimaient les publications qui généraient 3 à 5 % des vues de discours de haine sur la plateforme, et 0,6 % de tout le contenu qui violait les politiques de Facebook contre la violence et incitation.

    Nom : facebook.png
Affichages : 1801
Taille : 87,5 Ko

    Facebook encourage les discours de haine pour gagner de l'argent, selon une lanceuse d'alerte

    Pourtant, la dénonciatrice Frances Haugen qui a fait fuiter un énorme cache de documents glané lors de son passage dans l'entreprise avait déjà indiqué lors d'une interview que la situation était en quelque sorte « encouragée ». « Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley, son interlocuteur.

    Elle a secrètement copié des dizaines de milliers de pages de recherches internes sur Facebook. Elle dit que les preuves montrent que l'entreprise ment au public sur ses progrès significatifs contre la haine, la violence et la désinformation.

    Scott Pelley : Pour citer un autre des documents que vous avez publiés : « Nous avons des preuves provenant de diverses sources que les discours de haine, les discours politiques qui divisent et la désinformation sur Facebook et la famille d'applications affectent les sociétés du monde entier. »

    Frances Haugen : Lorsque nous vivons dans un environnement d'information rempli de contenus colériques, haineux et polarisants, cela érode notre confiance civique, cela érode notre confiance mutuelle, cela érode notre capacité à vouloir prendre soin les uns des autres, la version de Facebook qui existe aujourd'hui déchire nos sociétés et provoque des violences ethniques dans le monde.

    Frances Haugen : Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer.

    L'algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé.

    Frances Haugen : Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions.

    Scott Pelley : La désinformation, du contenu plein de colère est attrayant pour les gens et continue de les garder sur la plateforme.

    Françoise Haugen : Oui. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent.

    Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.

    Frances Haugen : Et dès que les élections étaient terminées, ils les ont désactivés ou ils ont ramené les paramètres à ce qu'ils étaient avant, pour donner la priorité à la croissance plutôt qu'à la sécurité. Et cela ressemble vraiment à une trahison de la démocratie pour moi.

    Scott Pelley : Facebook amplifie essentiellement le pire de la nature humaine.

    Frances Haugen : C'est l'une de ces conséquences malheureuses, n'est-ce pas ? Personne chez Facebook n'est malveillant, mais les incitations sont mal alignées, n'est-ce pas ? Néanmoins, Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.

    Tenir les réseaux sociaux pour responsables de leurs algorithmes

    Face à cette situation, la lanceuse d'alerte a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.

    « Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».

    Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.

    Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.

    Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »

    Et vous ?

    Quelle lecture en faites-vous ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Invité
    Invité(e)
    Par défaut
    Bonjour,

    Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes notant que l'IA est loin de pouvoir appliquer avec succès les règles de la plateforme contre les contenus problématiques

    Quelle lecture en faites-vous ?
    Une ia comme son nom l'indique = intelligence artificielle .

    Artificiel = Produit par le travail de l'homme et non par la nature.

    Cela est donc soumis à des règles de gestion et de fonctionnement. Ce n'est pas l'intelligence naturelle d'un cerveau humain .

    Donc l'ia en question peut avoir des résultats complétement con .

    Caricature de Macron en hitler :

    Nom : 21989615lpw-21989873-article-antivax-macron-hitler-vaccin-covid-jpg_8120264_1250x625.jpg
Affichages : 2672
Taille : 96,1 Ko

    Photo historique d'un véhicule allemand nazi :

    Nom : sdkfz.jpg
Affichages : 2646
Taille : 79,5 Ko

    > pour l'ia Facebook = la caricature de macron passe
    > la photo historique = photo raciste

    ----

    En tenant compte de la notion de "contexte" et "subtilité" pour un humain , chose à la quelle l'ia a bien du mal ou alors n'est pas programmée pour :

    > la caricature de macron est raciste
    > l photo historique acceptable

    Le jour ou l'ia arrivera a tenir compte des notions de "contexte" et "subtilité" , peut être, je dis bien peut être qu'on arrivera a avancer ...

    Peut être doit on garder une main mise, sur une modération manuelle ?

    Tout ce qui n'est pas régi par des règles binaires est peut être tout simplement impossible à régir informatiquement ?

    Les émotions, les sentiments, les jugements, les envies , les goûts , les valeurs ...

  4. #4
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 107
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 107
    Par défaut
    ça a l'air de rentrer dans les limites de l'IA qui sait reconnaître des choses, mais pas les interpréter. L'interprétation, c'est beaucoup d'inférences par rapport au contexte, à la connaissance générale du monde (implicites humains, physique intuitive...), à la compréhension de ce qui est reconnu.

    Et encore, ça, c'est quand on a crée des bases d'apprentissage énormes où on a mis l'essentiel des choses à reconnaître et que la base est pure, et qu'on a réussi à taguer ce qui est sensé, et pour l'humain insensé.

    En ce moment, on teste une IA commerciale de détection de fracture. À 1ère vue, ça marche pas mal mais :
    - elle ne voit pas les fractures énormes avec dislocation ni les luxations (qui ne devaient pas être dans la base)
    - elle affiche souvent fracture ou suspicion de fracture alors qu'il n'y en a pas, en cas de présence d'épanchement articulaire, de radio faite dans une position qui soulage le patient de sa douleur, de pansements... . En effet, ces éléments sont souvent associés à une fracture mais pas toujours et semblent avoir été appris par le réseau comme une situation où il faut dire fracture.

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 941
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 941
    Par défaut La lanceuse d'alerte de Facebook estime que la société fait trop peu pour protéger les utilisateurs
    La lanceuse d'alerte de Facebook estime que la société fait trop peu pour protéger les utilisateurs,
    la plupart des gens sont d'accord et estiment qu'une action du Congrès est nécessaire

    Suite au témoignage de l'ancienne employée de Facebook Inc. et dénonciatrice Frances Haugen, la plupart du public a déclaré dans un récent sondage Morning Consult que la société ne faisait pas assez pour protéger la sécurité des utilisateurs et soutenait à la fois les actions du Congrès et des entreprises pour remédier à la situation.

    La dénonciatrice Frances Haugen qui a fait fuiter un énorme cache de documents glané lors de son passage dans l'entreprise avait déjà indiqué lors d'une interview que la situation était en quelque sorte « encouragée ». « Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley, son interlocuteur.

    Elle a secrètement copié des dizaines de milliers de pages de recherches internes sur Facebook. Elle dit que les preuves montrent que l'entreprise ment au public sur ses progrès significatifs contre la haine, la violence et la désinformation.

    Face à cette situation, la lanceuse d'alerte a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.

    « Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».

    Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.

    Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.

    Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »

    Le public partage son avis

    Soixante pour cent des adultes américains ont déclaré que Facebook ne faisait pas assez pour protéger les utilisateurs, contre 19 pour cent qui ont déclaré que la société de médias sociaux en faisait assez.

    Nom : un.png
Affichages : 2098
Taille : 40,5 Ko

    Le public est d'accord pour des contrôles de contenu plus stricts

    Parmi les problèmes rencontrés par Facebook ces dernières semaines figurent des informations selon lesquelles les plateformes de l'entreprise, telles qu'Instagram, ont eu un effet négatif sur la santé mentale des jeunes utilisateurs, ainsi que des allégations selon lesquelles l'entreprise a autorisé la désinformation sur des sujets tels que les vaccins COVID-19. proliférer sur ses sites. Le sondage indique que le public soutiendrait les mesures que Facebook pourrait prendre pour répondre à certaines de ces préoccupations.

    Nom : deux.png
Affichages : 1245
Taille : 98,3 Ko

    L'une des actions les plus populaires pour Facebook a été de mettre en œuvre des réglementations et des normes plus strictes pour interdire le contenu qui encourage la désinformation, les discours de haine, les activités illicites ou les actes de violence, qui ont collectivement reçu le soutien de 69 % des personnes interrogées. L'une des actions qui ont reçu une part égale de soutien était l'augmentation de l'âge d'éligibilité pour avoir un compte sur les plateformes de l'entreprise.

    Malgré le soutien du public à la levée de la barrière à l'entrée, certains experts ne sont pas convaincus. Sean Blair, professeur adjoint de marketing à la McDonough School of Business de l'Université de Georgetown, a déclaré que de telles restrictions « ne fonctionnent tout simplement pas ».

    « Les gens trouveront toujours des moyens de les contourner, donc le problème ne disparaîtra pas simplement », a déclaré Blair. « Maintenant, cela ne signifie pas que nous ne devrions pas du tout avoir d’obstacles ou d’exigences d’âge, mais cela signifie que nous ne devrions probablement pas compter sur eux pour résoudre le problème. En fin de compte, je pense que tout le monde – entreprises, utilisateurs, parents, enfants, régulateurs – devra jouer un rôle dans le processus. »

    La plupart soutiennent l'expansion de la capacité de Facebook à censurer et à supprimer certains types de contenu, ainsi qu'une mesure pour que le fil d'actualité affiche le contenu par ordre chronologique plutôt que d'utiliser des algorithmes pour personnaliser individuellement ce qui est affiché.

    Nom : trois.png
Affichages : 1275
Taille : 105,0 Ko

    Soutien majoritaire à l'action du Congrès

    Le public est également favorable à une intervention du Congrès et à une réglementation accrue du géant des médias sociaux.

    La suggestion la plus populaire était de renforcer la protection des enfants sur les plateformes de médias sociaux, qui a reçu un soutien de 77 %. Cela fait suite à l'annonce par Facebook de suspendre son initiative Instagram Kids, une décision soutenue par 52 % des adultes américains dans un sondage Morning Consult réalisé peu de temps après l'annonce.

    Un plan pour que le Congrès crée un organisme gouvernemental indépendant composé d'anciens techniciens qui enquêterait sur l'utilisation des algorithmes par Facebook et le risque qu'ils représentent pour le public a recueilli un solide soutien, tout comme les réglementations qui exigent une plus grande transparence autour des algorithmes et de la façon dont les sociétés de médias sociaux les utilisent.

    Et 64 % ont déclaré qu'ils soutenaient que les sociétés de médias sociaux soient au moins quelque peu responsables des actions de leurs utilisateurs, ce qu'un groupe de démocrates de la Chambre cherche à faire avec un nouveau projet de loi qui attribuerait la responsabilité aux plateformes si les recommandations personnalisées faites par leurs algorithmes de contenu favorisent contenu préjudiciable ayant causé un préjudice émotionnel ou physique.

    Ce serait un défi majeur pour les protections de responsabilité des entreprises en vertu de l'article 230 de la Communications Decency Act, bien que certains groupes technologiques aient déclaré que ce n'était pas la meilleure voie à suivre.

    « Au lieu de blâmer l'algorithme, le Congrès devrait travailler avec des plateformes pour développer les meilleures pratiques pour identifier et supprimer rapidement les contenus nuisibles et donner aux utilisateurs les compétences et les outils dont ils ont besoin pour rester en sécurité en ligne », Daniel Castro, vice-président de l'Information Technology and Innovation Foundation, a déclaré dans un communiqué.

    Adam Kovacevich, directeur général du groupe de politique technologique de la Chambre du progrès, a averti dans un communiqué que le projet de loi « exacerbe le problème » du contenu préjudiciable. « En interdisant aux entreprises d'utiliser des données personnelles pour recommander un contenu pertinent aux utilisateurs, les plateformes pourraient être obligées de s'appuyer davantage sur des mesures telles que l'engagement viral qui entraîne la propagation de mauvais contenus », a-t-il prévenu.

    Que peut-on faire d'autre

    D'autres ont suggéré une approche différente. Un groupe de plus de 40 organisations de défense des droits de la personne a appelé à une loi fédérale sur la confidentialité des données afin d'interdire aux sociétés de médias sociaux de collecter des données et de les utiliser pour leurs algorithmes de recommandation personnalisée. Les groupes ont déclaré que la loi devrait être « suffisamment forte pour mettre fin au modèle commercial actuel de Facebook ».

    Une loi qui obligerait Facebook à divulguer publiquement ses recherches internes a également reçu un fort soutien, puisque 68 % ont déclaré qu'ils étaient favorables à une telle décision. Une grande partie de la récente controverse entourant l'entreprise découle de la série « Facebook Files » du Wall Street Journal, qui a publié une mine de documents internes montrant comment l'entreprise a minimisé divers aspects négatifs associés à ses plateformes, y compris les impacts d'Instagram sur la santé mentale des enfants.

    Le public semble favorable à la réglementation des entreprises de médias sociaux en général, car 52 % ont déclaré qu'ils étaient favorables à une telle décision des législateurs. Et 43 % ont déclaré que Facebook n'était pas assez réglementé, contre 19 % qui ont dit qu'il avait la bonne quantité de surveillance et 17 % qui ont dit qu'il en avait trop.

    La perspective de Facebook

    Dans une tribune, Nick Clegg, vice-président des affaires mondiales de Facebook, a appelé à de nouvelles réglementations Internet, y compris la réforme de l'article 230 :

    « On a beaucoup parlé de Facebook récemment, mais il y a une chose sur laquelle nous sommes d'accord : le Congrès devrait adopter de nouvelles réglementations Internet. 

    « Nous plaidons depuis plusieurs années pour de nouvelles règles. Pendant trop longtemps, de nombreuses questions importantes ont été abandonnées à la décision des entreprises privées. 

    « Mais alors que de nouvelles règles Internet sont écrites en Europe, en Inde, en Australie, au Royaume-Uni et ailleurs, les efforts de réglementation technologique des États-Unis sont au point mort. Voici quelques domaines dans lesquels le Congrès pourrait agir »:

    « Nous avons plaidé en faveur de la création d'une nouvelle agence de réglementation numérique pour faire face à des compromis concurrents dans l'espace numérique, un peu comme la Federal Communications Commission supervise les télécommunications et les médias. »

    « Nous avons proposé des moyens de réformer l'article 230 de la Communications Decency Act, notamment en exigeant des plateformes qu'elles soient plus transparentes sur la façon dont elles suppriment les contenus préjudiciables et illégaux, et en exigeant des grandes entreprises comme Facebook qu'elles démontrent qu'elles se conforment aux meilleures pratiques de lutte contre les contenus illégaux pour gagner les protections de la loi. »

    « Nous soutenons les efforts visant à apporter une plus grande transparence aux systèmes algorithmiques, à offrir aux gens plus de contrôle sur leur expérience et à exiger des audits des systèmes de modération de contenu des plateformes - qui, bien sûr, incluent des algorithmes. Nous soutenons également les processus d'établissement de normes qui abordent des questions telles que la mesure du "biais" dans un algorithme qui, une fois établi, pourrait être requis dans l'ensemble du secteur. »

    « Nous convenons que le Congrès devrait agir pour établir des règles clarifiant comment les plateformes peuvent ou devraient partager des données avec des chercheurs affiliés à des universités à des fins de recherche, potentiellement par le biais d'une nouvelle division de la Federal Trade Commission. »

    « Nous avons appelé le Congrès à faire plus pour se protéger contre les opérations d'influence, en créant une dissuasion qu'aucun effort de l'industrie ne peut égaler. Le Congrès pourrait agir maintenant pour imposer la transparence de la plateforme, permettre le partage légal d'informations et imposer la responsabilité directement aux personnes et aux organisations à l'origine des opérations d'influence malveillantes. »

    « Et le Congrès peut sortir de l'impasse sur la législation fédérale sur la protection de la vie privée. Les États-Unis regardent de côté tandis que d'autres écrivent le livre de jeu mondial sur la vie privée. Une loi fédérale complète sur la protection de la vie privée pourrait consacrer les droits des consommateurs et renforcer la responsabilité des entreprises. Nous avons également besoin d'une législation sur la portabilité des données donnant aux gens la possibilité de transférer leurs données vers d'autres services tout en protégeant la confidentialité. »

    « Il est grand temps que le Congrès établisse des règles claires et équitables. C'est ainsi que nous rendrons Internet plus sûr, tout en veillant à ce que la créativité et la concurrence continuent de prospérer en ligne ».

    Source : résultat de l'enquête

    Et vous ?

    Êtes-vous d'accord avec les propositions de la dénonciatrice de Facebook ? Sur quels points ?
    Partagez-vous l'opinion du public ?
    Comment pouvez-vous interpréter les statistiques ?

    Voir aussi :

    Facebook annonce qu'il va embaucher 10 000 personnes en Europe pour l'aider à construire un « métavers », qui imitera l'expérience d'interagir en personne grâce à des techno comme l'AR et la VR
    Facebook suspend son projet de lancer Instagram Kids, cette décision fait suite aux préoccupations concernant les effets sur la santé mentale des moins de 13 ans
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre confirmé
    Profil pro
    Inscrit en
    Mars 2011
    Messages
    133
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2011
    Messages : 133
    Par défaut
    À partir du moment où les fondateurs de ses réseaux sociaux ne veulent pas que leurs propres gosses y aient accès (alors qu'ils proposent des versions soit disant édulcorées et protégées pour les ados), faut commencer à chercher la porte de sortie.

  7. #7
    Membre averti
    Homme Profil pro
    Data
    Inscrit en
    Octobre 2021
    Messages
    57
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Data

    Informations forums :
    Inscription : Octobre 2021
    Messages : 57
    Par défaut
    Il y a 2 points bien distincts sur cet article :

    - La capacité de Facebook a retirer du contenus de sa plateforme jugé préjudiciable et illégal
    - La capacité de Facebook a sélectionner à priori du contenu pour qu'il soit présent ou non dans le fil d'actualité des utilisateurs par des algorithmes.

    C'est le deuxième point qui est critiqué, à raison, par Frances Haugen, car elle considère que Fb est pleinement responsable des conséquences d'une filtration active du contenu à priori. C'est ce qui constitue son business model et qui enrichit l'entreprise. D'ailleurs elle sépare bien les deux points dans son argumentaire.

    Le principe de censure du contenu par la plateforme est un débat complètement différent à mon sens. Notamment, qui décide de ce qui est préjudiciable, limites d'un système centralisé, etc...

  8. #8
    Membre très actif
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    430
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 430
    Par défaut
    Globalement Internet c'est le Far-West ;-(

    Il est clair que les états devraient mieux protéger leurs populations / entreprises face aux vols en tous genres, que ce soit des données, de l'argent ou autre...

  9. #9
    Invité
    Invité(e)
    Par défaut
    Bonjour,

    Citation Envoyé par rbolan Voir le message
    Il y a 2 points bien distincts sur cet article :

    - La capacité de Facebook a retirer du contenus de sa plateforme jugé préjudiciable et illégal
    - La capacité de Facebook a sélectionner à priori du contenu pour qu'il soit présent ou non dans le fil d'actualité des utilisateurs par des algorithmes.

    C'est le deuxième point qui est critiqué, à raison, par Frances Haugen, car elle considère que Fb est pleinement responsable des conséquences d'une filtration active du contenu à priori. C'est ce qui constitue son business model et qui enrichit l'entreprise. D'ailleurs elle sépare bien les deux points dans son argumentaire.

    Le principe de censure du contenu par la plateforme est un débat complètement différent à mon sens. Notamment, qui décide de ce qui est préjudiciable, limites d'un système centralisé, etc...
    Facebook n'est ni plus ni moins qu'une agrégation de 4 services web :

    > forum
    > blog
    > gallerie photos
    > logiciel de tchat

    Historiquement, si on prend le modèle des forums il y a PHPBB et Niceboard forum.

    Sur un forum classique (comme developpez.com) ici on a notre propre modération . C'est comme ci notre hébergeur (OVH, Ionos et j'en passe) , décidait de venir fourrer son nez et de faire "sa propre modération" en faisait de la censure ou du flicage directement dans la BDD MySQL ...

    Avec facebook , c'est un peu pareil. L'individu est placé "au centre". Il y a peu de modérateurs de groupes bénévoles ... Donc facebook utilise ces modérateurs à but commercial/consumériste et non dans un but de "bon sens" .

    Tout commentaire qui ne vas pas le sens "commercial" est dégagé manu militari .

    C'est comme ci un commerçant "truquait" ces commentaires sur son site ... C'est interdit, cela s'appelle une fraude et est condamnable pour publicité mensongère.

  10. #10
    Membre éclairé Avatar de seedbarrett
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2014
    Messages
    197
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2014
    Messages : 197
    Par défaut
    Citation Envoyé par tanaka59 Voir le message
    Bonjour,
    Facebook n'est ni plus ni moins qu'une agrégation de 4 services web :

    > forum
    > blog
    > gallerie photos
    > logiciel de tchat
    Plus maintenant, facebook c'est pas seulement instagram, messenger, whatsapp et son site lui même, c'est devenu également oculus, un marketplace, un site de rencontre, un éditeur de logiciel (ils ont leur propre langage web par exemple), une régie pub et j'en passe. Si ca peut aider à la compréhension de quel service on parle pourquoi pas, Google l'a bien fait avec réussite.

  11. #11
    Membre confirmé

    Inscrit en
    Mai 2008
    Messages
    216
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 216
    Par défaut
    Citation Envoyé par phil995511 Voir le message
    Globalement Internet c'est le Far-West.
    Dans ce cas, le Far-West, c'est le monde des entreprises privées qui ne veulent surtout pas se voir brider leur "capacité d'innovation".

  12. #12
    Invité
    Invité(e)
    Par défaut
    Bonsoir,

    Citation Envoyé par seedbarrett Voir le message
    Plus maintenant, facebook c'est pas seulement instagram, messenger, whatsapp et son site lui même, c'est devenu également oculus, un marketplace, un site de rencontre, un éditeur de logiciel (ils ont leur propre langage web par exemple), une régie pub et j'en passe. Si ca peut aider à la compréhension de quel service on parle pourquoi pas, Google l'a bien fait avec réussite.
    Facebook est une sorte gros shecker / blender / patchwork /meltingpot ou on est venu agglomérer un tas de sites différents . Dans le fond c'est funky est cool .

    Par contre c'est les "centres d’intérêts" qu'on est venu y mettre ... politique, religion, théologie ... puis cela a mal tournée .

    Penser qu'on peut vendre un discours politique , un discours religieux comme on vend un bien ou service ... C'est comment dire ... tordu

    Vous acheter "du coran" ou de "la bible" au rayon conserve ? Même chose vous acheter du discours PS , PC , RN au rayon lessive ou électroménager ou sur la marketplace de facebook ?

    Soyons sérieux , l'ideologie et la croyance ne sont par mercantilisable ni monnayable.

  13. #13
    Membre averti
    Homme Profil pro
    Data
    Inscrit en
    Octobre 2021
    Messages
    57
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Data

    Informations forums :
    Inscription : Octobre 2021
    Messages : 57
    Par défaut
    Historiquement, le business model de Facebook (en tant que réseau social) est de vendre du "temps de cerveau disponible" à ses clients, les annonceurs. Pour se faire, et c'est ce qui le rend efficace, il va exploiter les données personnelles fournies par ses produits, les utilisateurs de sa plateforme.

    Une des méthodes utilisée est d'influencer ce que voit l'utilisateur de sa plateforme via son fil d'actualité par des algorithmes de filtrage, de manière à ce que celui-ci, d'une part, reste le plus longtemps possible connecté et soit plus efficacement capté par l'annonceur, et d'autre part de récolter encore plus de données de navigation pour améliorer le ciblage par l'annonceur.

    Que l'annonceur en question soit un vendeur de tapis, un parti politique, un autre média, etc... peu importe tant qu'il paye. Et effectivement, avec le temps, on se rend compte que ce système, en retour, va influencer les utilisateurs dans leur manière de penser (et donc influer sur la société dans son ensemble), et que ça marche encore mieux avec des annonceurs plutôt mal intentionnés et des sujets polémiques (Cambridge Analytica par ex.)

  14. #14
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 941
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 941
    Par défaut Margrethe Vestager : « nous devons agir maintenant contre Facebook »
    Margrethe Vestager : « nous devons agir maintenant contre Facebook ».
    La commissaire européenne à la concurrence estime que les dirigeants devraient agir avant que la plateforme ne fasse plus de dégâts

    La commissaire européenne à la concurrence Margrethe Vestager a déclaré mardi à l'occasion d'une interview que le démantèlement de Facebook pourrait prendre « des années » et que les dirigeants devraient agir rapidement avant que la plateforme ne fasse plus de dégâts.

    Les démocraties doivent « s'unir » contre Facebook

    Lorsqu'il lui a été demandé si Facebook était trop grand et trop puissant pour que des changements puissent être imposés de l'extérieur, Vestager a répondu « pas pour notre démocratie ».

    Elle a déclaré que les démocraties solidaires peuvent apporter de réels changements à la façon dont Facebook gère ses plateformes, et a estimé que les réglementations devaient être renforcées lorsqu'elles traitaient avec des entreprises qui pourraient exercer une « immense influence » sur la démocratie et sur la santé mentale des gens.

    « Si nous sommes solidaires, alors nous pouvons apporter de vrais changements », a affirmé Vestager. « Emmener Facebook à évaluer le risque qu'ils pourraient poser pour la santé mentale des jeunes et avoir des personnes externes qui examinent cette évaluation pour voir si les choses ont été corrigées serait déjà un pas en avant important ».

    « Nous devons également réglementer beaucoup plus étroitement si nous avons affaire à quelqu'un qui peut avoir une immense influence à la fois sur la santé mentale, mais aussi sur le développement de notre démocratie », a-t-elle ajouté, expliquant que la Commission européenne avait préparé une législation qui équilibre la nécessité de préserver liberté d'expression, mais de se débarrasser des choses qui   sont illégales hors ligne », comme l'incitation à la violence.

    Des batailles judiciaires sans fin

    Vestager a toutefois admis que toute bataille juridique avec Facebook serait prolongée.

    La grande enseigne des médias sociaux « nous poursuivrait en justice pendant des années sans fin », a-t-elle déclaré. Mais elle espérait que si l'UE pouvait « prendre des mesures maintenant pour que les choses changent », alors « les petites entreprises pourraient avoir un accès complet au marché », et les grandes enseignes des médias sociaux comme Facebook devraient assumer la responsabilité des dommages qu'ils ont causés.

    Des commentaires qui arrivent dans un contexte où Facebook fait l'objet d'un examen minutieux. Plus tôt ce mois-ci, la dénonciatrice Frances Haugen a détaillé les façons dont Facebook savait qu'il était utilisé pour promouvoir la violence et la discorde et n'a rien fait pour l'arrêter.

    Lundi, une mine de documents internes divulgués par Frances Haugen a montré que Facebook a donné la priorité à sa propre croissance plutôt qu'aux problèmes de sécurité publique.

    Les allégations vont de la signature personnelle du PDG Mark Zuckerberg sur un plan d'entreprise visant à censurer les critiques du gouvernement vietnamien à la demande du parti communiste au pouvoir, à la mise en évidence auprès des actionnaires d'une baisse du nombre d'adolescents utilisant l'application.

    Zuckerberg a soutenu que les allégations étaient sélectives et ont présenté l'entreprise sous un mauvais jour.

    « Les critiques de bonne foi nous aident à nous améliorer, mais mon point de vue est que ce que nous voyons est un effort coordonné pour utiliser de manière sélective des documents divulgués pour brosser une fausse image de notre entreprise », a déclaré Zuckerberg lors d'un appel téléphonique avec les actionnaires faisant suite à la publication des résultats trimestriels de Facebook.

    Les allégations n'ont pas freiné les revenus de Facebook. Les résultats montrent que le bénéfice a atteint 9,2 milliards de dollars, soit une augmentation de 17 % par rapport au trimestre précédent. Le nombre d'utilisateurs a bondi à 2,91 milliards.

    Les dirigeants de Facebook ont ​​déclaré que la société aurait probablement fait encore mieux si Apple n'avait pas mis à jour son système d'exploitation qui empêche les annonceurs de diffuser des publicités sur les utilisateurs sans leur autorisation.

    « Dans l'ensemble, sans les changements apportés à iOS 14 par Apple, nous aurions connu une croissance positive des revenus d'un trimestre à l'autre », a déclaré Sherly Sandberg, directrice des opérations de Facebook, selon l'agence de presse AFP.

    Nom : book.png
Affichages : 1878
Taille : 87,5 Ko

    Haugen témoigne devant les législateurs britanniques

    Haugen, l'ancienne employée Facebook devenue lanceuse d'alerte, a témoigné lundi devant une commission parlementaire britannique. La commission examine un projet de loi destiné à sévir contre les contenus en ligne préjudiciables.

    « Facebook n'a pas voulu accepter que même de petits éclats de profit soient sacrifiés pour la sécurité, et ce n'est pas acceptable », a déclaré Haugen aux législateurs.

    Elle a ajouté que les algorithmes de Facebook poussaient les gens à voir le contenu à des extrêmes politiques. « Donc, si quelqu'un est de gauche, il sera poussé à voir du contenu de la gauche radicale, si quelqu'un est de droite, il sera exposé au contenu de la droite radicale ».

    Frances Haugen avait déjà témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs :

    « Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».

    Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.

    Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.

    Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »

    L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.

    Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l'article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.

    En fait, le ministère américain de la Justice a fait des propositions visant à l'affaiblir dans l'optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles supprimeraient le contenu des utilisateurs (si elles souhaitent conserver l'immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».

    Des rapports préjudiciables à l'image de l'entreprise ont été publiés

    Des dizaines de documents Facebook examinés par le Wall Street Journal ont montré que des employés Facebook ont tiré la sonnette d'alarme sur la façon dont ses plateformes sont utilisées dans les pays en développement, où sa base d'utilisateurs est énorme et en expansion. Les employés ont signalé que des trafiquants d'êtres humains au Moyen-Orient utilisaient les plateformes pour proposer des « femmes de ménage à vendre » qui étaient présentées comme du personnel corvéable à merci, sans contrat de travail ni protection sociale et dont le passeport avait été confisqué.

    Apple a dû menacer le réseau social de retirer ses applications de l'App Store pour qu'il s'engage à réprimer cette pratique.

    Nom : facebook.png
Affichages : 1500
Taille : 237,8 Ko

    Pourtant, une note interne a révélé que Facebook était au courant de la pratique avant même cette date : un chercheur de Facebook a écrit dans un rapport daté de 2019, « ce problème était-il connu de Facebook avant l'enquête de la BBC et l'escalade d'Apple ? », selon le journal.

    Sous la question se lit : « Oui. Tout au long de 2018 et du premier semestre 2019, nous avons mené l'exercice de compréhension global afin de bien comprendre comment la servitude domestique ne se manifeste pas sur notre plateforme tout au long de son cycle de vie : recrutement, facilitation et exploitation ».

    À maintes reprises, montrent les documents, les chercheurs de Facebook ont identifié les effets néfastes de la plateforme. À maintes reprises, malgré les audiences du Congrès, ses propres engagements et de nombreux exposés médiatiques, la société ne les a pas corrigés. Les documents offrent peut-être l'image la plus claire à ce jour de l'étendue de la connaissance des problèmes de Facebook au sein de l'entreprise, jusqu'au directeur général lui-même.

    À la lecture des documents internes, des employés de Facebook ont averti que des groupes armés en Éthiopie utilisaient le site pour inciter à la violence contre les minorités ethniques. Ils ont envoyé des alertes à leurs patrons sur l'utilisation des plateformes pour la vente d'organes, la pédopornographie et l'action du gouvernement contre la dissidence politique. Les documents ont montré également la réponse de l'entreprise, qui dans de nombreux cas est inadéquate ou inexistante. Un porte-parole de Facebook a déclaré que la société avait déployé des équipes mondiales, des partenariats locaux et des vérificateurs de faits tiers pour assurer la sécurité des utilisateurs.

    Source : interview de Margrethe Vestager

    Voir aussi :

    Facebook sait qu'Instagram est toxique pour de nombreuses adolescentes, selon les documents de l'entreprise
    Mark Zuckerberg propose des réformes limitées de la Section 230 avant son audition devant le Congrès, les entreprises ne bénéficieraient de cette loi que si elles suivent les meilleures pratiques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #15
    Invité
    Invité(e)
    Par défaut
    Margrethe Vestager le dit elle même en début de news, cela va être une lutte de longue haleine.

  16. #16
    Membre éclairé
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    952
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 952
    Par défaut
    Franchement c'est plutôt "nous aurions dû agir hier contre Facebook" dans les faits.

  17. #17
    Expert éminent

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Par défaut Des documents révèlent que Facebook ciblait des enfants de 6 ans pour sa base d’utilisateurs.
    Des documents révèlent que Facebook ciblait des enfants de 6 ans pour sa base d'utilisateurs,
    l’entreprise recrutait des employés pour développer des programmes destinés aux enfants de 6 à 17 ans

    Les documents Facebook qui ont fait l'objet d'une fuite ont révélé que le géant des médias sociaux s'efforçait de cibler les enfants dès l'âge de 6 ans afin d'élargir sa base de consommateurs et de générer davantage de profits pour le titan de la technologie. Un article de blog interne publié le 9 avril a annoncé que la société était en train d'embaucher des employés pour revoir sa gamme complète de produits destinés aux enfants de 6 à 9 ans et aux préadolescents de 10 à 12 ans. Actuellement, la société cible déjà les enfants à partir de 13 ans. Ce document, intitulé « Internet n'a pas été construit en pensant aux jeunes, mais nous sommes sur le point de changer cela », fait partie des documents publiés par l'équipe juridique de la dénonciatrice Frances Haugen et fournis au Congrès et à la Securities and Exchange Commission.

    Nom : Screenshot_2021-11-01 Leaked Facebook Papers reveal plans to target children as young as 6.png
Affichages : 2930
Taille : 646,7 Ko

    Des documents internes montrent que Facebook a activement recruté des employés pour créer des produits destinés aux enfants dès l'âge de 6 ans afin d'élargir sa base d'utilisateurs. « Notre entreprise fait un investissement majeur dans la jeunesse et a créé une équipe virtuelle interentreprises pour créer des expériences plus sûres et plus privées pour les jeunes qui améliorent leur bien-être et celui de leur foyer. Pour beaucoup de nos produits, nous n'avons historiquement pas conçu pour les moins de 13 ans », a écrit l'auteur d'un blog, dont le nom a été masqué.

    Dans le billet de blog interne publié le 9 avril, l'auteur a écrit que la société prévoyait d'embaucher plusieurs postes au fur et à mesure qu'elle se développait pour offrir sa gamme complète de produits aux enfants plus jeunes que son seuil actuel de 13 ans. Les diagrammes illustrent les nouveaux groupes d'âges cibles proposés, allant des enfants de 6 à 9 ans et des préadolescents de 10 à 12 ans, ainsi que les cibles existantes que sont les jeunes adolescents de 13 à 15 ans, les adolescents de 16 à 17 ans et les adultes. « Ces cinq groupes d'âge peuvent être utilisés pour définir l'éducation, la transparence, les contrôles et les valeurs par défaut qui répondront aux besoins des jeunes utilisateurs », écrit l'employé de Facebook.

    Les détracteurs de l'entreprise affirment que ces documents s'inscrivent dans une tendance de longue date de Facebook à tenter d'attirer les jeunes utilisateurs le plus tôt possible. « Facebook et Instagram ont montré à plusieurs reprises qu'on ne peut tout simplement pas leur faire confiance lorsqu'il s'agit du bien-être des enfants et des adolescents. Ils doivent se concentrer sur le nettoyage de leurs plateformes existantes au lieu d'essayer d'accrocher plus d'enfants à leurs plateformes addictives à des âges de plus en plus jeunes », a déclaré James Steyer, le fondateur et PDG de Common Sense Media, une organisation à but non lucratif qui fait des recherches sur la relation entre les enfants et le monde numérique.

    Pour ce qui est de ses efforts pour attirer un public plus jeune, Facebook a commenté : « Les entreprises qui opèrent dans un espace hautement concurrentiel font des efforts pour attirer les jeunes générations. Étant donné que nos concurrents font la même chose, le fait que Facebook ne fasse pas ce travail mériterait d'être signalé dans les journaux ».

    Les documents ont été inclus dans les divulgations faites à la Securities and Exchange Commission et fournis au Congrès sous une forme expurgée par le conseiller juridique de Frances Haugen, qui a travaillé comme chef de produit chez Facebook jusqu'en mai et qui s'est présentée comme une dénonciatrice. Des versions numériques des divulgations, avec certains noms et d'autres informations personnelles caviardées, ont été obtenues par un consortium d'organismes de presse. La plupart des documents sont des photographies numériques du matériel de l'entreprise sur des écrans d'ordinateur.

    Le document a été partagé sur le forum interne de Facebook. « Nous avons quelques chercheurs à travers l'entreprise qui donnent le coup d'envoi de cette équipe virtuelle et nous en embauchons d'autres au fur et à mesure que ce travail se déploie », a écrit l'auteur, expliquant que l'équipe prévoyait de s'étendre en embauchant des personnes ayant de l'expérience dans « la recherche mondiale parmi les jeunes (en particulier les enfants, les préadolescents et leurs parents et proches) ». Le post énumère des emplois pour des catégories telles que Messenger Kids/Youth Platform et Instagram Child Safety et a partagé le nom du responsable de l'embauche pour chaque rôle, qui a été expurgé. Messenger Kids est une application d'appel vidéo et de messagerie créée par Facebook qui est actuellement disponible pour les enfants.

    Nom : Screenshot_2021-11-01 Facebook documents reveal company targeted children as young as 6.png
Affichages : 2119
Taille : 232,1 Ko

    Le post comprend un diagramme intitulé " Where we've been and where we're going .... "(Où nous avons été et où nous allons) qui explique comment l'entreprise prévoit de s'étendre à des publics inférieurs à son seuil actuel de 13 ans. Le document cite la réglementation actuelle de la Federal Trade Commission concernant les services en ligne destinés aux enfants de moins de 13 ans, appelée le Children's Online Privacy Protection Act (COPPA). Le COPPA est une loi des États-Unis de 1998 visant à protéger la vie privée des enfants sur Internet. Cette loi concerne la collecte, par des personnes physiques ou morales sous le joug de la juridiction des États-Unis, d'informations sur les mineurs de 13 ans.

    Dans un diagramme décrivant la manière dont l'entreprise travaille actuellement avec les jeunes utilisateurs, une note explique pourquoi l'entreprise a fixé un seuil à 13 ans. « La ligne COPPA est simple : nous traitons les 13 ans et plus comme les autres utilisateurs et demandons aux plus jeunes de ne pas utiliser nos produits ». Le diagramme adjacent est intitulé « Et à l'avenir » et la ligne « stop » qui représente les restrictions actuelles est supprimée et remplacée par des niveaux d'utilisateurs, notamment "Tweens 10-12" et "Kids 6-9." La diapositive n'explique pas comment la société s'y prendrait pour contourner les restrictions actuelles de la COPPA à l'avenir. Dans une diapositive intitulée « La conception pour les jeunes nécessite une attention particulière à la maturité cognitive et sociale », des personnages de dessins animés sont utilisés pour décrire différents groupes d'âge, dès les enfants de 6 à 9 ans.

    Nom : 3.png
Affichages : 2154
Taille : 139,4 Ko

    Cette publication est diffusée une semaine avant qu'une coalition de 35 organisations et de 64 experts individuels, coordonnée par Fairplay, anciennement connue sous le nom de Campaign for a Commercial-Free Childhood, une organisation à but non lucratif basée à Boston, ne soulève des préoccupations concernant la vie privée, le temps d'écran, la santé mentale, l'estime de soi et la pression commerciale dans une lettre adressée au PDG de Facebook, Mark Zuckerberg. « Ces documents montrent clairement qu'au lieu de s'efforcer de rendre ses plateformes existantes moins nocives pour les adolescents, la priorité de Facebook était de piéger les jeunes enfants et de créer un réservoir d'utilisateurs à vie des produits Facebook. Malgré les affirmations de Facebook selon lesquelles sa motivation pour Instagram for Kids est de créer une expérience plus sûre pour les préadolescents, il est clair que la véritable raison est que Facebook fait une fixation sur les enfants pour stimuler la croissance. Les produits Facebook ne sont pas sûrs pour les jeunes enfants et une entreprise qui privilégie systématiquement les profits au détriment du bien-être des jeunes n'a pas à construire des plateformes pour les enfants », a déclaré Josh Golin, directeur exécutif de Fairplay.

    En septembre, le responsable d'Instagram, Adam Mosseri, a annoncé que l'entreprise allait mettre en pause le développement d'une version de l'application de partage de photos destinée aux enfants. « Je reste fermement convaincu que c'est une bonne chose de construire une version d'Instagram conçue pour être sûre pour les préadolescents, mais nous voulons prendre le temps de parler aux parents, aux chercheurs et aux experts en sécurité et parvenir à un plus grand consensus sur la façon d'aller de l'avant », a-t-il déclaré.

    Source : Documents Facebook

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des recherches internes de Facebook sur les enfants ?
    Pensez-vous que Facebook et ses filiales sont investis dans la protection des enfants en ligne ?

    Voir aussi :

    Des documents internes de Facebook divulgués décrivent les enfants de 10 à 12 ans comme une "richesse inexploitée", et contiennent des plans pour attirer les enfants sur le réseau social

    Instagram pour les enfants ? Mark Zuckerberg cible maintenant vos enfants et si le milliardaire les attrape tôt, il les aura pour la vie

    Facebook affirme qu'il n'y a pas de lien entre l'utilisation de ses plateformes et la dépression des utilisateurs, mais les chercheurs décrivent une corrélation de plus en plus évidente

  18. #18
    Invité
    Invité(e)
    Par défaut
    Punaise, mais laissez les grandir en paix !
    Dernière modification par Invité ; 01/11/2021 à 17h37.

  19. #19
    Membre très actif
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    430
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 430
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Punaise, mais laissez les grandir en paix !
    Vivement que cette boîte de m.... ferme un jour ses portes.

  20. #20
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 984
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 984
    Par défaut
    Citation Envoyé par Nancy Rey Voir le message
    Quel est votre avis sur le sujet ?
    Facebook est une boîte qui collecte autant d'information et qui ne les protège pas (cf. les fuites de données massives de ces dernières années). Je dirais même qu'ils s'en moque, si l'on en crois le mail interne qui avait lui aussi fuité et qui disait qu'il fallait habituer les utilisateurs au fuites de données en normalisant ces évènements...

    Si l'on tient à la sécurité de ses enfants, il faut essayer de les tenir le plus éloignés possible de cette cochonnerie.

    Citation Envoyé par Nancy Rey Voir le message
    Pensez-vous que Facebook et ses filiales sont investis dans la protection des enfants en ligne ?
    La seule protection dans laquelle Facebook investit c'est la protection de ses revenus.

Discussions similaires

  1. Réponses: 0
    Dernier message: 17/06/2021, 20h32
  2. Réponses: 5
    Dernier message: 23/08/2018, 19h21
  3. Apple supprime l'application Skype de son App Store chinois
    Par Stéphane le calme dans le forum Actualités
    Réponses: 1
    Dernier message: 29/11/2017, 11h01
  4. Réponses: 0
    Dernier message: 18/07/2017, 12h17
  5. Réponses: 3
    Dernier message: 10/07/2013, 12h35

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo