IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    7 982
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 7 982
    Points : 188 428
    Points
    188 428
    Par défaut Un bogue dans l'algorithme de Facebook a engendré une mise en avant de la désinformation sur des fils d'actu
    Un « bogue » dans l'algorithme de Facebook a engendré une mise en avant de la désinformation sur des fils d'actualités,
    il n'a été corrigé que six mois plus tard

    Les ingénieurs de Facebook ont ​​découvert un « échec massif de classement » sur son fil d'actualité qui distribuait de manière disproportionnée des publications contenant de la nudité, de la violence et des informations trompeuses, telles que déterminées par des vérificateurs de faits tiers indépendants, selon un rapport. Le problème identifié par les ingénieurs concerne l’algorithme chargé de faire remonter, ou au contraire, de rétrograder, des contenus en fonction d’une classification (les contenus contenant de la nudité, de la violence, mais aussi les fausses informations et les contenus haineux) : plutôt que de censurer les messages de récidivistes de la désinformation qui ont été évalués par le réseau de vérificateurs de faits extérieurs de l'entreprise, le fil d'actualité les a distribués entre octobre et mars, augmentant le nombre de vues jusqu'à 30 % à l'échelle internationale. D'après les notes internes, le bogue date de 2019, mais n'a provoqué ses premiers effets qu’en octobre 2021.

    Des contenus identifiés comme trompeurs ou problématiques ont été mis en avant par erreur sur les fils d'utilisateurs de Facebook ces derniers mois, à cause d'un problème informatique qui a mis six mois à être réparé, selon un rapport.

    Les ingénieurs de Facebook ont remarqué le problème pour la première fois en octobre dernier, lorsqu'une vague soudaine de désinformation a commencé à circuler dans les fils d'actualités, note le rapport, qui a été partagé au sein de l'entreprise la semaine dernière. Au lieu de supprimer les messages de récidivistes de la désinformation qui ont été examinés par le réseau de vérificateurs de faits externes de l'entreprise, le fil d'actualité a plutôt distribué les messages, augmentant le nombre de vues jusqu'à 30 % dans le monde. Incapables de trouver la cause profonde, les ingénieurs ont vu la poussée s'atténuer quelques semaines plus tard, puis s'embraser à plusieurs reprises jusqu'à ce que le problème de classement soit résolu le 11 mars.

    En plus des publications signalées par les vérificateurs des faits, l'enquête interne a révélé que, pendant la période de bogue, les systèmes de Facebook n'avaient pas correctement rétrogradé la nudité probable, la violence et même les médias d'État russes que le réseau social s'est récemment engagé à cesser de recommander en réponse à l'invasion de l'Ukraine. Le problème a été désigné en interne comme un SEV (Site Event) de niveau un – une étiquette réservée aux crises techniques hautement prioritaires, comme le blocage continu de Facebook et Instagram par la Russie.

    Le porte-parole de Meta, Joe Osborne, a confirmé l'incident dans une déclaration, affirmant que la société « avait détecté des incohérences dans le déclassement à cinq reprises, ce qui était corrélé à de petites augmentations temporaires des mesures internes ». Tentant de minimiser l'impact Joe Osborne de Facebook a affirmé que l'incident n'a concerné qu'un « très petit nombre de vues » : « L'écrasante majorité des contenus du fil d'actualité ne peuvent pas être déclassés », a-t-il expliqué.

    Les documents internes indiquent que le problème technique a été introduit pour la première fois en 2019 mais n'a pas créé d'impact notable avant octobre 2021. « Nous avons retracé la cause première d'un bogue logiciel et appliqué les correctifs nécessaires », a déclaré Osborne, ajoutant que les autres mécanismes conçus pour éviter d'exposer les utilisateurs aux contenus dits « nuisibles » étaient bien restés en place - comme « les autres rétrogradations, les avertissements de fact-checking et les retraits ».

    « Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles », a déclaré Massachi, qui est maintenant cofondateur de l'Institut à but non lucratif Integrity. « Mais que se passe-t-il lorsqu'une plateforme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même ? Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter ces problèmes rapidement ».

    Nom : news.png
Affichages : 11629
Taille : 113,5 Ko

    Une multiplication de ses outils pour combattre des contenus contraires à sa politique d'utilisation

    Pendant des années, Facebook a présenté le déclassement comme un moyen d'améliorer la qualité du fil d'actualité et a régulièrement élargi les types de contenu sur lesquels agit son système automatisé. Le déclassement a été utilisé en réponse à des guerres et à des histoires politiques controversées, suscitant des inquiétudes quant au shadow banning et des appels à la législation.

    Pour mémoire, le shadow banning (ou bannissement furtif) le blocage total ou en partie d'une communauté en ligne d'un utilisateur, ou du contenu qu'il produit, de telle sorte que celui-ci n'en ait pas conscience. Cela se fait en rendant les contributions de l'utilisateur invisibles ou moins visibles auprès des autres membres du service concerné, tout en les gardant généralement visibles par lui même, espérant ainsi que l'absence de réactions va finir par lasser l'utilisateur et amener ce dernier à adapter ses publications, réduire ces dernières, voire carrément quitter la communauté concernée.

    Malgré son importance croissante, Facebook n'a pas encore dévoilé son impact sur ce que les gens voient et, comme le montre cet incident, ce qui se passe lorsque le système tourne mal.

    En décembre 2016, Facebook a lancé son programme Third party fact-checking, auquel participent plus de 80 médias à travers le monde, généralistes ou spécialisés, pour l'utilisation de leurs "fact-checks" sur sa plateforme, sur WhatsApp et sur Instagram. Précisons que ces médias sont rémunérés pour leur travail. Si une information est diagnostiquée comme fausse ou trompeuse par l'un de ces médias, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Ceux qui avaient déjà partagé l’information reçoivent une notification redirigeant vers l’article. Il n'y aucune suppression de publications. Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.

    En 2018, le PDG Mark Zuckerberg a expliqué que le déclassement combat l'impulsion que les gens ont à s'engager intrinsèquement avec un contenu « plus sensationnaliste et provocateur ». « Nos recherches suggèrent que peu importe où nous traçons les limites de ce qui est autorisé, à mesure qu'un élément de contenu se rapproche de cette ligne, les gens s'y engageront davantage en moyenne - même s'ils nous disent après coup qu'ils n'aiment pas le contenu », indiquait-il dans une publication Facebook à l'époque.

    Le déclassement supprime non seulement ce que Facebook appelle le contenu « à la limite des infractions », mais également le contenu que ses systèmes d'IA soupçonnent de les violer, mais qui nécessite un examen humain plus approfondi. La société a publié une liste de ce qu'elle rétrograde en septembre dernier, mais n'a pas précisé comment la rétrogradation affecte exactement la distribution du contenu concerné.

    Voici les catégories développées spécifiquement pour tenir compte des types de contenu qui ne sont pas interdits par les Standards de la communauté de Facebook, mais qui se rapprochent fortement des limites définies par ces règles, y compris, mais sans s’y limiter :
    • la nudité et les actes sexuels limites : le contenu, y compris les liens vers des pages de destination, qui est à la limite d’enfreindre nos règles relatives à la nudité et aux actes sexuels. Par exemple, une photo d’une personne posant de façon sexuellement suggestive, axée sur ses fesses ou son décolleté, et dans laquelle la personne porte très peu de vêtements, ce qui n’enfreint pas notre règle sur la nudité et les actes sexuels ;
    • le contenu violent et explicite à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles relatives au contenu violent et explicite. Par exemple, le contenu qui montre des images gore ou explicites de quelque nature que ce soit, comme des images sanglantes d’humains ou d’animaux, de la violence fictive ou des blessures non cicatrisées, ce qui n’enfreint pas notre règle sur le contenu violent et explicite ;
    • Harcèlement et intimidation, discours haineux et violence et incitation à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles en matière de harcèlement et d’intimidation, de discours haineux et de violence et incitation. Par exemple, du contenu qui déshumanise des individus ou groupes qui ne sont pas définis par leurs caractéristiques protégées, fait l’éloge ou se moque de violences passées ou adresse des propos grossiers à un groupe ;
    • le contenu qui n’enfreint pas nos règles relatives au COVID-19 ou à la vaccination, mais qui diffuse des informations trompeuses ou exagérées sur les vaccins afin de dissuader le public d’aller se faire vacciner ;
    • le contenu publié dans des Groupes où nous prévoyons que le contenu a de grandes chances de vendre ou offrir des services interdits par nos Standards de la communauté en matière de marchandises réglementées.

    Les responsables ont indiqué qu'ils espéraient faire la lumière sur le fonctionnement des rétrogradations, mais craignent que cela n'aide les adversaires à déjouer le système.

    En attendant, les dirigeants de Facebook se vantent régulièrement de la façon dont leurs systèmes d'IA s'améliorent chaque année pour détecter de manière proactive des contenus tels que les discours de haine, accordant une plus grande importance à la technologie comme moyen de modération à grande échelle. L'année dernière, Facebook a annoncé qu'il commencerait à déclasser tout le contenu politique dans le fil d'actualité - dans le cadre des efforts du PDG Mark Zuckerberg pour ramener l'application Facebook à ses racines plus légères.

    Sources : rapport de Facebook, Mark Zuckerberg, Meta

    Et vous ?

    Disposez-vous d'un compte Facebook ?
    Estimez-vous que vous avez été plus exposé à du contenu de ces natures (contenant de la nudité, de la violence, mais aussi les fausses informations et des discours haineux) entre octobre et mars ?
    Que pensez-vous de la proposition de Massachi qui réclame de Facebook plus de transparence sur son système afin de pouvoir être aidé à détecter les problèmes plus rapidement ?
    Comprenez-vous le fait que les responsables Facebook craignent de faire la lumière sur le système de rétrogradation, de peur de voir des personnes le déjouer ?

    Voir aussi :

    Fake news : Facebook va priver de publicités les pages qui partagent des articles marqués comme faux par les organisations de fact-checking
    Facebook et Google s'associent aux médias français et lancent leurs propres outils, pour lutter contre les "fake news" en France
    Facebook dévoile ses plans pour lutter contre les fausses actualités, l'entreprise assure de prendre le problème au sérieux
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert confirmé

    Inscrit en
    août 2006
    Messages
    3 927
    Détails du profil
    Informations forums :
    Inscription : août 2006
    Messages : 3 927
    Points : 5 615
    Points
    5 615
    Par défaut
    Bonjour,

    Ouais, comme d'habitude, on accuse un bug pour faire passer les salo....ies de cette plateforme dont le seul but est le pognon
    Si les cons volaient, il ferait nuit à midi.

  3. #3
    Membre du Club
    Profil pro
    Inscrit en
    juillet 2008
    Messages
    11
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juillet 2008
    Messages : 11
    Points : 47
    Points
    47
    Par défaut
    Autrement dit, au moins pour le covid, retour de la censure de la libre expression et avantage à la désinformation gouvernementale qui sera de nouveau privilégiée par rapport aux doutes raisonnables du public.

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    mars 2006
    Messages
    1 479
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : mars 2006
    Messages : 1 479
    Points : 3 647
    Points
    3 647
    Par défaut
    un bug ? connaissant facebook, c'est plutot surement une fonctionnalité !

  5. #5
    Membre chevronné
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    816
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 816
    Points : 2 138
    Points
    2 138
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    « Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles », a déclaré Massachi, qui est maintenant cofondateur de l'Institut à but non lucratif Integrity. « Mais que se passe-t-il lorsqu'une plateforme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même ? Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter ces problèmes rapidement ».
    Donc même détecter les problèmes qui n'en sont pas...

    En décembre 2016, Facebook a lancé son programme Third party fact-checking, auquel participent plus de 80 médias à travers le monde, généralistes ou spécialisés, pour l'utilisation de leurs "fact-checks" sur sa plateforme, sur WhatsApp et sur Instagram. Précisons que ces médias sont rémunérés pour leur travail. Si une information est diagnostiquée comme fausse ou trompeuse par l'un de ces médias, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Ceux qui avaient déjà partagé l’information reçoivent une notification redirigeant vers l’article. Il n'y aucune suppression de publications. Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.
    Complètement injustifié est abusif (un média peu tout tout à fait "fact-checker" en fonction de son opinion). Je conseille plutôt l'utilisation d'outils participatifs, comme Captainfact : https://captainfact.io/

    En 2018, le PDG Mark Zuckerberg a expliqué que le déclassement combat l'impulsion que les gens ont à s'engager intrinsèquement avec un contenu « plus sensationnaliste et provocateur ». « Nos recherches suggèrent que peu importe où nous traçons les limites de ce qui est autorisé, à mesure qu'un élément de contenu se rapproche de cette ligne, les gens s'y engageront davantage en moyenne - même s'ils nous disent après coup qu'ils n'aiment pas le contenu », indiquait-il dans une publication Facebook à l'époque.
    Zuckerberg à raison, mais c'est le principe même des recommandations qui conduit à cette situation. Le déclassement ne peut rien faire contre ça.

    [*]la nudité et les actes sexuels limites : le contenu, y compris les liens vers des pages de destination, qui est à la limite d’enfreindre nos règles relatives à la nudité et aux actes sexuels. Par exemple, une photo d’une personne posant de façon sexuellement suggestive, axée sur ses fesses ou son décolleté, et dans laquelle la personne porte très peu de vêtements, ce qui n’enfreint pas notre règle sur la nudité et les actes sexuels ;
    Complètement puritain, abusif et illégitime.

    [*]le contenu violent et explicite à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles relatives au contenu violent et explicite. Par exemple, le contenu qui montre des images gore ou explicites de quelque nature que ce soit, comme des images sanglantes d’humains ou d’animaux, de la violence fictive ou des blessures non cicatrisées, ce qui n’enfreint pas notre règle sur le contenu violent et explicite ;
    Abusif et illégitime aussi.

    [*]Harcèlement et intimidation, discours haineux et violence et incitation à la limite de l’infraction : le contenu qui est à la limite d’enfreindre nos règles en matière de harcèlement et d’intimidation, de discours haineux et de violence et incitation. Par exemple, du contenu qui déshumanise des individus ou groupes qui ne sont pas définis par leurs caractéristiques protégées, fait l’éloge ou se moque de violences passées ou adresse des propos grossiers à un groupe ;
    Légitime, même si la définition de "contenu haineux" est malheureusement instrumentalisée politiquement.

    [*]le contenu qui n’enfreint pas nos règles relatives au COVID-19 ou à la vaccination, mais qui diffuse des informations trompeuses ou exagérées sur les vaccins afin de dissuader le public d’aller se faire vacciner ;
    Du grand n'importe quoi.

    [*]le contenu publié dans des Groupes où nous prévoyons que le contenu a de grandes chances de vendre ou offrir des services interdits par nos Standards de la communauté en matière de marchandises réglementées.
    Je n'ai pas trop d'avis, mais cela concerne peut être des substances illicites.

    Je pense que les catégories 1, 2 et 4 sont victimes de censures abusives. Seul le déclassement de la 3 est légitime, et peut être la 5.

    En attendant, les dirigeants de Facebook se vantent régulièrement de la façon dont leurs systèmes d'IA s'améliorent chaque année pour détecter de manière proactive des contenus tels que les discours de haine, accordant une plus grande importance à la technologie comme moyen de modération à grande échelle. L'année dernière, Facebook a annoncé qu'il commencerait à déclasser tout le contenu politique dans le fil d'actualité - dans le cadre des efforts du PDG Mark Zuckerberg pour ramener l'application Facebook à ses racines plus légères.
    L'IA n'est pas est ne sera jamais une solution face à une modération à une échelle démesurée. Une plate-forme centralisée est impossible à modérer, mais vulnérable à une censure massive.

    Disposez-vous d'un compte Facebook ?
    Non . Je n'ai pas pas envie de me faire voler mes informations personnelles.

    Estimez-vous que vous avez été plus exposé à du contenu de ces natures (contenant de la nudité, de la violence, mais aussi les fausses informations et des discours haineux) entre octobre et mars ?
    Je ne consulte pas suffisamment de compte Facebook pour me rendre compte.

    Que pensez-vous de la proposition de Massachi qui réclame de Facebook plus de transparence sur son système afin de pouvoir être aidé à détecter les problèmes plus rapidement ?
    Le problème est que j'estime que ce bug n'est pas un problème. Le problème c'est sa correction.

    Comprenez-vous le fait que les responsables Facebook craignent de faire la lumière sur le système de rétrogradation, de peur de voir des personnes le déjouer ?
    Comme je suis contre le système de rétrogradation, je m'en f*** pas mal.

    Enfin, je rappel ça : https://winaero.com/follow-winaero-o...ember-19-2019/ Un exemple parmi d'autres de censure inexplicable (sans aucune justification).

    More recently, we faced some unacceptable behavior from Facebook. For some unspecified reason they directly suspended our page. Starting in October 2019, they were giving warnings without being specific about anything but vaguely stating community rules violation. I am aware of their rules, and have also checked them once again for any revised policies. Winaero has done nothing to violate them. What's worse is that Facebook's support is refusing to reveal what exactly is being violated.

  6. #6
    Membre chevronné
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    816
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 816
    Points : 2 138
    Points
    2 138
    Par défaut
    Citation Envoyé par droggo Voir le message
    Bonjour,

    Ouais, comme d'habitude, on accuse un bug pour faire passer les salo....ies de cette plateforme dont le seul but est le pognon
    Parce que les images sexuellement suggestives et les images de blessures sont des salo....ies ??!

  7. #7
    Membre chevronné
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    816
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 816
    Points : 2 138
    Points
    2 138
    Par défaut
    Citation Envoyé par cobalt3d Voir le message
    Autrement dit, au moins pour le covid, retour de la censure de la libre expression et avantage à la désinformation gouvernementale qui sera de nouveau privilégiée par rapport aux doutes raisonnables du public.
    Surtout quand on voit la censure déclenchée par des mots-clefs sur le covid dans YouTube. Les personnes qui disent que YT censure uniquement des conneries du genre "le vaccin donne la 5G" ou "le vaccin est un génocide mondial" mentent. YT censure la moindre information dissidente sur le covid. https://support.google.com/youtube/answer/9891785?hl=fr

    À ce niveau GRAVISIME de censure, je conseille le boycott de YouTube, avec l'aide d'Invidious ou de n'importe quel autre front-end alternatif.

Discussions similaires

  1. Réponses: 5
    Dernier message: 13/04/2018, 12h46
  2. Réponses: 13
    Dernier message: 24/03/2016, 17h53
  3. Réponses: 3
    Dernier message: 28/02/2014, 13h12
  4. Nombres parfaits : petite erreur dans l'algorithme
    Par katrena99 dans le forum Pascal
    Réponses: 6
    Dernier message: 27/01/2014, 22h36
  5. Erreur dans mon algorithme
    Par quaresma dans le forum Algorithmes et structures de données
    Réponses: 6
    Dernier message: 25/05/2007, 10h04

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo