IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    juin 2016
    Messages
    1 802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 1 802
    Points : 40 506
    Points
    40 506
    Par défaut Des experts disent aux sénateurs américains que les algorithmes des médias sociaux menacent la démocratie
    Des experts disent aux sénateurs américains que les algorithmes des médias sociaux menacent la démocratie
    Facebook, YouTube et Twitter s'opposent toutefois à cette allégation

    Alors que l'UE, à travers son Parlement, adoptait une législation obligeant les plateformes de médias sociaux à supprimer un contenu une heure après qu'il a été notifié comme "terroriste", de l'autre côté de l'Atlantique, des experts confiaient aux sénateurs américains que les algorithmes de ces plateformes menacent la démocratie. L'audition a été organisée par la sous-commission judiciaire du Sénat sur la vie privée et la technologie et les sénateurs ont envisagé des réformes de l'article 230 pour corriger certains des préjudices les plus "effrayants" liés aux plateformes de médias sociaux.

    Les algorithmes de Facebook, YouTube et Twitter sont-ils nuisibles ?

    L'une des préoccupations les plus effrayantes en rapport avec les plateformes de médias sociaux est l'idée d'une désinformation algorithmique, à savoir que les systèmes de recommandation intégrés à des plateformes telles que Facebook et YouTube pourraient discrètement mettre en avant le contenu le plus nuisible et perturbateur du réseau. Pour essayer de trouver une solution à l'amplification de la désinformation et de la mésinformation de ces dernières années, le sous-comité du Sénat américain sur la vie privée et la technologie a convié à une audience cette semaine des cadres supérieurs de Facebook, YouTube et Twitter.

    Nom : GettyImages-1232558881.jpg
Affichages : 8667
Taille : 100,9 Ko

    L'audition au Sénat mardi a été intitulée "Algorithms and Amplification: How Social Media Platforms’ Design Choices Shape our Discourse and Our Minds" (Algorithmes et amplification : Comment les choix de conception des plateformes de médias sociaux façonnent notre discours et nos esprits). Elle a opposé les cadres supérieurs de ces entreprises à des chercheurs qui ont affirmé que les algorithmes utilisés par les plateformes de médias sociaux pour générer des revenus en maintenant l'intérêt des utilisateurs constituent des menaces existentielles pour la pensée individuelle et la démocratie elle-même.

    Les responsables des relations gouvernementales et de la politique de contenu de Facebook, YouTube et Twitter ont décrit aux sénateurs comment leurs algorithmes les aident à identifier et à supprimer les contenus qui violent leurs conditions d'utilisation, notamment les discours haineux ou de harcèlement et la désinformation. Ils ont ajouté que leurs algorithmes ont commencé à "déclasser", ou à supprimer, les contenus "extrêmes". Monika Bickert, vice-présidente de Facebook chargée de la politique en matière de contenu, a déclaré qu'il serait "voué à l'échec" pour les sociétés de médias sociaux d'orienter les utilisateurs vers des contenus extrêmes.

    Cependant Tristan Harris, un ancien cadre de l'industrie, qui est devenu un éthicien des données et dirige aujourd'hui le "Center for Humane Technology," a déclaré à la commission que, quelles que soient les mesures prises par les entreprises, leur activité principale dépendrait toujours de l'orientation des utilisateurs vers des "trous de lapin de la réalité" individuels. Il a déclaré que leur modèle économique repose entièrement sur ces faits. « C'est presque comme avoir les dirigeants d'Exxon, BP et Shell ici et leur demander ce que vous faites pour arrêter de manière responsable le changement climatique », a déclaré Harris.

    « Leur modèle économique consiste à créer une société qui est dépendante, outrée, polarisée, performative et désinformée. Bien qu'ils puissent essayer d'écrémer le préjudice majeur et faire ce qu'ils peuvent – et nous voulons célébrer cela, vraiment – c'est juste qu'ils sont fondamentalement piégés dans quelque chose qu'ils ne peuvent pas changer », a poursuivi Harris. Joan Donovan, directrice de recherche au "Shorenstein Center on Media, Politics and Public Policy" de la Harvard Kennedy School, a déclaré que les plateformes devraient être tenues d'offrir aux utilisateurs une version "d'intérêt public" de leurs fils d'actualité.

    « Nous n'avons pas construit les aéroports du jour au lendemain, mais les entreprises technologiques pilotent les avions sans avoir nulle part où atterrir. Le coût de l'inaction n'est rien d'autre que la fin de la démocratie », a déclaré Donovan. L'audience a en outre été marquée par une approche bipartite de la question de la part du nouveau président, le sénateur démocrate Chris Coons du Delaware, et du membre principal, le sénateur républicain Ben Sasse du Nebraska. Coons et Sasse ont félicité les plateformes pour leurs efforts visant à supprimer les contenus préjudiciables et à accroître la transparence.

    La section 230 de la Communications Decency Act devrait-elle être réformée ?

    Cependant, ils se sont demandé si elles en feraient suffisamment si elles étaient laissées à elles-mêmes. Coons a noté que Facebook a récemment pris des mesures spéciales pour limiter la désinformation et le contenu violent avant le verdict du procès de l'ancien policier de Minneapolis, Derek Chauvin, qui a été reconnu coupable du meurtre de George Floyd, un Noir, en mai 2020. « Ma question pour vous est de savoir pourquoi Facebook ne limiterait pas toujours la diffusion rapide de contenus susceptibles de violer vos normes », a demandé Coons à Bickert.

    Bickert a répondu que de telles mesures, en plus de supprimer les contenus préjudiciables, pourraient également limiter la diffusion de contenus "faux positifs" qui ne violeraient pas les politiques de l'entreprise. « Il y a donc un coût à prendre des mesures sur ce contenu. Mais dans les situations où nous savons qu'il y a un risque extrême ou fini, comme une élection dans un pays en proie à des troubles ou à Minneapolis avec le procès Chauvin, nous mettrons en place une mesure temporaire où nous désaccentuerons le contenu que la technologie, les algorithmes, disent être susceptibles de violer [la politique de l'entreprise] », a déclaré Bickert.

    Coons a déclaré que l'audience a été une occasion d'apprentissage pour lui et Sasse et qu'il n'avait pas de programme réglementaire spécifique, mais qu'il pense que le problème exige une attention urgente et qu'il envisagerait de soutenir des solutions volontaires, réglementaires ou législatives. Sasse a déclaré que les approches fragmentaires de chaque entreprise étaient "inconciliables". « Il avance un argument de taille et nous entendons des réponses qui, à mon avis, ne sont que marginales », a déclaré Sasse. L'audition a également porté sur la section 230 de la Communications Decency Act.

    La réforme de la loi a été remise en question par les membres des deux partis. Un projet de loi présenté l'année dernière obligerait les plateformes comptant plus de 10 millions d'utilisateurs à obtenir l'autorisation des personnes avant de leur proposer un contenu personnalisé par un algorithme. Si les entreprises ne le font pas, elles ne bénéficieraient pas de la protection de la section 230. Un autre projet de loi révoquerait de la même manière l'immunité prévue par la section 230 si les algorithmes diffusent des informations erronées qui conduisent à la violence.

    Le panel a conclu en explorant d'autres modèles économiques pour les plateformes de médias sociaux, qui ne seraient pas aussi dépendants des algorithmes pour susciter l'engagement et la consultation des publicités. « Imaginez que les entreprises technologiques, qui profitent aujourd'hui d'une quantité infinie d'engagements, ne gagnent de l'argent qu'à partir d'une petite partie de celui-ci. Et le reste était essentiellement taxé pour être versé dans un fonds d'intérêt public régénérateur qui finançait des choses comme le quatrième pouvoir, les vérificateurs de faits, les chercheurs, les technologues d'intérêt public », a proposé Harris.

    Cependant, les défenseurs de la section 230 font valoir que toute modification insuffisamment ciblée de la loi pourrait perturber l'Internet moderne tel que nous le connaissons, entraînant des effets négatifs en cascade bien au-delà de la portée prévue des efforts de réforme. Une abrogation pure et simple de la loi est presque certainement hors de question, mais même de petites modifications pourraient complètement réorganiser les entreprises Internet, pour le meilleur ou pour le pire. Une autre préoccupation lors de l'audience est venue de la sénatrice Amy Klobuchar (D-MN), qui dirige la sous-commission antitrust du Sénat.

    Elle a fait le lien entre les préoccupations algorithmiques et les comportements anticoncurrentiels dans l'industrie technologique. « Si vous avez une entreprise qui rachète tout le monde, nous ne saurons jamais si elle aurait pu mettre au point des outils pour nous aider à lutter contre la désinformation, car il n'y a pas de concurrence », a déclaré Klobuchar. Les membres de la sous-commission Klobuchar et le sénateur Mazie Hirono (D-HI) ont leur propre projet de réforme de la section 230, le Safe Tech Act, mais cette législation concerne moins les algorithmes que les publicités et le contenu payant.

    Source : Audience du sous-comité judiciaire du Sénat américain sur la protection de la vie privée et de la technologie

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Facebook, Google, Microsoft et Twitter approuvent le code australien de lutte contre la désinformation et s'engagent à rendre publiques les mesures prises pour lutter contre la désinformation

    Microsoft dévoile des outils de détection de deepfakes pour lutter contre les fausses nouvelles et d'autres formes de désinformation

    Classement 2021 des milliardaires de la Tech : Jeff Bezos conserve la tête pour la quatrième fois consécutive, la liste comporte une centaine de nouveaux membres et leurs fortunes battent des records

    L'UE adopte la loi controversée imposant le retrait en une heure des contenus terroristes, alors que les critiques craignent que la loi impacte sur la liberté d'expression
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre expert

    Profil pro
    Inscrit en
    janvier 2011
    Messages
    2 784
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : janvier 2011
    Messages : 2 784
    Points : 3 964
    Points
    3 964
    Par défaut
    Bonsoir,

    Les algorithmes de Facebook, YouTube et Twitter sont-ils nuisibles ?
    Oui

    Quel est votre avis sur le sujet ?
    Tout ce qui concerne des débats sérieux sur des sujets sensibles sociétaux (histoire, mobilité, environnement ...) ou bien , des activités culturelles et sportives sur des thématiques précises (histoire et sujet militaire, sport atypique, activité atypique ... ) , se font "fliquer". Tout ce qui n'entre pas dans un "moule" idéologique ou de "vision"/"pensée" , est automatiquement broyé pour être éjecté . Les utilisateurs impactés se retrouvent donc considérés comme "déviant" .

    Tout simplement, que les sujets de fond demandent une analyse littéraire (lecture humaine) et non binaire (une analyse par des robots ... ). Il en est de même pour la modération à grande échelle, on a besoin d'humains et non de machines ... Sauf si bien entendu, on veut abrutir la population par une pensée uniforme et incritiquable .

  3. #3
    Membre expérimenté
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    juin 2004
    Messages
    980
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 980
    Points : 1 431
    Points
    1 431
    Billets dans le blog
    3
    Par défaut
    J'ai hâte de voir si Bezo et Zuck vont tenter de jouer au con avec Poutine.

    https://www.journaldemontreal.com/20...de-letranger-1

    J'ai lu quelque part que Sarkozy était sorti blanc comme un drap après un rencontre privé avec Poutine. Après cette rencontre, il était très très posé dans ses déclarations sur Poutine et la Russie.
    intel i7
    Mint 20
    Plasma et Cinnamon

  4. #4
    Futur Membre du Club
    Profil pro
    Inscrit en
    septembre 2010
    Messages
    2
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : septembre 2010
    Messages : 2
    Points : 5
    Points
    5
    Par défaut
    Un documentaire assez édifiant sur le sujet (pour comprendre le danger de ces algorithmes) : "Derrière nos écrans de fumée" (The social dilemma)
    A voir absolument !

  5. #5
    Nouveau membre du Club
    Profil pro
    Inscrit en
    août 2007
    Messages
    14
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : août 2007
    Messages : 14
    Points : 34
    Points
    34
    Par défaut Censure
    La façon dont tous les articles, dénonçant l'action gouvernementale et leurs mensonges sur la gestion de la covid, ont été censurés montre bien à quel point notre démocratie est mise en danger par ces sociétés hors de tout contrôle que sont Facebook, Youtube, Twitter...

  6. #6
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    8 007
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 8 007
    Points : 14 159
    Points
    14 159
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Quel est votre avis sur le sujet ?
    Sans les manipulations de Facebook, Twitter et Google, Biden n'aurait peut-être pas gagné les élections.
    Donc c'est un peu pénible ces histoires de réseaux sociaux… Mais on a l'habitude de subir de la propagande puisque c'est ce que font les médias mainstream depuis toujours. (en France en 2017, tous les gros médias faisaient la campagne pour Macron)

    Les algorithmes mettent l'idéologie de Twitter, Facebook, YouTube en avant et masquent les idées qui ne vont pas dans le même sens.
    Keith Flint 1969 - 2019

  7. #7
    Futur Membre du Club
    Profil pro
    Inscrit en
    septembre 2010
    Messages
    2
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : septembre 2010
    Messages : 2
    Points : 5
    Points
    5
    Par défaut
    Ces algorithmes existent pour manipuler l'opinion de l'utilisateur.

    Dans le meilleur des cas cette manipulation a simplement pour but de vendre un produit.
    Dans les cas plus graves, cette manipulation vise à influencer le résultat d'un référendum (Brexit) ou d'une élection (USA-2016, USA-2020, Brésil, ...).
    Dans les cas extrêmes, la manipulation à pour but de déstabiliser une démocratie (tout les grands pays européens semblent être actuellement la cible de telles manipulations...).

    Ce ne sont pas les grands acteurs de la tech qui sont directement responsables de ces manipulations... ils n'ont fait que développer les outils (ou les armes c'est selon) pour rendre ce genre de manipulations possible. Ensuite ils mettent ces outils à disposition du plus offrant... sans être très regardant sur la finalité.

    Quelles solutions ?

    Demander gentiment aux géants de la tech de ne pas vendre leurs outils/armes aux méchants ?
    Bah... ça reviendrait à donner à facebook et autre le droit de juger de ce qui est bien et de ce qui est mal. Un peu risqué non ?

    Autre solution : interdire complètement le traçage et la publicité ciblée.

    Une solution intermédiaire : autoriser le traçage des personnes qui souhaitent être tracées (c'est ce que GDPR essaye vaguement d'atteindre)... mais il faudrait que ce consentement soit obtenu de façon beaucoup plus explicite que le simple "accept all cookies"/"grant all permissions" sur lequel tout le monde clique sans réfléchir. Et les personnes qui acceptent d'être tracées pourraient/devraient même être rémunérées pour ça.

Discussions similaires

  1. Réponses: 4
    Dernier message: 27/10/2019, 07h59
  2. Réponses: 0
    Dernier message: 22/04/2019, 14h46
  3. Réponses: 11
    Dernier message: 18/10/2018, 11h13
  4. Réponses: 127
    Dernier message: 20/04/2018, 20h41
  5. Réponses: 1
    Dernier message: 28/09/2017, 22h50

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo