Mark Zuckerberg propose des réformes limitées de la Section 230 avant son audition devant le Congrès,
Les entreprises ne bénéficieraient de cette loi que si elles suivent les meilleures pratiques

Les législateurs américains veulent modifier la Section 230, une clause de modération essentielle qui est souvent appelée la loi la plus importante d'Internet. Mais les critiques disent que la modification de cette loi pourrait causer plus de problèmes qu'elle n'en résout. Parmi ceux qui s’y opposent, il y a Mark Zuckerberg, Sundar Pichai et Jack Dorsey dont les déclarations d'ouverture ont été publiées par la Chambre des représentants des États-Unis avant une audition de jeudi sur la désinformation. Les trois PDG s’attaquent à cette question sensible d’abrogation de la loi, mais la proposition la plus détaillée est venue de Zuckerberg qui subordonnerait l'application de la Section 230 au maintien par les entreprises d'un système de suppression des contenus illégaux.

Avant sa comparution devant les auditions américaines ce jeudi 25 mars, le patron de Facebook suggère des changements "réfléchis" à la loi sur la protection de la responsabilité de la Section 230. Mark Zuckerberg, PDG de Facebook, va témoigner aux côtés des PDG de Google et de Twitter. Tous trois se présenteront devant le Congrès en ligne pour répondre à des questions sur l'extrémisme et la désinformation sur leurs plateformes Internet. Il s'agit de leur première apparition depuis que des émeutiers pro-Trump ont pris d'assaut le Capitole américain le 6 janvier, ce qui leur a valu des critiques sévères.

Nom : c01.jpg
Affichages : 1667
Taille : 35,9 Ko

L’appel à la modification de la Section 230

L'audition conjointe, intitulée "Disinformation Nation : Le rôle des médias sociaux dans la promotion de l'extrémisme et de la désinformation", est organisée par deux sous-comités de la commission de l'énergie et du commerce de la Chambre des représentants. Les dirigeants des entreprises technologiques seront probablement critiqués par les républicains de la commission pour ce qu'ils considèrent comme des efforts visant à étouffer les voix conservatrices sur les plateformes de réseaux sociaux.

Les démocrates s'inquiéteront probablement de la diffusion de fausses informations pendant la pandémie de coronavirus et l'élection présidentielle américaine. Mais l'une des questions qui seront certainement soulevées est l'appel de certains législateurs à modifier une loi américaine appelée Section 230 du Communications Decency Act. Cette loi accorde aux entreprises telles que Facebook et Twitter une immunité de responsabilité pour les contenus publiés par les utilisateurs.

En fait, elle empêche les entreprises technologiques d'être tenues responsables du contenu et des opinions exprimées en ligne par leurs utilisateurs. La loi est particulièrement vitale pour les réseaux sociaux, mais elle couvre de nombreux sites et services, y compris les organes d'information dotés de sections de commentaires.

Il convient de noter que la Section 230 de la loi a déjà été défendue par Jack Dorsey, Mark Zuckerberg et Sundar Pichai lorsqu'ils se sont présentés devant un panel du Sénat américain en octobre 2020. Les choses avaient atteint leur paroxysme au premier semestre 2020 lorsque le président Trump s'est publiquement affronté à Twitter, après que ce dernier a commencé à appliquer pour la première fois un avertissement de vérification des faits aux tweets de l'ancien président, dans le cadre de sa nouvelle politique sur les informations trompeuses.

Lorsque Twitter a refusé de faire marche arrière, le président Trump a signé un décret contre les entreprises de réseaux sociaux. Trump a cherché à "supprimer ou modifier" l'article 230 qui protège les entreprises de médias sociaux de toute responsabilité pour le contenu publié par leurs utilisateurs.

Les protections de la section 230 ont été critiquées dans le passé par d'autres législateurs des deux côtés, qui estiment qu'elles donnent aux entreprises de réseaux sociaux un laissez-passer pour des choses comme les discours de haine et les contenus soutenant le terrorisme. Le ministère de la Justice est toujours en train de formuler des propositions de modification de la législation.

Déclaration de Mark Zuckerberg

Selon sa déclaration d’ouverture, Sundar Pichai de Google fera des suggestions pour réformer la loi mais, contrairement à Mark Zuckerberg, il ne plaidera pas pour l'adoption d'un ensemble de bonnes pratiques, selon son témoignage. Pichai a déclaré que « sans la Section 230, les plateformes filtreraient trop le contenu ou ne seraient pas en mesure de le filtrer du tout ». Il a proposé des solutions telles que l'élaboration de politiques de contenu claires et accessibles, la notification des personnes lorsque leur contenu est supprimé et la possibilité de faire appel des décisions relatives au contenu.

Jack Dorsey, de Twitter, exposera les mesures prises par la plateforme pour lutter contre la désinformation, notamment ses outils internes comme Birdwatch. Le témoignage de Zuckerberg est particulièrement remarquable :

« Un domaine sur lequel j'espère que le Congrès se penchera est une réforme réfléchie de la Section 230 du Communications Decency Act », devrait dire Mark Zuckerberg aujourd’hui devant la Chambre. « Les principes de la Section 230 sont aussi pertinents aujourd'hui qu'ils l'étaient en 1996, mais l'Internet a radicalement changé ».

« Nous pensons que le Congrès devrait envisager de faire en sorte que la protection de la responsabilité des plateformes en tant qu'intermédiaires pour certains types de contenus illicites soit conditionnée par la capacité des entreprises à respecter les meilleures pratiques pour lutter contre la propagation de ces contenus », a-t-il écrit.

« Au lieu de se voir accorder l'immunité, les plateformes devraient être tenues de démontrer qu'elles ont mis en place des systèmes pour identifier les contenus illicites et les supprimer », a-t-il déclaré. « Les plateformes ne devraient pas être tenues pour responsables si un contenu particulier échappe à sa détection – ce serait irréalisable pour des plateformes comptant des milliards de posts par jour – mais elles devraient être tenues de mettre en place des systèmes adéquats pour traiter les contenus illicites ».

Nom : c02.png
Affichages : 1404
Taille : 117,8 Ko

Les normes pour conserver les protections de 230 pourraient être fixées par une tierce partie, poursuit Zuckerberg, et excluraient les demandes autour du chiffrement et de la vie privée « qui méritent une audition à part entière ». Cela distingue la proposition de Zuckerberg des projets de loi 230 précédemment présentés, comme la loi EARN IT, qui conditionne les protections à une porte dérobée dans le chiffrement, recherchée depuis longtemps. La proposition de Zuckerberg est plus proche du PACT Act, qui conditionne les protections à des divulgations de transparence et à d'autres mesures, mais se concentre moins sur la suppression des contenus illégaux.

De manière générale, il est inhabituel que des entreprises proposent des règles sur la manière dont elles souhaiteraient être réglementées, mais c'est moins inhabituel pour Zuckerberg, qui a déjà longuement fait des propositions sur la portabilité des données et les règles de modération du contenu.

Mais cette dernière proposition concernant l'article 230 est la plus détaillée que Zuckerberg ait encore présentée, et c'est une proposition qui nécessiterait peu de changements importants pour Facebook lui-même. Facebook dispose déjà de systèmes importants pour identifier et supprimer les contenus répréhensibles. Néanmoins, la proposition pourrait répondre à certaines des objections les plus urgentes à la Section 230, qui se concentrent souvent sur des sites plus petits entièrement dédiés à des activités malveillantes.

La question est particulièrement urgente pour des groupes tels que le National Center for Missing and Exploited Children (NCMEC), qui doit faire face à des sites Web qui n'analysent pas ou ne modèrent pas les images d'abus d'enfants. « Il y a beaucoup d'entreprises, en particulier de très grandes entreprises, qui s'engagent dans des mesures volontaires vraiment formidables », a déclaré Yiota Souras du NCMEC plus tôt cette année. « Mais il y a beaucoup d'entreprises qui ne le font pas, et il n'y a aucune obligation légale pour elles d'utiliser une sorte de détection ou de filtrage ».

« Il est facile de se concentrer sur la façon dont la Section 230 affecte les entreprises de médias sociaux, et je ne blâme pas Zuckerberg de s'y intéresser puisqu'il dirige les plus grandes d'entre elles », a écrit un commentateur. « Cependant, la Section 230 affecte bien plus que les entreprises de médias sociaux. Ses "réformes" (notons simplement que Facebook est probablement déjà en conformité avec les corrections suggérées par Zuckerberg) n'abordent même pas la manière dont les autres secteurs de l'univers en ligne seront affectés ».

« Et si, en ce qui concerne les entreprises de médias sociaux, nous modifions l'article 230 pour dire que si une plateforme utilise des algorithmes pour modifier ce qui est présenté à ses utilisateurs, cette plateforme perd la protection de l'article 230 ? Parce que si la plateforme utilise des algorithmes, alors elle n'est plus une plateforme neutre, mais est devenue un éditeur puisqu'elle décide de ce que ses utilisateurs voient réellement. Je me demande si Zuck aimerait cette idée ? », a-t-il ajouté. Et vous, qu’en pensez-vous ?

Source : Mark Zuckerberg

Et vous ?

Quel commentaire faites-vous de la déclaration d’ouverture d’audition de Mark Zuckerberg ?
Que pensez-vous de la position de Sundar Pichai et Jack Dorsey ?
Pensez-vous que ce processus aboutira à une abrogation entièrement de la Section 230 ? Quelles en seront les conséquences pour Facebook ?

Voir aussi :

Le Congrès US pourrait adopter EARN IT, le projet de loi qui met fin au chiffrement en ligne, malgré l'opposition des entreprises technologiques
Twitter construit "Birdwatch", un système pour lutter contre la désinformation en ajoutant plus de contexte aux tweets, qui pourrait mettre tout le monde à contribution
Google, Facebook et Twitter privilégient l'utilisation de l'IA pour les activités de modération et préviennent que des erreurs peuvent survenir, leurs employés étant priés de rester chez eux
L'IA de Facebook détecte 95 % des discours de haine qui sont retirés de sa plateforme, et les modérateurs de Facebook disent que l'entreprise a risqué leur vie, en les forçant à retourner au bureau