Une campagne de propagande pro-Chine sur les médias sociaux a utilisé de faux "followers" créés à partir d'images générées par l’IA,
Pour dénigrer les autorités américaines, selon un rapport
Alors que les tensions entre la Chine et les États-Unis s’intensifient, une campagne de propagande pro-Chine sur les médias sociaux a créé de faux "followers" qui ont commencé à publier des vidéos en anglais, attaquant la politique américaine et l'administration du président Donald Trump, selon un rapport d’enquête publié par la société d’analyse de réseau Graphika. Les images de personnes utilisées pour les comptes sont apparemment réelles, mais la société a découvert qu’elles ont été générées par l’intelligence artificielle. Les comptes liés au groupe de propagande ont été supprimés des médias sociaux depuis lors.
Depuis le mois de juin, la campagne que Graphika a baptisée "Spamouflage Dragon" a publié sur Facebook, Twitter et YouTube des vidéos en anglais critiquant l'administration Trump, selon Graphika, qui suit les activités du groupe. Comme toute autre activité de propagande, le groupe pro-Chine utilise de faux comptes pour partager et poster des commentaires sur des contenus afin de l'aider à obtenir une plus large diffusion. Mais, les vidéos semblent n'avoir pas reçu un engagement de la part des véritables utilisateurs de médias sociaux, à cause de plusieurs irrégularités basées non seulement sur les textes, mais aussi sur les photos de profils des comptes, d’après le rapport.
En effet, à première vue, les photos de profil semblent légitimes. Mais Graphika a décelé d'étranges points communs dans les images, tels que les arrière-plans flous et la correspondance entre les positions des yeux sur les photos de profil. La société a conclu que les photos étaient probablement le produit d'un "réseau adverse génératif" ou "generative adversarial network" (GAN), une technologie d'apprentissage automatique non supervisé capable de créer des visages humains apparemment réels, mais en réalité faux.
Les GAN peuvent générer un visage synthétique en étudiant des images existantes de personnes réelles, et en apprenant à recréer les traits du visage dans une nouvelle image. Cependant, les résultats ne sont pas toujours parfaits. Le programme d'IA a souvent du mal à rendre correctement les boucles d'oreilles et autres objets autour du visage de la fausse personne, d’après Graphika. Les arrière-plans sont également vagues. Bien que la technologie fait craindre que de mauvais acteurs exploitent les médias créés par l'IA pour les aider à diffuser des informations erronées sur les médias sociaux, la technologie de recherche d'image inversée, par exemple, peut souvent révéler si la photo de profil d'un utilisateur est légitime ou si elle a été réadaptée à partir d'une photo originale.
La campagne de propagande s'est déroulée de juin à début août, avec la mise en ligne de vidéos critiquant l'interdiction de TikTok par le président Trump et son approche de covid-19. Selon le rapport d’enquête, les vidéos étaient maladroitement réalisées, marquées par des erreurs de langue et de faux commentaires automatisés. Les transcriptions du texte à la voix assistées par ordinateur étaient si mauvaises que certaines vidéos prononçaient "U.S." (États-Unis) comme "us" (nous), selon Graphika. Dans certaines vidéos, des mots apparaissent à l'écran en anglais et en chinois. Une des vidéos montre également des images de Joe Biden, candidat démocrate à la présidentielle, et prédit que Trump perdra en novembre, d’après le rapport.
Les vidéos et le contenu associé apparus sur YouTube, Twitter et Facebook ont tous été supprimés et les médias sociaux ont fermé les faux comptes affiliés au réseau. Et bien que les messages fassent régulièrement écho à la propagande officielle du gouvernement chinois, Graphika n'a pas pu déterminer quelle relation, le cas échéant, le réseau avait avec le gouvernement chinois. Il n'est pas non plus clair si le public visé était chinois, américain ou une combinaison des deux.
Malgré la portée limitée des vidéos, les chercheurs ont été frappés par la capacité du groupe à réagir rapidement
Selon Graphika, plusieurs de ces vidéos ont été visionnées moins de 100 fois. Cependant, les chercheurs ont été frappés par leur fréquence et leur capacité à réagir rapidement aux événements. Lorsque le président Trump a ordonné la fermeture du consulat chinois à Houston le mois dernier, le réseau a réagi en diffusant trois vidéos sur plusieurs jours, remettant en question la justification américaine de cette mesure et justifiant d'éventuelles contre-mesures chinoises, d’après le rapport.
« Ce réseau est rapide sur le dessin », a déclaré Ben Nimmo, directeur des enquêtes pour Graphika. « Cela signifie qu'ils doivent suivre de près l'évolution de la politique des États-Unis à l'égard de la Chine et s'efforcer de réagir en suivant de près le même cycle d'information. ... C'est pourquoi il est important de continuer à le perturber et à l'exposer, afin qu'elle ne puisse pas se constituer une véritable audience ». « Ces vidéos visaient des sujets politiques conflictuels existants et des événements réels aux États-Unis, commentant l'injustice raciale ou la manière dont l'administration Trump a traité le covid-19 », a déclaré Camille François, directeur de l'innovation chez Graphika.
Cependant, des commentateurs ont relevé le fait que la génération de ces fausses images n’est plus aussi difficile aujourd’hui qu’auparavant. Certains ont également relevé la mauvaise qualité des images créées par le groupe. Cependant, certains craignent que les personnes créées par cette technologie n’existent réellement quelque part.
Selon Graphika, les campagnes de désinformation à caractère politique de Spamouflage Dragon semblent avoir commencé à l'été 2019. Elle a commencé en Chine en attaquant les manifestants de Hong Kong et le milliardaire chinois en exil Guo Wengui, un critique fréquent du Parti communiste chinois (PCC). Début 2020, le groupe a commencé à commenter la pandémie de coronavirus, louant la réponse du PCC à un moment où celui-ci était accusé de dissimuler l'épidémie.
Les services de renseignements américains ont averti la semaine dernière, selon NPR, que des gouvernements étrangers - dont la Chine, la Russie et l'Iran - tenteront d'influencer l'opinion publique américaine afin de peser sur la prochaine élection présidentielle, même si, dans cette campagne, aucun lien n’est trouvé entre le groupe et le gouvernement chinois.
« La Chine a étendu ses efforts d'influence avant novembre 2020 pour façonner l'environnement politique aux États-Unis, faire pression sur les personnalités politiques qu'elle considère comme opposées aux intérêts de la Chine et détourner et contrer les critiques à son égard », a déclaré William Evanina, le plus haut responsable des services de renseignement chargé de superviser la sécurité des élections. A cet égard, le gouvernement et Spamouflage Dragon semblent poursuivre des objectifs similaires.
Graphika a également mis en garde : « Étant donné la facilité avec laquelle les acteurs de la menace peuvent désormais utiliser des services accessibles au public pour générer de fausses photos de profil, cette tactique risque de devenir de plus en plus répandue ».
Les sociétés de médias sociaux ont pris des mesures à plusieurs reprises contre les groupes pro-Chine. YouTube a rapporté en début août avoir mis fin à plus de 1 300 chaînes en juin pour leur implication dans des « opérations d'influence coordonnées liées à la Chine ». Twitter et Facebook ont également supprimé des comptes affiliés à Spamouflage Dragon, selon le Washington Post.
Source : Graphika
Et vous ?
Que pensez-vous cette campagne de propagande basée sur de faux comptes ?
Est-il possible que ces genres de campagnes incluent de vraies images de personnes avec les fausses ?
Y a-t-il à craindre que les élections américaines de novembre soient perturbées par de telles campagnes ?
Voir aussi :
Une vidéo deepfake de Donald Trump diffusée sur une chaine de TV nationale ? L'employé responsable a été licencié
Deepfake : les vidéos manipulées et parfaitement réelles, pourront être créées par n'importe qui d'ici 6 à 12 mois, d'après Hao Li, un pionnier de cette technologie
Un sénateur propose un projet de loi prohibant l'utilisation de la technologie deepfake, si elle venait à servir des buts frauduleux
Avatarify, un deepfake qui échange en temps réel votre visage avec celui d'une célébrité, pendant les appels vidéo sur Zoom et Skype
Partager