Microsoft dévoile des outils de détection de deepfakes,
Pour lutter contre les fausses nouvelles et d’autres formes de désinformation

La désinformation se présente sous de nombreuses formes, et aucune technologie ne peut à elle seule résoudre le défi consistant à aider les gens à déchiffrer ce qui est vrai et exact. Microsoft a dévoilé mardi deux nouvelles technologies permettant de repérer les "deepfakes", ou les médias synthétiques, qui sont des photos, des vidéos ou des fichiers audio manipulés par l'intelligence artificielle (IA) de manière difficilement détectable. Un nouveau logiciel analyse les photos et les vidéos afin de déterminer si le matériel est susceptible d'avoir été créé artificiellement. Un second outil permet d'ajouter des hachages et des certificats numériques à un contenu permettant aux gens de savoir qu’un contenu est authentique et qu'il n'a pas été modifié.

Les nouveaux outils de Microsoft sont une partie importante de son programme Defending Democracy de Microsoft annoncé en 2018, qui, en plus de lutter contre la désinformation, aide à protéger le vote et aide à sécuriser les campagnes et autres parties impliquées dans le processus démocratique, a déclaré Tom Burt de Microsoft dans un article de blog publié mardi. Microsoft espère que cette technologie aidera à lutter contre le fléau des fausses nouvelles et autres campagnes de désinformation.


Les deepfakes sont devenus célèbres au début de l'année 2018 après qu'un développeur ait adapté des techniques d'IA de pointe pour créer un logiciel qui échangeait le visage d'une personne contre celui d'une autre. Le processus fonctionnait en alimentant un ordinateur avec de nombreuses images fixes d'une personne et des séquences vidéo d'une autre. Le logiciel a ensuite utilisé ces images pour générer une nouvelle vidéo montrant le visage de la première personne à la place de celui de la seconde, avec des expressions correspondantes, une synchronisation des lèvres et d'autres mouvements.

Depuis lors, le processus a été simplifié et nécessite désormais moins de photos pour fonctionner, donnant ainsi à un plus grand nombre d'utilisateurs les moyens de manipuler les images. Il existe des applications qui ne nécessitent qu'un seul selfie pour permettre à un utilisateur de remplacer le visage d'une star de cinéma par le sien dans les clips de films hollywoodiens. Mais il est à craindre que le processus ne soit également utilisé de manière abusive pour créer des clips trompeurs, dans lesquels une personnalité éminente est amenée à dire ou à agir d'une manière qui n'a jamais eu lieu, dans un but politique ou autre.

Les médias sociaux sont la cible des campagnes de désinformation. Facebook a lancé en décembre dernier le Deepfake Detection Challenge, un concours avec plus de 10 millions de dollars à la clé, visant à faire avancer la recherche en matière de lutte contre les contenus manipulés. Au début de l'année, Facebook a interdit les "deepfakes" qui pourraient faire croire aux utilisateurs qu'un sujet a dit quelque chose qu'ils n'ont pas dit. Twitter et TikTok ont ensuite suivi avec des règles similaires pour étiqueter les deepfakes et d’autres contenus trompeurs.

La première des technologies nouvellement dévoilées par Microsoft pour combattre les deepfakes est Video Authenticator. L’outil peut analyser une photo ou une vidéo pour fournir un pourcentage de chance ou un score de confiance que le média soit artificiellement manipulé. Dans le cas d'une vidéo, il peut fournir ce pourcentage en temps réel sur chaque image pendant la lecture de la vidéo. Il fonctionne en essayant de détecter les signes révélateurs qu'une image a été générée artificiellement, notamment des éléments subtils de décolorations ou de pixels en niveaux de gris à la limite de l'endroit où la version créée par ordinateur du visage de la cible a été fusionnée avec celle du corps du sujet original.

Pour créer Video Authenticator, Microsoft a appliqué ses propres techniques d'apprentissage automatique à un ensemble de données publiques d'environ 1 000 séquences vidéo truquées et a ensuite testé le modèle résultant contre une base de données d'échange de visages encore plus importante créée par Facebook.

L'outil Video Authenticator donne un score de confiance à un clip

« À mesure que les capacités de détection s'amélioreront, les capacités de génération s'amélioreront également »

Une conseillère en technologie a noté que les vidéos truquées restent relativement rares pour l'instant, et que la plupart des clips manipulés impliquent des rééditions plus grossières faites par un humain, a rapporté BBC News. Malgré cela, elle a salué l'intervention de Microsoft sur le problème. « La seule utilisation vraiment répandue que nous ayons vue jusqu'à présent est la pornographie non consensuelle contre les femmes », a commenté Nina Schick, auteur du livre "Deep Fakes and the Infocalypse".

« Mais les médias synthétiques devraient devenir omniprésents dans trois à cinq ans environ, nous devons donc développer ces outils à l'avenir ». « Cependant, à mesure que les capacités de détection s'amélioreront, les capacités de génération s'amélioreront également - il ne sera jamais possible pour Microsoft de sortir un outil capable de détecter toutes sortes de manipulations de vidéo ».

Microsoft a reconnu ce défi. Toutefois, à court terme, la société a déclaré qu'elle espérait que son outil pourrait aider à identifier les failles profondes à l'approche des élections américaines de novembre. Aussi, plutôt que de rendre publique sa technologie, Microsoft ne la propose que par l'intermédiaire d'une organisation tierce, qui le fournira à son tour gratuitement aux éditeurs de presse et aux campagnes politiques. À travers son association avec l'initiative Reality Defender 2020 (RD2020) de AI Fondation, la société tentera d’empêcher les mauvais acteurs de s'emparer du code de l’outil et de l'utiliser pour apprendre à leurs générateurs de deepfakes comment s'y soustraire.

Pour relever le défi à plus long terme, Microsoft s'est associé à un consortium de sociétés de médias, dont la BBC, la CBC/Radio-Canada et le New York Times, pour soutenir Project Origin, une initiative visant à "marquer" les contenus en ligne de manière à permettre de repérer toute manipulation du matériel. La seconde technologie baptisée Azure Hash and Certificate peut à la fois détecter les contenus manipulés et assurer aux gens que le média qu'ils regardent est authentique, d’après la société.

Elle a deux composantes, selon l’article de Microsoft. Le premier est un outil intégré à Microsoft Azure qui permet à un producteur de contenu d'ajouter des hachages et des certificats numériques à un contenu. Les hachages et les certificats sont intégrés au contenu sous forme de métadonnées, quel que soit le lieu où il se trouve en ligne. Le second est un lecteur - qui peut exister sous la forme d'une extension de navigateur ou sous d'autres formes - qui vérifie les certificats et les correspondances des hachages, permettant aux gens de savoir avec un degré élevé de précision que le contenu est authentique et qu'il n'a pas été modifié, et qui fournit des détails sur l'identité du producteur, lit-on.

Autres initiatives de Microsoft pour lutter contre les fausses nouvelles

Microsoft a déclaré que ces nouveaux travaux sont aussi censés l’aider à éduquer le public sur le problème de la désinformation et à faire progresser rapidement ces technologies et les efforts éducatifs. Alors que les élections présidentielles américaines sont pour bientôt, Microsoft a lancé un quiz interactif pour les électeurs américains afin d'en savoir plus sur les médias synthétiques, de développer une culture médiatique critique et de faire prendre conscience de l'impact des médias synthétiques sur la démocratie.

Le quiz "Spot the Deepfake" est un outil d'éducation aux médias sous la forme d'une expérience interactive développée en partenariat avec le UW Center for an Informed Public, Sensity et USA Today. Le quiz sera diffusé sur le Web et dans les médias sociaux appartenant à USA Today, Microsoft et l'Université de Washington, ainsi que par le biais de publicités dans les médias sociaux.


Microsoft s’associe également à une campagne de messages d'intérêt public encourageant les gens à faire une "Reflective pause" et à vérifier que les informations proviennent d'un organisme de presse réputé avant de les partager ou de les promouvoir sur les médias sociaux en prévision des prochaines élections américaines. Selon Microsoft, la campagne aidera les gens à mieux comprendre le tort que la désinformation fait à la démocratie et l'importance de prendre le temps d'identifier, de partager et de consommer des informations fiables.

Video Authenticator ne sera pas offert au public, mais plutôt aux organisations impliquées dans le processus démocratique. Espérons que certaines vidéos embarrassantes en ligne ne seront pas automatiquement qualifiées de fausses et retirées en prétendant que l'outil a fourni cette information.

Source : Microsoft

Et vous ?

Que pensez-vous des nouvelles initiatives de Microsoft ?
Pensez-vous que les nouveaux outils de Microsoft empêcheront cette année les vagues de désinformations observées lors des précédentes élections ?
Que pensez-vous de l’outil Azure Hash and Certificate pour combattre les deepfakes à long terme ?

Voir aussi :

À l'approche de la présidentielle américaine, Facebook interdit la plupart des deepfake de sa plateforme, mais les politiciens trouvent cette mesure très légère face à la désinformation en ligne
Facebook lance le Deepfake Detection Challenge, un concours avec plus de 10 millions de dollars à la clé, visant à faire avancer la recherche en matière de lutte contre les contenus manipulés
Twitter va commencer à étiqueter les deepfakes ainsi que d'autres contenus trompeurs avant l'élection présidentielle de 2020 aux USA, et supprimera ceux susceptibles de causer de graves dommages
Un sénateur propose un projet de loi prohibant l'utilisation de la technologie deepfake, si elle venait à servir des buts frauduleux