Sensity dévoile un outil de détection de deepfakes qui combine l'apprentissage profond et l'intelligence automatisée,
pour repérer si une image est créée pour être manipulées ou pas

Avec l’évolution des réseaux sociaux et le développement du numérique dans le monde, le phénomène de "fake news" a connu une évolution exponentielle. Pour mieux convaincre leurs cibles, les auteurs de ces "fake news" vont accompagner leurs documents de deepfakes (fausses vidéos ou fausses images) qui peuvent faire croire que l’information est réelle.

Alors que la génération de faux visages et le montage de fausses vidéos prolifèrent, des compagnies travaillent pour fournir des outils capables de détecter quand une image est fausse ou non. Après Microsoft en septembre 2020, c’est autour de Sensity d‘annoncer la mise sur pied d’un outil pour détecter et indiquer quand une image est fausse ou non.

Notons que Sensity est une entreprise fondée fin 2018 et spécialisée dans le renseignement sur les menaces visuelles au monde. Elle est constituée d’une équipe de chercheurs en apprentissage automatique et de spécialistes du renseignement sur les menaces.

Les visages générés par le réseau d'opposition générale (GAN) inondent le web et sont utilisés de plus en plus sur les réseaux sociaux et les plateformes de rencontre. La qualité des visages générés par le GAN étant capable d‘induire en erreur tout internaute moins avisé, un nombre croissant de cybercriminels exploitent leur potentiel sur les sites de rencontres, de promotion de produits contrefaits pour dissimuler leur identité.

Nom : Face IAB.png
Affichages : 478
Taille : 167,4 Ko

Pour faire face à cette croissance incroyable de deepfakes, Sensity a développé une plateforme de détection qui utilise une combinaison d'apprentissage profond et l'intelligence automatisée sur les menaces. La plateforme est capable de surveiller plus de 500 sources où la probabilité de trouver de fausses vidéos ou images est élevée. La plateforme de Sensity s’utilise en ligne, en téléchargeant des fichiers pour obtenir une analyse en temps réel, ou en collant l'URL d'une vidéo pour vérifier sa présence dans la base de données.

L'outil a été conçu de telle sorte que, en s'aidant des réseaux d'opposition générale (GAN), ses algorithmes permettent de repérer si une personne a créé l'image avec l'intention de la manipuler. La détection des contrefaçons se fait également grâce à la combinaison d'un apprentissage plus approfondi et de techniques d'analyse visuelle, comme l'explique Giorgio Patrini, PDG et co-fondateur de Sensity. Selon lui, les ingénieurs forment d'abord les faux détecteurs en introduisant des centaines et des milliers de fausses vidéos et d'images générées par le GAN.

Pour la recherche et le développement, les ingénieurs de Sensity ont également conçu le matériel de formation afin de former les algorithmes de manière à ce qu'ils puissent relever des défis plus importants. Selon Sensity, le nombre de fausses vidéos en ligne augmente de manière exponentielle depuis 2018, doublant environ tous les deux mois. L’entreprise dit avoir détecté 85 047 fausses vidéos en décembre 2020.

Nom : DeepfAKE VIDEOB.png
Affichages : 443
Taille : 17,3 Ko

Dans l'exemple ci-dessous, un journaliste a confirmé que les utilisateurs de Twitter essayant de délégitimer les manifestations russes pro-Navalny utilisaient effectivement des images générées par le GAN. Le détecteur Sensity a indiqué que ces images étaient générées par le GAN avec un niveau de confiance de 99 %.

Nom : reutersB.png
Affichages : 438
Taille : 159,2 Ko

Plus tôt en septembre 2020, Microsoft avait annoncé la disponibilité de Microsoft Vidéo Authenticator, un outil développé pour permettre de repérer les deepfakes. Le logiciel dévoilé par Microsoft analyse les photos et les vidéos et donne un score de confiance sur la probabilité que le fichier ait été créé artificiellement ou non.

Microsoft déclare : « Microsoft Vidéo Authenticator peut analyser une photo ou une vidéo pour fournir un pourcentage indiquant si le fichier est manipulé artificiellement ou non. Dans le cas d'une vidéo, il peut fournir ce pourcentage en temps réel sur chaque image pendant la lecture de la vidéo. Il fonctionne en détectant la limite de mélange de la photo et des éléments subtils de décoloration ou de niveaux de gris qui pourraient ne pas être détectables par l'œil humain ».

Un expert en technologie a déclaré que ces outils risquent de devenir rapidement obsolète en raison du rythme auquel la technologie Deepfake progresse. Par ailleurs, un autre conseiller en technologie a fait remarquer que les vidéos truquées restent relativement rares pour l'instant, et que la plupart des clips manipulés impliquent des rééditions plus grossières faites à la main. Malgré cela, elle a salué le travail de Microsoft.

« La seule utilisation vraiment répandue que nous ayons vue jusqu'à présent concerne la pornographie non consensuelle contre les femmes », a commenté Nina Schick, auteur du livre "Deep Fakes and the Infocalypse". « Cependant, à mesure que les capacités de détection s'amélioreront, les capacités de génération s'amélioreront également. Il ne sera jamais possible pour Microsoft de sortir un outil capable de détecter tous types de manipulations vidéo », a-t-elle ajouté.

Pour aider les internautes à combattre la désinformation, Microsoft a également annoncé un système distinct qui permettra aux producteurs de contenu d’ajouter un code caché à leurs séquences afin que tout changement ultérieur puisse être facilement repéré.

Sources : Sensity

Et vous ?

Que pensez-vous de cet outil de Sensity ?

Voir aussi

Twitter va commencer à étiqueter les deepfakes ainsi que d'autres contenus trompeurs avant l'élection présidentielle de 2020 aux USA, et supprimera ceux susceptibles de causer de graves dommages

Microsoft dévoile des outils de détection de deepfakes, pour lutter contre les fausses nouvelles et d'autres formes de désinformation

Des deepfakes à la surveillance de masse, voici les 11 dangers liés à l'utilisation de l'intelligence artificielle, selon Devathon

Des deepfakes mettant en scène Vladimir Poutine et Kim Jong-un sont utilisés dans une campagne publicitaire politique, non pas pour perturber les élections, « mais protéger le droit de vote »