IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L’IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut L’IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges
    L’IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges,
    selon une étude

    Depuis que l’IA a commencé à s’imposer très fortement comme une technologie pouvant améliorer la génération d’images et de vidéo, les deepfakes se sont multipliés avec une vitesse sans précédent sur Internet. Les méthodes existantes de génération de deepfakes sont incroyablement sophistiquées et permettent déjà de créer de fausses vidéos difficilement identifiables en tant que telles. Mais, cela est également devenu un problème à bien des égards, en ce sens que n’importe qui peut rassembler quelques images d’une personne par exemple, les manipuler, puis les animer dans un contexte qui serait nuisible à cette dernière.

    Les avancées très prometteuses de l’IA ont rendu fiables les techniques de génération de deepfake. Un deepfake (permutation intelligente de visages), rappelons-le, est une technique de synthèse d'images basée sur l'intelligence artificielle. Elle sert principalement à superposer des images et des vidéos existantes sur d'autres images et/ou vidéos (par exemple : le changement de visage d'une personne sur une vidéo). Le terme est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux »). Les deepfakes sont surtout connus pour avoir été utilisés afin de créer de fausses vidéos érotiques (sextapes), mettant en scène des célébrités, et de la pornodivulgation (revenge porn). Cette technique peut être utilisée pour créer des infox (fake news) et des canulars malveillants.

    En à peine deux ans, les techniques de génération de deepfakes se sont non seulement amélioré très dangereusement, mais également, elles se sont multipliées avec une grande vitesse. En mai de cette année, les chercheurs ont présenté une IA qui rend facile la création de deepfakes à partir d'une seule image avec des résultats dangereusement réalistes. Ils ont en effet mis au point un moyen de créer des deepfakes ou « portraits vivants » à partir d'un très petit ensemble de données, une seule photographie suffit dans certains cas. Même à ce stade, les méthodes de génération des deepfakes font actuellement l'objet de recherches pour ces dernières encore plus efficaces.


    L’une des préoccupations majeures sur la technologie aujourd’hui est qu'elle soit utilisée contre des personnes pour les représenter dans des situations auxquelles elles s'opposeraient, par exemple dans des vidéos pornographiques. Précisons en effet que c'était le but original de cette technologie : elle peut être utilisée dans l’industrie porno, où des visages peuvent être supposés à d’autres. Mais, malgré les nombreuses craintes que les deepfakes soient utilisés à des fins malveillantes, les recherches pour rendre cette technologie plus puissante se multiplient. Pour les législateurs US, les deepfakes représentent aussi un danger politique réel. D’ailleurs, Donald Trump lui-même été mis en scène dans une telle vidéo en janvier dernier sur une chaîne de télévision nationale du pays.

    La propagation de la désinformation par le biais d'images et de vidéos synthétiques, mais réalistes, est devenue un problème majeur qui appelle de nouvelles méthodes de détection des manipulations, a fait savoir un groupe de chercheurs qui a publié récemment une IA capable de détecter les deepfakes. Jusque-là, on ne connaissait pas vraiment un outil capable de réaliser une telle détection, mais selon les résultats de l’étude qu’ils ont publiés, il semblerait que les machines d’IA peuvent désormais rechercher des incohérences visuelles pour identifier les dupes générées par l'IA, un peu comme le font les humains. Leur IA permet de rechercher les incohérences visuelles similaires à celles de l'homme afin de détecter les fausses vidéos générées par l'IA.

    Tout d’abord, les modèles convolutifs récurrents sont une classe de modèles d'apprentissage en profondeur qui se sont révélés efficaces pour exploiter les informations temporelles provenant de flux d'images, dans plusieurs domaines. Ainsi, expliquent les chercheurs, cela permet d’obtenir la meilleure stratégie pour combiner les variations de ces modèles ainsi que les techniques de prétraitement des visages spécifiques à un domaine, par le biais d'expérimentations approfondies visant à obtenir des performances de pointe sur des tests de manipulation faciale vidéo accessibles au public. Plus précisément, ils ont essayé de détecter les visages altérés Deepfake, Face2Face et FaceSwap dans les flux vidéo.

    Leur approche pour parvenir à détecter les diverses manipulations de photos ou vidéos est un processus en deux étapes : rognage et alignement des visages à partir d’images vidéo, suivi de la détection de manipulation sur la région faciale prétraitée. Pour le premier cas, ils ont expérimenté deux techniques d’alignement : un alignement explicite à l’aide de repères faciaux, dans lequel un système de coordonnées de référence et l’étanchéité du contour du visage sont déterminés à priori et où tous les visages sont alignés sur ce système de coordonnées de référence de sorte que tout mouvement rigide du visage est compensé, et un second alignement implicite utilisant un réseau de transformateurs spatiaux (STN) basé sur une transformation affine.

    Pour la détection des manipulations, ils ont utilisé un réseau convolutionnel récurrent, où l'entrée est une séquence d'images de la requête vidéo. L'intuition derrière ce modèle est d'exploiter les différences temporelles entre les cadres. Des différences temporelles sont attendues dans les images, car les manipulations sont effectuées image par image. En tant que tels, les artefacts de bas niveau provoqués par des manipulations sur les faces sont censés se manifester davantage sous forme d'artefacts temporels avec des caractéristiques incohérentes dans les images. Selon le document, cette approche a permis d'identifier les deepfakes avec une précision de plus de 90 %.

    Wael AbdAlmageed, un coauteur de l’étude, a affirmé que ce modèle pourrait être utilisé par un réseau social pour identifier les deepfakes à grande échelle, car il ne dépend pas de l'apprentissage des principales caractéristiques d'un individu spécifique, mais plutôt des qualités du mouvement en général. Il a expliqué que le modèle qu'ils ont mis au point constitue une généralité pour toutes les personnes puisque celui-ci ne se concentre pas sur l'identité d’une personne spécifique, mais plutôt sur la cohérence du mouvement du visage.

    « Les réseaux sociaux ne doivent pas former de nouveaux modèles, car nous publierons notre propre modèle. Ce que les réseaux sociaux pourraient faire, c'est simplement inclure le logiciel de détection dans leurs plateformes pour examiner les vidéos téléchargées sur ces plateformes », a-t-il lancé à l’endroit des sites de médias sociaux. Même si les chercheurs estiment que leur méthode est d’une précision de l’ordre de 90 %, dans la communauté, certains restent néanmoins sceptiques. Ces derniers doutent de l’efficacité de la méthode utilisée par les chercheurs pour obtenir leur résultat.

    Les deepfakes sont en même temps perçus comme une avancée majeure dans les potentialités de l’IA, mais ils deviennent également source de multiples interrogations au sein des gouvernements. La désinformation est plus que jamais un défi et, associée à l'avenir aux deepfakes, l’Internet pourrait bien devenir calamité, craignent certains scientifiques. Aux USA, le Congrès a commencé à s’inquiéter sur la question et a récemment ouvert une enquête sur les deepfakes après qu’une fausse vidéo de Nancy Pelosi, la présidente de la chambre des représentants a été visionnée des millions de fois sur les médias sociaux.

    Source : Rapport de l’étude

    Et vous ?

    Que pensez-vous des méthodes employées par cette étude ?
    Cela vous paraît-il convainquant pour la détection des deepfakes ?
    Connaissez-vous d'autres alternatives pour détecter les deepfakes ?

    Voir aussi

    Des chercheurs créent une IA qui rend facile la création de deepfakes à partir d'une seule image et les résultats sont dangereusement réalistes

    Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo et faire dire au sujet ce que vous voulez

    Une vidéo deepfake de Donald Trump diffusée sur une chaîne de TV nationale ? L'employé responsable a été licencié

    Le Congrès américain va enquêter sur les deepfakes, alors qu'une fausse vidéo de Pelosi a été visionnée des millions de fois sur les médias sociaux
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé

    Homme Profil pro
    Consultant ERP
    Inscrit en
    Janvier 2013
    Messages
    372
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant ERP
    Secteur : Conseil

    Informations forums :
    Inscription : Janvier 2013
    Messages : 372
    Points : 1 202
    Points
    1 202
    Par défaut
    Oui enfin "ya qu'à "faire un réseau neuronal pro-deepfake dont l'objectif est de battre l'anti-deepfake et cette histoire n'a pas de fin?
    C'est le principe des DCGAN.

Discussions similaires

  1. Réponses: 27
    Dernier message: 23/08/2018, 13h25
  2. Le graphène peut désormais avoir les mêmes propriétés que le silicium
    Par Christian Olivier dans le forum Actualités
    Réponses: 19
    Dernier message: 12/06/2018, 19h25
  3. Réponses: 10
    Dernier message: 07/07/2015, 18h12
  4. Réponses: 4
    Dernier message: 15/03/2010, 10h30
  5. Réponses: 4
    Dernier message: 15/03/2010, 10h30

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo