IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Des chercheurs ont mis au point un nouvel algorithme pour détecter les deepfakes


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut Des chercheurs ont mis au point un nouvel algorithme pour détecter les deepfakes
    Des chercheurs ont mis au point un algorithme pour détecter les deepfakes
    en divisant l'image en de petites zones pour les examiner pixel par pixel

    Un deepfake est une technique de synthèse d'images basée sur l'intelligence artificielle. Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. Le défi réside dans le fait que pour l’œil humain, il n’est pas évident que l’image a été manipulée. Les techniques de deepfake se développent très rapidement et deviennent de plus en plus performantes. Les techniques de deepfakes sont arrivées à supplanter certains algorithmes qui, autrefois, permettaient de les détecter. Dans ce sens, plusieurs scientifiques classent les deepfakes comme une menace pour l’espace Web. Par exemple, dans des situations en évolution rapide, telles qu'une crise humanitaire, le lancement d'un produit par une entreprise ou une campagne électorale, des vidéos et des images totalement fausses pourraient modifier le déroulement des événements et créer la désinformation.

    Les chercheurs exploitent depuis l’apparition des deepfakes diverses solutions pour contrecarrer ces derniers, mais la plupart d’entre elles se retrouvent rapidement dépassées par l’évolution très accélérée des techniques de deepfake. Cette semaine, des chercheurs de l’université de Californie à Riverside ont présenté un nouvel algorithme de détection des images deepfakes. Les tests initiaux de l'algorithme ont sélectionné des images à partir d'images non restituées jusqu'au niveau de pixel individuel avec une précision comprise entre 71 et 95 %, en fonction du jeu de données exemple utilisé.

    L'algorithme repose dans un premier temps sur une variété de « réseau de neurones récurrents » qui divise l'image en question en de petites zones et les examine pixel par pixel. Le réseau de neurones a été formé en lui permettant d’examiner des milliers d’images. Il a donc appris certaines des qualités qui permettent aux faux de se démarquer au niveau des pixels uniques. Selon Amit Roy-Chowdhury, professeur de génie électrique et informatique à l'Université de Californie à Riverside et coauteur de l’algorithme de détection, les limites autour de la partie falsifiée d'une image sont souvent ce qui contient des signes révélateurs de manipulation.

    Nom : z1.png
Affichages : 2536
Taille : 262,0 Ko

    « Si un objet est inséré, ce sont souvent les régions limites qui ont certaines caractéristiques. Donc, la personne qui altère l'image essaiera probablement de le faire pour que la frontière soit très lisse. Nous avons découvert que les images altérées étaient souvent plus lisses que dans les images naturelles. Parce que la personne qui l'a manipulé s'est pliée en quatre pour que tout se passe bien », a-t-il fait comprendre. Ainsi donc, l’algorithme de détection de deepfake qu'Amit Roy-Chowdhury et ses collaborateurs ont mis au point s'appuie dans un premier temps sur cette faiblesse que contiennent les images falsifiées.

    Une seconde caractéristique de l’algorithme est qu’il possède une partie qui est située sur une piste parallèle à la partie qui ne regarde que les pixels. Cette partie passe l’ensemble de l’image à travers une série de filtres d’encodage, presque comme si vous effectuez une compression d’image lorsque vous cliquez sur la case « Compresser l’image » lors de l'enregistrement d'un fichier TIFF ou JPEG. Ces filtres, dans un sens mathématique, permettent à l’algorithme de considérer l’image entière à des niveaux plus grands et plus holistiques. Par la suite, l'algorithme compare la sortie des analyses de filtres de codage pixel par pixel.

    En conclusion, lorsque ces analyses parallèles déclenchent des drapeaux rouges sur la même région d'une image, celle-ci est alors considérée comme un possible deepfake. Selon Amit Roy-Chowdhury, les deepfakes ne sont en réalité qu'une nouvelle frontière en matière de cybersécurité. Et la cybersécurité est une course aux armements perpétuelle avec des méchants et des gentils progressant chacun par paliers. Pour l’universitaire, de tels algorithmes de détection pourraient constituer un outil puissant pour lutter contre cette nouvelle menace de l'ère des médias sociaux.

    Néanmoins, avertit-il, les gens doivent également faire attention à ne pas devenir excessivement dépendants de ces algorithmes. Un algorithme de détection trop fiable qui peut être trompé pourrait être transformé en arme par ceux qui cherchent à répandre de fausses informations. Selon Amit Roy-Chowdhury, un deepfake conçu pour exploiter les faiblesses particulières d'un algorithme de confiance (de détection) pourrait effectivement avoir pour effet de le bénir avec un certificat d'authenticité dans l'esprit des experts, des journalistes et du public, le rendant encore plus dommageable.

    « Je pense que nous devons faire attention à tout ce qui a trait à l'IA et à l'apprentissage automatique », a déclaré Amit Roy-Chowdhury. « Nous devons comprendre que les résultats de ces systèmes sont probabilistes. Et très souvent, les probabilités ne sont pas comprises entre 0,98 et 0,99. Ils sont beaucoup plus bas que ça. Nous ne devrions pas les accepter avec une foi aveugle. Ce sont des problèmes difficiles », a-t-il ajouté. Pour l’instant, l'algorithme n'a pas encore été étendu pour inclure la détection de vidéos deepfakes.

    Source : Rapport de l’étude (PDF)

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo et faire dire au sujet ce que vous voulez

    Des chercheurs créent une IA qui rend facile la création de deepfakes à partir d'une seule image et les résultats sont dangereusement réalistes

    Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre

    Un sénateur propose un projet de loi prohibant l'utilisation de la technologie deepfake si elle venait à servir des buts frauduleux

    Le Congrès américain va enquêter sur les deepfakes, alors qu'une fausse vidéo de Pelosi a été visionnée des millions de fois sur les médias sociaux
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre expérimenté
    Homme Profil pro
    Développeur Java
    Inscrit en
    Mai 2019
    Messages
    478
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Moselle (Lorraine)

    Informations professionnelles :
    Activité : Développeur Java

    Informations forums :
    Inscription : Mai 2019
    Messages : 478
    Points : 1 369
    Points
    1 369
    Par défaut
    Mais de base dans DF ya pas un module qui fait justement ça ? Un qui essaye de convaincre, l'autre qui essaye de duper ?

  3. #3
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 443
    Points
    2 443
    Par défaut
    @L33tige
    Pour les GAN si je dis pas de bêtises c'est effectivement le cas, mais comme les deux réseaux de neurones convergent... à la fin l'adversaire reconnaîtra une image générée comme parfaite ou presque.
    Puis chaque GAN à sa spécialité et donc aura un réseau adversaire spécifique aux images qu'il génère, je ne pense pas que ce soit une solution viable pour ces deux raisons.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  4. #4
    Inactif  

    Homme Profil pro
    Écrivain public, Économiste et Programmeur Free Pascal
    Inscrit en
    Août 2005
    Messages
    350
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Écrivain public, Économiste et Programmeur Free Pascal
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Août 2005
    Messages : 350
    Points : 948
    Points
    948
    Billets dans le blog
    40
    Par défaut IA
    L'IA publique pour vérifier l'IA privée.
    Cherchez l'erreur monétaire.

    Il s'agit donc d'aller chacun vers la réflexion scientifique définie par Platon.

  5. #5
    Membre émérite Avatar de Cpt Anderson
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2005
    Messages
    624
    Détails du profil
    Informations personnelles :
    Âge : 49
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2005
    Messages : 624
    Points : 2 477
    Points
    2 477
    Par défaut
    Castaner & Edouard Philippe n'ont qu'à bien se tenir !
    Voici la méthode de mon chef:

    copy (DateTimeToStr(Now),7,4)+
    copy (DateTimeToStr(Now),4,2)+copy (DateTimeToStr(Now),1,2)+copy (DateTimeToStr(Now),12,2)+
    copy (DateTimeToStr(Now),15,2)+copy (DateTimeToStr(Now),18,2)

    Je lui ai dit que FormatDateTime irait surement mieux


Discussions similaires

  1. Réponses: 46
    Dernier message: 13/09/2019, 20h16
  2. Réponses: 4
    Dernier message: 19/06/2018, 10h34
  3. Réponses: 30
    Dernier message: 08/05/2018, 07h53
  4. Des chercheurs du MIT mettent au point un algorithme pour détecter les erreurs du type débordements d'entier
    Par Stéphane le calme dans le forum Algorithmes et structures de données
    Réponses: 5
    Dernier message: 01/04/2015, 13h11
  5. Réponses: 8
    Dernier message: 25/01/2011, 09h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo