Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Consultant informatique
    Inscrit en
    avril 2018
    Messages
    218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : avril 2018
    Messages : 218
    Points : 7 858
    Points
    7 858

    Par défaut Des chercheurs sortent avec encore une autre nouvelle méthode inédite de deepfake

    Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs
    Permettant de transférer le style d’une personne à une autre

    Les méthodes de deepfakes deviennent incroyablement sophistiquées et permettent déjà de créer des fausses vidéos difficilement identifiables en tant que telles. Un deepfake est une technique de synthèse d'images basée sur l'intelligence artificielle. Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. La technologie est en développement et des chercheurs continuent d’améliorer les méthodes qui contribueront certainement à révolutionner certains secteurs d’activité mais qui ne manqueront, peut-être, pas de se retrouver, comme une arme, entre les mains des personnes malveillantes.

    Nom : U011.png
Affichages : 2537
Taille : 276,2 Ko

    La toute dernière méthode a été mise au point par des chercheurs de l’Université Carnegie Mellon, qui ont trouvé un moyen de transférer automatiquement le style d’une personne à une autre. Dans une vidéo Youtube, les chercheurs exposent les résultats obtenus à l’aide de leur méthode. « Par exemple, le style de Barack Obama peut être transformé en Donald Trump », ont-ils écrit dans la description de la vidéo.

    La mauvaise utilisation de cette méthode pourrait la transformer en véritable source de problème sur Internet. C’est, d’ailleurs, pour limiter des éventuels dégâts que causeraient ces méthodes ainsi que bien d’autres techniques que l’administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet à l’image du RGPD en Europe.

    Vidéo mettant en évidence les résultats de la nouvelle méthode


    Les résultats de la nouvelle méthode exposés dans la vidéo montrent que les expressions faciales de John Oliver dans la vidéo originale sont transférées chez Stephen Colbert et ensuite chez la grenouille animée dans la vidéo deepfake. De même, les expressions faciales chez de Martin Luther King dans la vidéo originale sont transférées à Obama dans la vidéo deepfake. Les vidéos obtenues avec leur méthode sont très convaincantes, selon Gizmodo.

    Dans un article publié, les chercheurs expliquent le processus en tant qu’une approche d’apprentissage non supervisé basée, bien évidemment, sur l’intelligence artificielle comme les précédentes méthodes de développement de deepfakes.

    La méthode ne traite pas seulement que du transfert du style de parole et des mouvements du visage des humains, elle s’étend aux autres paysages de la nature comme dans les exemples de la vidéo où la méthode s’applique à des fleurs épanouies, aux levers et aux couchers de soleil, aux nuages et au vent.

    En ce qui concerne le transfert de style de personne à personne dans les exemples de la vidéo, les chercheurs énumèrent « la fossette de John Oliver en souriant, la forme de la bouche caractéristique de Donald Trump et les lignes faciales des lèvres et le sourire de Stephen Colbert. », comme des exemples de styles transférés des vidéos originales aux vidéos deepfakes. Pour démontrer l’authenticité de la méthode, les chercheurs ont utilisées des vidéos populaires à la disposition du grand public.

    La méthode peut paraitre bien sympathique et utile à plusieurs fins telles que dans le cas de l’application au développement des animations anthropomorphes réalistes. Pourvu qu’elle ne soit pas mise au service de la propagande politique.

    Source : Gizmodo, Article des chercheurs

    Et vous ?

    Que vous inspire cette nouvelle méthode ?
    Ces méthodes de deepfakes ne feront-elles pas de l’Internet un lieu hostile ?

    Voir aussi

    USA : l'administration Trump travaille à l'établissement de règles de protection de la vie privée sur Internet, avec Facebook et Google
    USA : un sénateur donne des pistes pour la réglementation des médias sociaux et entreprises technologiques, et voici ce qu'il propose
    Trump accuse Google de truquer les résultats de recherche pour supprimer les news positives sur le président, et donner la priorité aux "Fake News"
    Trump accuse Google de ne pas avoir fait la promotion de son discours annuel comme il l'a fait pour Obama, une accusation aussitôt rejetée par Google
    Trump accuse Google de truquer les résultats de recherche pour supprimer les news positives sur le président, et donner la priorité aux "Fake News"
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Nouveau Candidat au Club
    Homme Profil pro
    Historien
    Inscrit en
    mai 2018
    Messages
    403
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : Algérie

    Informations professionnelles :
    Activité : Historien

    Informations forums :
    Inscription : mai 2018
    Messages : 403
    Points : 0
    Points
    0

    Par défaut

    j'ai rien compris au danger de ce truc...

    les hommes politiques sont tous des acteurs (macron à eu pas mal de cours de théâtre...)
    tous leurs paroles, tous leurs discours et gestes ne sont que du cinéma ! orchestré par des experts en communications.

    un homme politique qui parle ce n'est que du cinéma, delà mise en scène, ces mises en scènes sont écrites dans tous les manuels qui parle de communication.

  3. #3
    Membre averti
    Profil pro
    Inscrit en
    septembre 2009
    Messages
    169
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : septembre 2009
    Messages : 169
    Points : 408
    Points
    408

    Par défaut

    @ShigruM : La le danger c'est de le faire dire des choses qu'ils n'ont pas dit et donc de les discréditer ou inculper dans des affaires qu'ils n'ont pas participé.

    Autant le résultat est plutôt sympa, mais à moins de faire une vidéo en 240p archi compressé avec l'acteur vu de loin ça sonne encore trop faux. Entre la géométrie des lunettes qui se déforment et les sourcils qui font n'imp y'a encore du boulot avant de feinter un observateur qui fait attention.

  4. #4
    Membre confirmé

    Profil pro
    Inscrit en
    janvier 2008
    Messages
    749
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : janvier 2008
    Messages : 749
    Points : 537
    Points
    537

    Par défaut

    Oui danger, is coming !

  5. #5
    Membre chevronné
    Homme Profil pro
    Consultant Ingenierie mécanique
    Inscrit en
    mars 2006
    Messages
    989
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Consultant Ingenierie mécanique
    Secteur : Transports

    Informations forums :
    Inscription : mars 2006
    Messages : 989
    Points : 2 144
    Points
    2 144

    Par défaut

    Quand on créer une arme numérique il faut aussi en créer la contre mesure, sinon on en sera victime un jour ou l’autre.

    il devraient en même temps entrainer une ia a detecter les fausses videos sinon ca va etre la merde

  6. #6
    Membre régulier
    Profil pro
    Inscrit en
    février 2005
    Messages
    42
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : février 2005
    Messages : 42
    Points : 107
    Points
    107

    Par défaut

    c'est déjà le cas actuellement, si c'est pas du direct il y a eu du montage de la prostprod etc... et c'est facile de couper au mauvais moment, de ne garder qu'une partie des explication, de couper si c'est bon/mauvais pour ne garder que le mauvais/bon, de mixer des séquences temporellement différente (genre passer un public qui se marre alors que c'était une réaction à un truc passé plus tot ou plus tard), etc...

    le summum étant la télé réalité, si ce n'est pas des acteurs c'est pas grave avec un bon montage on fait passer qui on veut pour ce qu'on veut.

    edit:
    la seule solution viable c'est d'avoir des médias de confiance avec des vrais journalistes qui font du travail d'investigation et qui vérifient/croisent les sources.

Discussions similaires

  1. Réponses: 2
    Dernier message: 21/04/2016, 19h50
  2. appel des composants appartenants à page dans une autre
    Par mariooma dans le forum Silverlight
    Réponses: 1
    Dernier message: 04/12/2008, 23h52
  3. Créer des données logiques avec Kettle ou autre ETL?
    Par adboyslim dans le forum Alimentation
    Réponses: 7
    Dernier message: 29/04/2008, 16h35
  4. Recuperer les max des dates à partir d'une autre table
    Par inabil dans le forum Langage SQL
    Réponses: 8
    Dernier message: 20/11/2006, 16h19
  5. Lister des element HTML à partir d'une autre frame
    Par psychomatt dans le forum Général JavaScript
    Réponses: 6
    Dernier message: 03/03/2006, 19h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo