IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut Deepfake : l'app gratuite Zao vous permet de changer le visage d'un personnage de film par le vôtre
    Deepfake : l'app gratuite Zao vous permet de changer le visage d'un personnage de film par le vôtre,
    après avoir téléchargé une photo

    Une application chinoise qui permet aux utilisateurs de changer de manière convaincante le visage d'un personnage de films ou de chaînes de télévision par leur visage est rapidement devenue l’une des applications les plus téléchargées du pays, déclenchant une série de questions relatives à la confidentialité. Lancée vendredi 30 août, l'application Zao serait devenue l’application gratuite la plus téléchargée en Chine d’après la société d’analyses App Annie.

    Les utilisateurs chinois ont saisi l'opportunité de se voir jouer des scènes de films connus utilisant la technologie deepfake, ce qui a déjà suscité des inquiétudes au sujet d'un éventuel abus.

    Allan Xia, utilisateur de Twitter, a publié une démonstration détaillée de ce que l'application est capable de faire avec un clip de 30 secondes de son visage remplaçant celui de Leonardo Dicaprio lors de moments célèbres de plusieurs de ses films. Selon Xia, les clips ont été générés en moins de huit secondes à partir d'une seule photo. Cependant, Bloomberg note que l'application peut également vous guider tout au long du processus de prise d'une série de photographies (où elle vous demandera d'ouvrir et de fermer la bouche, de cligner des yeux, d'arborer des expressions faciales) pour générer des résultats plus réalistes.

    En somme, les utilisateurs fournissent une série de selfies que l’application utilise pour transformer de façon réaliste un personnage dans un film, une émission de télévision ou d’autres contenus.

    Nom : allan.png
Affichages : 184685
Taille : 73,5 Ko

    Selon Xia, l'application ne propose qu'un nombre limité de clips dans lesquels vous pouvez insérer votre visage. Le développeur de l’application a probablement formé ses algorithmes sur chacun de ces clips pour remodeler facilement le visage de l’utilisateur sur eux, comme le spécule Xia. L'application ne peut pas mapper votre visage sur un clip vidéo de votre choix.

    La technologie ressemble à ce qu'ont montré récemment des chercheurs de l’Imperial College de Londres, qui ont présenté une technologie capable de transformer une photo unique en portrait chantant. La différence ici est que Zao insère votre image dans une vidéo existante, plutôt que d’animer directement une photo de vous. Néanmoins, cela montre à quel point la technologie sous-jacente a évolué rapidement : ce qui nécessitait autrefois des centaines d’images pour créer une vidéo deepfake plutôt convaincante ne nécessite désormais plus qu’une seule image avec de meilleurs résultats.


    Des conditions d'utilisation qui inquiètent

    La société a été obligée de publier dimanche une déclaration dans laquelle elle annonçait des modifications après que les critiques eurent attaqué la politique de confidentialité de l'application, qui disposait de droits « gratuits, irrévocables, permanents, transférables et dont la licence peut être reconduite » sur tout contenu généré par l'utilisateur.

    Les deepfakes, qui utilisent l'intelligence artificielle pour paraître authentiques, suscitent de plus en plus d'inquiétudes. Les critiques disent que la technologie peut être utilisée pour créer de fausses vidéos permettant de manipuler des élections, de diffamer quelqu'un ou de potentiellement e causer des troubles en diffusant des informations erronées à grande échelle.

    « Nous comprenons les préoccupations concernant la vie privée. Nous avons reçu les commentaires et nous allons régler les problèmes que nous n’avons pas pris en compte, ce qui prendra un certain temps », a déclaré Zao. Zao appartient à Momo Inc, un service de rencontres apparenté à Tinder qui est coté au Nasdaq américain. Momo Inc a déjà été épinglée en 2014 pour une faille de sécurité. Les mots de passe et données de 30 millions d’utilisateurs d’une application de rencontres qu’il détenait avaient alors été exposés. Le spécialiste du numérique Baptiste Robert (alias Elliot Alderson) a d'ailleurs émis des doutes sur la sécurité du stockage des données en ligne : il serait assez simple d’accéder aux photos et montages laissés par des utilisateurs, sans mot de passe. Il suffirait pour ceci d’avoir le lien vers l’image en question.

    Depuis, l'entreprise a changé ses termes. Elle s'est par exemple engagée à supprimer de ses serveurs tout contenu téléchargé, mais supprimé ultérieurement par les utilisateurs.


    C’est une controverse similaire à celle qui a entouré FaceApp plus tôt cette année, lorsque l’application qui permettait aux utilisateurs de voir à quoi ils ressembleraient plus vieux est redevenue virale en juillet. Le développeur de l’application a été contraint de clarifier sa politique de confidentialité et d’offrir aux utilisateurs la possibilité de supprimer leurs photos de leurs serveurs s’ils le souhaitaient. Dans le cas de FaceApp, les commentateurs ont rapidement souligné que la politique de confidentialité de l’application n’était pas plus envahissante que la plupart des applications mobiles les plus populaires à travers le monde.

    Les manifestants à Hong Kong s'efforcent de se couvrir le visage de peur que la police utilise la technologie de reconnaissance faciale pour identifier et arrêter des cibles. Dans certaines zones du monde, les gens sont de plus en plus conscients de l’importance de leurs données d’imagerie faciale et s’inquiètent à juste titre des entreprises qui ne prennent pas les mesures de protection adéquates pour les protéger.

    Toutefois, cela n'a pas entamé la popularité de l'application qui est restée en tête des applications de téléchargement gratuit en Chine lundi soir, selon App Annie.

    Source : Allan Xia, Zao (via Weibo), Radii, Elliot Anderson

    Et vous ?

    Que pensez-vous de cette application ? Êtes-vous tenté de l'essayer ?
    Quel serait, selon vous, le pire scénario qui puisse arriver ?
    Faut-il craindre les deepfake en général ?

    Voir aussi :

    Des chercheurs ont mis au point un algorithme pour détecter les deepfakes en divisant l'image en de petites zones pour les examiner pixel par pixel
    Des utilisateurs s'inquiètent des risques potentiels sur la vie privée apportés par FaceApp, l'app qui permet d'appliquer un filtre vieillissant
    GitHub supprime de sa plateforme les versions open source de DeepNude, l'application qui crée des images de femmes nues en quelques secondes
    Une nouvelle application deepfake générée par l'IA créé des images de femmes nues en quelques secondes, elle est maintenant supprimée de l'Internet
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 264
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Quel serait, selon-vous, le pire scénario qui puisse arriver ?
    Remplacer le visage d'une actrice pornographique par celui de Merkel.
    Je pense que le pire scénario serait que les médias officielles, comme l'AFP, fassent passer des fausses vidéos pour des vraies, ce serait une terrible arme de propagande.
    Cet outil peut être utilisé pour créer des fausses preuves facilement. (on pourrait faire dire n'importe quoi à Ben Laden)

    Un état peut faire une attaque sous faux drapeau, en s'attaquant lui même et en mettant la faute sur un autre pays.

  3. #3
    Membre éclairé
    Homme Profil pro
    Développeur Web
    Inscrit en
    Septembre 2016
    Messages
    373
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Septembre 2016
    Messages : 373
    Par défaut
    Ce genre d'outil, malheureusement comme tous les outils, ne seront pas utilisé pour de bonne chose (délirer, j'vois pas trop ce que tu peut faire de bien avec ?!).
    On va donc ce retrouver avec de plus en plus de fausse vidéo pour faire monter la haine afin que les plus extrémistes puisse gagner des voix.

    Quant ont pense que dans certain pays il y à eux des lynchages publique (avec mort à la clé) sur de simple rumeur partager sur les réseaux sociaux, j'imagine même pas ce qu'une personne mal intentionnée peut générer comme dégât sur la vie d'une personne avec de fausse vidéo bien montée...

  4. #4
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    611
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 611
    Par défaut
    Citation Envoyé par Edrixal Voir le message
    Ce genre d'outil, malheureusement comme tous les outils, ne seront pas utilisé pour de bonne chose (délirer, j'vois pas trop ce que tu peut faire de bien avec ?!).
    Tu manques un peu d'imagination si tu vois pas a quoi ça pourrait servir pour de bonnes choses.
    Ça peut être très utile en cinéma, surtout amateur, voir même pour du jeu vidéo ou encore d'autres domaines artistiques.
    Surtout qu'a côté de ça t'as Nvidia qui ont fait un système pour générer, et customiser des visages humains parfaitement réalistes.


    Citation Envoyé par Edrixal Voir le message
    On va donc ce retrouver avec de plus en plus de fausse vidéo pour faire monter la haine afin que les plus extrémistes puisse gagner des voix.

    Quant ont pense que dans certain pays il y à eux des lynchages publique (avec mort à la clé) sur de simple rumeur partager sur les réseaux sociaux, j'imagine même pas ce qu'une personne mal intentionnée peut générer comme dégât sur la vie d'une personne avec de fausse vidéo bien montée...
    Fallait bien que ce genre de technologie arrive un jour. Puis faut voir les choses de manière plus positives:
    - Deepfake existe depuis longtemps, mais était plus complexe a mettre en œuvre. Avec cette appli ça règle désormais le problème, mais ça se base sur quelque chose d'existant.
    - Il n'est absolument pas sans défauts, il suffit de regarder attentivement une vidéo pour voir la différence de couleur entre le visage source et destination, ou encore des décalages d'une frame a une autre.
    Il a beaucoup de mal avec les éléments qui viennent obstruer un visage, comme les cheveux devant le visage ou les accessoires.
    - Il devient totalement visible sur des vidéos de hautes qualité: ce qui permet même de détecter des deepfakes de manière totalement automatique (je crois même que c'est les auteurs de deepfake qui ont travaillé sur ça, justement pour avoir une contrebalance)
    - Il est très gourmand en performances, donc ce genre d'appli n'est pas vouée a tourner indéfiniment pour du tout public (en tout cas pas contre sans financement).

    Bref, ça laisse quand même le temps à nos sociétés à apprendre à évoluer avec ce genre de technologies. On a de la chance que le deepfake parfait n'existe pas encore, même s'il faut s'attendre à en avoir dans un futur prochain.

  5. #5
    Membre Expert
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Novembre 2009
    Messages
    2 056
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Novembre 2009
    Messages : 2 056
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Un état peut faire une attaque sous faux drapeau, en s'attaquant lui même et en mettant la faute sur un autre pays.
    Le pire c'est que ca se faisait déjà avant

  6. #6
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 264
    Par défaut
    Citation Envoyé par micka132 Voir le message
    ca se faisait déjà avant
    Ah ouais en effet :
    Incident de Mukden
    Cet attentat a été planifié par les Japonais redoutant une unification de la Chine sous l'égide du Kuomintang, perçue comme une menace contre la prééminence japonaise dans la région. Les militaires japonais accusent les Chinois d'avoir perpétré l'attentat, donnant ainsi le prétexte à l'invasion immédiate du Sud de la Mandchourie par les troupes japonaises, et la création quelques mois plus tard de l'État fantoche du Mandchoukouo, sous l'autorité théorique de l'ex-empereur de Chine, Puyi.

    Cet incident « provoqué » n'est pas unique en son genre. Des procédés similaires sont utilisés sous l'impulsion du général Tanaka entre la fin des années 1920 et l'invasion du reste du territoire chinois, pour tenter de justifier l'expansionnisme japonais en Asie.
    Citation Envoyé par Edrixal Voir le message
    On va donc ce retrouver avec de plus en plus de fausse vidéo
    Il faut se méfier des images, elles sont manipulable.

  7. #7
    Membre éclairé
    Homme Profil pro
    Développeur Web
    Inscrit en
    Septembre 2016
    Messages
    373
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Septembre 2016
    Messages : 373
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Il faut se méfier des images, elles sont manipulable.
    Tu est au courant, moi aussi. La plupart des gens sur se forum également. Mais quand tu vois la vitesse avec laquelle les fakes new sont propager, du moment que sa confirme le biais de confirmation, imagine le potentiel destructeur que sa peut apporter ?! Les gens n'en aurons rien à foutre que ce soit une fausse vidéo, du moment que sa les confortes dans leur pensées...

  8. #8
    Membre éclairé
    Homme Profil pro
    Développeur Web
    Inscrit en
    Juillet 2010
    Messages
    403
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Juillet 2010
    Messages : 403
    Par défaut
    Tous les pays organisent ou ont organisé des false flag pour arriver à leurs fins. Cette histoire de fausse vidéo n'est qu'un moyen parmi une infinité. Ca ne me fait pas plus peur que cela, perso.

  9. #9
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 264
    Par défaut
    Citation Envoyé par Edrixal Voir le message
    quand tu vois la vitesse avec laquelle les fakes new sont propager
    Si c'est sur Facebook ou Twitter ce n'est pas encore trop grave. Ce sera dangereux quand le ministère de la vérité présentera des fausses vidéos en disant qu'elles sont vraies.

    Un peu dans ce genre la :
    «Macron dégage» : comment France 3 bidouille ses images d'illustration
    Ironie de l'histoire : trois semaines avant de supprimer une pancarte «Macron dégage» sur une photo, le JT de France 3 avait ajouté un gilet jaune portant une inscription «Macron Dégage» à une autre image.
    En moins grave il y a ça :
    Mélenchon sur TF1 : le zoom qui fâche
    Une photo postée sur Twitter contredit l'impression de foule véhiculée par les images de TF1. La Toile se moque de cette mise en scène.
    Là il y a des gens qui ont cru que les images avaient été modifiées, mais des experts ont dit que ça semblait normal :
    "Manif pour tous": la preuve que la préfecture de police n'a pas truqué ses images
    Ce qui a pu tromper les opposants au mariage pour tous pourrait résider dans le fait que les images publiées sur Internet sont si dégradées qu'il en résulte une déperdition d'informations pouvant laisser croire à l'œil nu à l'existence de modifications. Soumises à Tungstène, les mêmes images, que BFMTV.com a obtenues dans une qualité supérieure, révèlent tout autre chose.
    (...)
    "Le processus de numérisation des images a amplifié la différence de signal et de 'signature mathématique' entre les zones de détails représentées par les manifestants et ces zones lisses", explique l'expert. Avant de conclure qu'aucun élément ne permet de parler de trucage. "Il ne s'agit pas d'anomalies de structure, mais d'anomalies techniques".

  10. #10
    Membre éprouvé

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 116
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 116
    Par défaut
    <ton léger>
    "La tête de Merkel sur le corp d'une actrice porno" mauais je ne suis pas sûr que ça tromperait beaucoup de monde.
    Avec un peu d'esprit critique vous verriez que il y a une différence d'âge entre le haut et le bas.
    ouarfff

    Ca ressemble au premier épisode de black mirror.
    Il cherchait un acteur porno et truquer son visage pour mettre la tête du premier ministre qui devait se farcir une truie(cochonne)

    Ce serait marrant si il y avait un sondage
    "Quel acteur voudriez être ? et dans quel film ?

    Moi Forest Gump, j'aime bien sa ballade dans l'améerique



    </ton léger>
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

Discussions similaires

  1. Réponses: 11
    Dernier message: 30/10/2019, 12h06
  2. Réponses: 3
    Dernier message: 06/04/2015, 22h20

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo