IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Une application d’IA permet de remplacer en quelques clics le visage d’actrices dans les films pornographiques


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Webmaster
    Inscrit en
    Janvier 2014
    Messages
    1 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Webmaster
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 089
    Points : 26 555
    Points
    26 555
    Par défaut Une application d’IA permet de remplacer en quelques clics le visage d’actrices dans les films pornographiques
    Une nouvelle application d’IA permet de remplacer en quelques clics le visage d’actrices dans les films pornographiques
    par celui d’une femme quelconque à partir d’une simple photo du visage

    Après l’épisode de DeepNude, l’application utilisant l’intelligence artificielle (IA) pour supprimer les vêtements de femmes dans les photos en les faisant paraître nues, des personnes ont trouvé le moyen de pousser la hardiesse encore plus loin en mettant en ligne un site qui permet d’échanger le visage d’une femme avec celle d’une autre figurant dans une vidéo pornographique. Si pour l’application DeepNude, le rejet par le public a été sans équivoque, l’on se demande comment l’auteur de cet outil compte gérer les dérives éventuelles qui pourraient survenir par l’abus de cet outil.

    Il est révolu le temps où il fallait disposer de compétences avancées pour réaliser un montage qui permet d’échanger numériquement le visage d’un acteur par un autre dans une scène de vidéo. Avec la technologie deepfake, technique de synthèse multimédia permettant de générer des vidéos truquées en utilisant l’intelligence artificielle, il est maintenant donné à n’importe quel utilisateur sans expertise aucune dans des domaines pointus du montage vidéo et d’effets spéciaux visuels de réaliser des trucages aussi poussés que réalistes dans les vidéos. Si l’avancée technologie facilite à bien des égards la productivité, elle a aussi son revers de la médaille. Sur un site en ligne, il est possible en cliquant sur un simple bouton de remplacer le visage d’une actrice pornographique par celle d’une autre femme, ce qui pourrait faire croire que le visage inséré est l’actrice réelle qui a réalisé la vidéo.

    Comment effectuer l’échange de visages à partir du site Web abritant l'outil de génération des vidéos deepfakes pornographiques ?

    Pour ce faire, il suffit de téléverser la photo d’un visage et sélectionner la vidéo dans laquelle on souhaite insérer la photo. Dans la majorité des vidéos disponibles, il s’agit de scènes mettant en action des femmes. Seule une poignée de vidéos comportent également des scènes d’hommes, notamment des vidéos pornographiques pour les homosexuels. Après avoir sélectionné la vidéo, vous pouvez visionner un aperçu de quelques secondes de la vidéo comportant l’échange de visages. Pour télécharger la version complète de la vidéo deepfake, il va falloir passer à la caisse. Le site présente l’outil comme un moyen d’explorer les fantasmes sexuels.

    Après avoir suivi tout le processus d’échange de visages, une analyse sommaire de la vidéo permet de déclarer que l’on est encore loin du résultat parfait. De nombreux échanges de visages sont évidemment faux avec les visages scintillant et se déformant lorsqu’ils tournent sous différents angles. Mais pour un observateur occasionnel, certains détails sont assez subtils pour ne pas être remarqués, et la trajectoire des deepfakes a déjà montré à quelle vitesse ils peuvent devenir indiscernables de la réalité.

    En situation de consentement, remplacer le visage d’une actrice de film pour adultes par un autre de manière consentante n’a rien de problématique. Ces techniques de deepfake pourraient être utilisées pour apporter des corrections ou même faire gagner du temps si une scène devait être refaite. Sur le site qui a mis en ligne cet outil, il est recommandé aux utilisateurs de téléverser leur propre photo.

    Quelques inquiétudes et témoignages liés à l’abus des outils permettant de générer des vidéos deepfakes pornographiques sans consentement

    Toutefois, la mauvaise foi étant la chose mieux partagée au monde, il n’y a aucun doute à se faire que des petits malins pourraient utiliser cet outil mis en ligne pour faire de mauvaises blagues à de tierces personnes. Encore pis, des personnes pourraient utiliser ce site pour créer des vidéos pornographiques de jeunes filles ou de femmes afin de les harceler ou leur faire du chantage. Dans de tels cas, les conséquences peuvent être aussi bouleversantes que le « revenge porn », de véritables vidéos intimes filmées ou diffusées sans consentement.

    Et même s’il est possible de souligner les incohérences qui peuvent receler ces vidéos deepfakes pornographiques, avoir sa tête dans une vidéo qui circule sur la toile est suffisant pour anéantir la vie d’une personne. En outre, les utilisateurs ne savent pas tous qu’une telle technologie existe et parfois n’ont pas l’œil avisé pour discerner le faux du vrai. En Angleterre, Helen Mort, une écrivaine qui vit à Sheffield, a trouvé des images deepfake d’elle-même sur un site porno il y a deux ans. Ils étaient sur Internet depuis 2017. Après avoir découvert ces images, la première question qu’elle s’est posée est « qu’ai-je fait pour mériter cela ? »

    Nom : Helen Mort.png
Affichages : 133079
Taille : 328,3 Ko
    Helen Mort, écrivaine victime d’images deepfakes pornographiques


    « Ce genre d’abus — où les gens déforment votre identité, votre nom, votre réputation et les modifient de manière si violente — vous brise profondément », déclare Noelle Martin, une militante australienne qui a été la cible d’une campagne pornographique deepfake. Et les répercussions peuvent rester avec les victimes à vie. Les images et les vidéos sont difficiles à supprimer d’Internet et de nouveaux contenus peuvent être créés à tout moment. « Cela affecte vos relations interpersonnelles. Cela vous affecte pour obtenir un emploi. Chaque entretien d’embauche que vous passez, cela pourrait être évoqué », affirme Martin. « À ce jour, je n’ai jamais réussi à faire retirer les images. Pour toujours, ce sera là-bas. Peu importe ce que je fais ». Selon Sophie Mortimer, qui gère le service d’assistance britannique Revenge Porn Helpline, une enseignante britannique a perdu son emploi après que de fausses images pornographiques d’elle aient été diffusées sur les réseaux sociaux et portées à l’attention de son école.

    Bien que les victimes soient majoritairement les femmes, le fait qu’il est possible de créer des vidéos gays deepfakes n’épargne pas non plus les hommes. Dans 11 pays du monde, avoir des relations sexuelles entre hommes pourrait être puni par la peine de mort. Une personne malveillante qui souhaiterait vous faire du mal pourrait fusionner votre visage avec celui de l’acteur réel dans une vidéo gay et la publier en ligne. Sans discernement, une décision de justice pourrait signer votre arrêt de mort. Mais bon, dans pareil cas, si le juge ne veut pas entendre raison de votre innocence, certains suggèrent pour se défendre de produire une autre vidéo gay deepfake en intégrant le visage du juge et celui l’avocat de la partie adverse. Cela pourra au moins les convaincre. Si les scénarios des plus cyniques aux plus délirants peuvent être imaginés, cela vient toutefois rappeler le danger qui peut se cacher derrière ces technologies deepfakes.

    Comment devrait-on traiter ce type d’outil deepfake sur la toile ? L’autoriser, le baliser ou le censurer ?

    Après que le site ait été contacté à maintes reprises par différents acteurs sur la toile afin de décrier les dégâts qu’un tel outil disponible publiquement pourrait occasionner, le site a publié un avis sur sa page d’accueil indiquant qu’il n’était plus disponible pour les nouveaux utilisateurs. Par contre, les utilisateurs existants peuvent continuer à accéder à leurs vidéos en utilisant leurs identifiants d’accès.

    Source : BBC

    Et vous ?

    Quels commentaires faites-vous de la mise à la disposition du public des outils de génération de deepfakes à partir des vidéos pornographiques ?

    Selon vous, devrait-on imposer des limites pour ces outils deepfakes lorsqu’ils sont utilisés dans certains cas sur la toile ?

    Devrait-on censurer ces outils deepfakes utilisés pour générer des vidéos pornographiques ? Ou ont-ils également le droit d’exister sur la toile ?

    Voir aussi

    GitHub supprime de sa plateforme les versions open source de DeepNude, l’application qui crée des images de femmes nues en quelques secondes
    L’IA peut désormais détecter les deepfakes en recherchant des mouvements faciaux étranges, selon une étude
    Deepfake : des chercheurs présentent un logiciel qui permet d’éditer le discours d’une vidéo, et faire dire au sujet ce que vous voulez
    À l’approche de la présidentielle américaine, Facebook interdit la plupart des deepfake de sa plateforme, mais les politiciens trouvent cette mesure très légère face à la désinformation en ligne
    Avatarify, un deepfake qui échange en temps réel votre visage avec celui d’une célébrité, pendant les appels vidéo sur Zoom et Skype
      8  0

  2. #2
    Membre expérimenté

    Homme Profil pro
    Retraite
    Inscrit en
    Octobre 2005
    Messages
    485
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 72
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraite
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2005
    Messages : 485
    Points : 1 366
    Points
    1 366
    Billets dans le blog
    1
    Par défaut
    Bravo l'IA
      2  1

  3. #3
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 835
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 835
    Points : 18 761
    Points
    18 761
    Par défaut
    Citation Envoyé par Olivier Famien Voir le message
    Quels commentaires faites-vous de la mise à la disposition du public des outils de génération de deepfakes à partir des vidéos pornographiques ?
    Tant que c'est pour un usage personnel je ne vois pas de problème, par contre si un extrait de vidéo circule là ça peut craindre.

    Citation Envoyé par Olivier Famien Voir le message
    Selon vous, devrait-on imposer des limites pour ces outils deepfakes lorsqu’ils sont utilisés dans certains cas sur la toile ?
    Ce qui serait chouette ce serait d'avoir besoin de l'autorisation écrite de la personne dont on va utiliser l'image du visage.
    Je pense que demander "Excusez-moi mademoiselle, est-ce que je peux, s'il-vous plait, prendre votre visages en photos sous différents angle afin de l'incruster sur une actrice pornographique ?" devrait passer assez facilement

    =====
    Le bon côté c'est que si une vraie sex tape fuite, il y a toujours moyen de répondre que c'est un deep fake.
      0  0

  4. #4
    Nouveau Candidat au Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mars 2008
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Sénégal

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mars 2008
    Messages : 1
    Points : 0
    Points
    0
    Par défaut Remplacement d'image d'actrice porno par l'IA
    je pense qu'il faut sanction les concepteurs de ces logiciels.
      1  2

  5. #5
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 789
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 789
    Points : 7 276
    Points
    7 276
    Par défaut
    Ils n'ont vraiment rien de mieux à faire de leurs neurones.
      2  1

  6. #6
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 835
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 835
    Points : 18 761
    Points
    18 761
    Par défaut
    Citation Envoyé par marsupial Voir le message
    rien de mieux à faire
    Ça peut devenir un business extrêmement lucratif, donc c'est pas forcément une mauvaise idée, selon comment on regarde.
      0  5

  7. #7
    Membre habitué
    Homme Profil pro
    automatisme
    Inscrit en
    Octobre 2012
    Messages
    54
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Mayenne (Pays de la Loire)

    Informations professionnelles :
    Activité : automatisme

    Informations forums :
    Inscription : Octobre 2012
    Messages : 54
    Points : 154
    Points
    154
    Par défaut
    La règle 34
      0  0

  8. #8
    Membre averti
    Profil pro
    Développeur Full Stack
    Inscrit en
    Janvier 2012
    Messages
    69
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Full Stack

    Informations forums :
    Inscription : Janvier 2012
    Messages : 69
    Points : 300
    Points
    300
    Par défaut
    Cela fait plus d'un siècle que l'on truque des vidéos. Le problème réside plutôt pour moi dans la crédulité de ceux qui confondent une vidéo avec le réel.

    Heureusement, le concept de Deepfakes a déjà été pas mal vulgarisé par la presse, mais il faudra encore un peu de temps pour que le grand public en prenne pleinement conscience. A partir de ce moment, cela décrédibilisera complètement ces actes stupides.
      2  0

  9. #9
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 835
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 835
    Points : 18 761
    Points
    18 761
    Par défaut
    Citation Envoyé par clorr Voir le message
    il faudra encore un peu de temps pour que le grand public en prenne pleinement conscience.
    Il faut que les gens deviennent extremement sceptique, il faut qu'à chaque vidéo ils se disent "si ça se trouve c'est un fake"', il faut tout remettre en question.
    Je ne sais pas si vous vous rappellez de Colin Powell qui a dit un truc du genre "Regardez je tiens une fiolle, ça veut dire que l'Irak possède des armes de destructions massives" c'était basé sur un mensonge et ça a fait énormemement de morts, dès aujourd'hui des médias et des gouvernements pourraient utiliser des fausses vidéos pour justifier une intervention militaire.

    Cela dit ça n'a pas que des mauvais côté, par exemple Benjamin Griveaux va pouvoir mettre le visage d'Alexandra de Taddeo sur le corps d'une actrice pornographique , avant il recevait des vidéos d'elle, maintenant c'est fini.
      3  0

  10. #10
    Membre régulier
    Homme Profil pro
    Ergonome
    Inscrit en
    Novembre 2019
    Messages
    29
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Ergonome

    Informations forums :
    Inscription : Novembre 2019
    Messages : 29
    Points : 104
    Points
    104
    Par défaut Pour le meilleur et pour le pire
    La technologie, capable du meilleur... et du pire.
    Ou plutôt : l'esprit humain, capable du meilleur et du pire.
    Il faut un cerveau bien malade pour imaginer et réaliser ces choses-là.
    Bien loin du bonheur...
      0  0

  11. #11
    Membre habitué
    Profil pro
    Inscrit en
    Mai 2010
    Messages
    205
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2010
    Messages : 205
    Points : 169
    Points
    169
    Par défaut
    Le pb c'est le harcèlement. Quand tu as 14 ans, et qu'une fausse vidéo de toi circule... Il ne te reste plus qu'à changer au minimum d'établissement...
      0  0

  12. #12
    Membre confirmé
    Profil pro
    Inscrit en
    Février 2007
    Messages
    232
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations forums :
    Inscription : Février 2007
    Messages : 232
    Points : 552
    Points
    552
    Par défaut et puis ?
    Il faut arreter de voir le mal partout et ces croisades MLF
    Le fait de maquiller des photos existe depuis longtemps (rappellez vous la periode stalinienne ou des gens disparaissaient des photos car plus en cour)
    On est passé maintenant a la video mais c est la meme chose.
    Apres il y a une question de credibilité: Si vous voyez Merkel dans un porno vous allez y croire ?
    J irai meme jusqu a dire que c est au contraire un plus: si un jour un porno apparait avec vous dessus (cf rita mitsuko) vous pouvez maintenant clamer que c est un faux !

    Sur le plan purement financier, je doute que leur appli soit rentable: qui va payer pour avoir la tete de sa voisine sur une video X ?

    PS: sur la veracite de la video, il faut plus que la tete pour que ca soit credible: si votre actrice a une poirtine XXL et vous y mettez la tete de Jane Birkin ca va pas etre tres credible !
      1  0

  13. #13
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    10 937
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 10 937
    Points : 15 387
    Points
    15 387
    Par défaut
    Bonjour,

    Question purement technique : quand j'analyse le titre de la discussion, Une application d’IA permet de remplacer en quelques clics le visage d’actrices dans les films pornographiques, j'en conclus que ça ne fonctionne pas pour les autres films, ni avec les acteurs, c'est bien ça ?

    En quoi l'ia intervient-elle dans un processus qui consiste à choisir des films dans un catalogue et des actrices dans un autre, plus un peu de (scripting de) photoshopage ?

    Et d'ailleurs, on ne trouve pas trace de la notion d'ia dans la source originale. On y trouve la notion de deepfake pornography, qui est expliquée comme étant where computer technology is used to map the faces of celebrities and private citizens on to explicit sexual material, et c'est tout.
    Pas de l'ia donc, àmha.
      0  4

  14. #14
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 835
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 835
    Points : 18 761
    Points
    18 761
    Par défaut
    Citation Envoyé par Jipété Voir le message
    c'est bien ça ?
    Non, si on a les photos nécessaire il est possible de mettre n'importe quel visage sur le corps de n'importe quel personnage humain, dans n'importe quel film.
    Mais c'est vraiment le porno qui peut faire le plus de dégâts. (enfin il y a la politique aussi, mais c'est encore autre chose)

    Citation Envoyé par Jipété Voir le message
    En quoi l'ia intervient-elle dans un processus qui consiste à choisir des films dans un catalogue et des actrices dans un autre, plus un peu de (scripting de) photoshopage ?
    Si on regarde une définition de "Deep Fake" :
    Deepfake
    Le deepfake, hypertrucage, infox vidéo ou vidéotox est une technique de synthèse multimédia reposant sur l'intelligence artificielle.
    Et on peut reboucler autrement : deepfake -> deep learning -> machine learning -> artificial intelligence :
    Le terme deepfake est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux »).
    L'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires.
    L'apprentissage automatique (en anglais : machine learning, litt. « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
    Dites vous qu'Intelligence Artificielle signifie Algorithme "Intelligent" et il n'y a plus de problème.
    Si un jour une technologie qui ressemble à l'intelligence humaine apparait il faudra créer un nouveau mot pour la définir.

    À l'époque quand on disait que les robots dans les jeux-vidéo étaient des IA ça ne choquait personne :
    Video game bot
    In video games, a bot is a type of artificial intelligence (AI)–based expert system software that plays a video game in the place of a human.
    Artificial intelligence in video games
    It was during the golden age of video arcade games that the idea of AI opponents was largely popularized, due to the success of Space Invaders (1978), which sported an increasing difficulty level, distinct movement patterns, and in-game events dependent on hash functions based on the player's input. Galaxian (1979) added more complex and varied enemy movements, including maneuvers by individual enemies who break out of formation. Pac-Man (1980) introduced AI patterns to maze games, with the added quirk of different personalities for each enemy. Karate Champ (1984) later introduced AI patterns to fighting games, although the poor AI prompted the release of a second version.
    Et ouais, Blinky, Pinky, Inky et Clyde ont des personnalités différentes.

    L'IA ça a toujours été des algorithmes, pourquoi ça doit changer aujourd'hui ?
      5  0

Discussions similaires

  1. Réponses: 4
    Dernier message: 06/09/2016, 19h31
  2. Réponses: 3
    Dernier message: 02/04/2016, 16h13
  3. Réponses: 7
    Dernier message: 27/06/2011, 16h43
  4. Réponses: 30
    Dernier message: 08/09/2010, 15h41
  5. Réponses: 3
    Dernier message: 10/04/2007, 19h57

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo