IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 783
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 783
    Par défaut Une vidéo deepfake d'une démocrate donnant un traitement hormonal à un enfant attribuée aux Républicains
    Une vidéo deepfake générée par IA montrant une démocrate donnant un traitement hormonal transgenre à un enfant attribuée aux Républicains,
    l’IA générative comme nouvel outil de diffamation politique et de sabotage du débat public

    Une vidéo politique générée par intelligence artificielle, attribuée à des réseaux proches du Parti républicain, a récemment franchi un seuil inquiétant. En mettant en scène, de manière totalement fictive, un élu du Parti démocrate donnant un traitement hormonal à un enfant, ce deepfake illustre la mutation accélérée de la désinformation politique à l’ère de l’IA. Plus qu’un simple coup de communication, il révèle une stratégie qui instrumentalise la technologie pour fabriquer de toutes pièces des scandales émotionnels.

    Les républicains attaquent la gouverneure du Maine Janet Mills (D) – qui se présente au Sénat américain – avec une fausse vidéo générée par intelligence artificielle (IA) dans laquelle elle donne à un garçon « un kit d'œstrogènes ne nécessitant pas l'autorisation des parents ». Mills a été une fervente défenseuse des droits des transgenres au cours de l'année écoulée, refusant de céder à la pression du président visant à interdire aux enfants transgenres de participer aux sports scolaires.

    Mais au lieu de simplement la critiquer pour son soutien réel aux personnes transgenres, les républicains ont décidé d'utiliser des vidéos deepfake.

    Le deepfake comme arme politique à part entière

    Cette vidéo n’est ni une parodie ni une satire explicitement revendiquée. Elle se présente comme un document quasi factuel, exploitant les codes visuels de l’information et la crédibilité apparente de l’image. L’intelligence artificielle permet ici de produire un contenu suffisamment réaliste pour court-circuiter l’esprit critique, en particulier lorsqu’il circule sur les réseaux sociaux, où la vitesse de diffusion prime sur la vérification.

    La nouveauté réside moins dans l’attaque politique que dans sa forme. L’IA ne se contente plus d’amplifier un message idéologique existant. Elle crée un événement fictif, avec des visages, des gestes et une mise en scène qui donnent l’illusion du réel. La frontière entre rumeur et preuve visuelle devient floue, voire inexistante.

    L’exploitation d’un sujet hautement inflammable

    Le thème choisi n’est pas neutre. Les questions liées à l’identité de genre et aux soins médicaux pour les mineurs cristallisent des tensions profondes aux États-Unis. En associant un enfant, un traitement médical et un responsable politique, la vidéo cherche à provoquer une réaction émotionnelle immédiate, fondée sur la peur et l’indignation plutôt que sur le débat de fond.

    Ce type de mise en scène vise un objectif précis : transformer une question complexe et encadrée médicalement en un récit simplifié, moralement choquant et politiquement mobilisateur. L’IA agit comme un catalyseur, capable de donner une forme visuelle à des fantasmes ou des accusations qui, auparavant, restaient cantonnés au discours.

    La publicité en elle-même

    La publicité du Comité national républicain du Sénat (NRSC) reprend le ton d'une publicité télévisée des années 90 vendant « La collection Janet Mills ». La voix off robotique déforme ses positions politiques tandis que des vidéos générées par l'IA montrent les « conséquences » de ces politiques. La technologie d'IA générative a probablement été utilisée car il ne s'agit pas des résultats réels des politiques de Mills, et aucune vidéo réelle n'était donc disponible.

    Le premier tableau montre un garçon courant sur une piste avec plusieurs filles derrière lui et Mills agissant comme chronométreur. Mills « oblige les filles à rivaliser avec des hommes biologiques », explique la voix off, un raccourci qui a été fait parce que Mills a soutenu la participation des filles transgenres aux compétitions avec les autres filles.

    Dans la scène suivante, un garçon en polo qui semble avoir environ 8 ou 9 ans se tient dans un magasin de vêtements pour femmes tandis que Mills lui tend une boîte contenant des seringues à l'ancienne. Mills arrive avec « un kit d'œstrogènes ne nécessitant pas l'autorisation des parents », explique la voix off.

    L'hormonothérapie ne fait pas partie des soins standard pour les enfants transgenres de cet âge, et les enfants de cet âge ne peuvent pas bénéficier de beaucoup de soins médicaux sans l'autorisation de leurs parents. Mais affirmer que les démocrates veulent que de très jeunes enfants bénéficient de soins d'affirmation de genre inappropriés à leur âge a été une stratégie clé utilisée par la droite pour susciter une panique morale contre les enfants transgenres.

    La voix off ajoute ensuite que Mills « cache la vérité aux parents pendant que leurs enfants mineurs prennent des hormones sur ordonnance », tandis que la vidéo montre un garçon encore plus jeune s'injectant lui-même une seringue.

    La dernière scène montre Mills buvant du champagne dans un manteau de fourrure dans la salle d'attente d'un hôpital, tandis que la voix off accuse sa famille de tirer profit des soins d'affirmation du genre. La publicité ne contient aucune citation de Mills ni aucune référence à une loi qu'elle aurait signée, ce qui est pourtant caractéristique des publicités politiques offensives, utilisées pour donner plus de crédibilité aux accusations. Mais la vidéo générée par l'IA semble avoir pris cette place dans cette publicité, car ces vidéos réalistes fournissent la « preuve » que Mills transforme des enfants en transgenres à l'insu de leurs parents.


    L'utilisation de fausses vidéos dans les publicités politiques n'est pas illégale aux États-Unis

    La page web du NRSC consacrée à cette publicité tente d'établir certains liens avec la réalité, notamment en renvoyant vers un article sur le soutien apporté par Mills aux filles transgenres qui participent à des compétitions sportives féminines, un article sur la manière dont les adolescents plus âgés peuvent bénéficier de soins affirmant leur genre dans le Maine sans l'autorisation parentale dans certaines situations limitées, et un lien vers une autre page web du NRCS indiquant que la sœur de Mills travaille dans le secteur des soins de santé, ce qui constitue probablement leur « preuve » que Mills tire personnellement profit des soins affirmant le genre.

    L'utilisation de fausses vidéos dans les publicités politiques n'est pas illégale aux États-Unis, et le président a rendu plus difficile pour les États d'en réglementer l'utilisation. Certaines plateformes, comme YouTube – où la publicité du NRSC est publiée – exigent que l'utilisation de vidéos générées par l'IA soit divulguée. Rien sur YouTube n'indique que la publicité du NRSC est le produit d'une IA générative.

    « Les mensonges font partie de la politique depuis des temps immémoriaux », a déclaré Robert Weissman, coprésident de Public Citizen, dans une interview accordée au Guardian le mois dernier. « C'est différent des mensonges, et c'est différent de dire que votre adversaire a dit quelque chose qu'il n'a pas dit. »

    « Lorsqu'on montre à quelqu'un une version apparemment authentique d'une personne tenant des propos, il est très difficile pour cette personne de contredire ces propos et de dire "je n'ai jamais dit cela", car on demande aux gens de ne pas croire ce qu'ils ont vu de leurs propres yeux », a ajouté Weissman.

    Une stratégie de désinformation décomplexée

    L’épisode révèle une évolution préoccupante des pratiques de campagne. La désinformation n’est plus un dommage collatéral ou une dérive marginale. Elle devient une stratégie assumée, intégrée à l’arsenal politique. L’utilisation du deepfake permet de nier toute responsabilité directe, en jouant sur l’ambiguïté de la source, tout en bénéficiant de l’impact maximal du message.

    Cette logique rompt avec les attaques politiques traditionnelles, qui s’appuyaient encore, même de manière biaisée, sur des faits existants. Ici, la réalité est entièrement fabriquée. L’adversaire ne peut pas se défendre sur le fond, puisqu’il n’y a aucun fait réel à contester, seulement une image mensongère à déconstruire.

    Nom : collection.png
Affichages : 4686
Taille : 728,7 Ko

    Une menace directe pour la confiance démocratique

    À long terme, ce type de manipulation risque d’avoir un effet corrosif sur la démocratie. Si tout peut être falsifié de manière crédible, la valeur de l’image comme preuve s’effondre. Les citoyens se retrouvent pris entre deux réflexes contradictoires : croire trop vite ce qui conforte leurs opinions ou, au contraire, douter systématiquement de toute information dérangeante.

    Ce climat de suspicion généralisée profite aux acteurs les plus radicaux. Il devient possible de disqualifier toute accusation réelle en invoquant l’existence potentielle de deepfakes, tout en diffusant soi-même des contenus fabriqués lorsque cela sert ses intérêts.

    Des cadres juridiques dépassés par la technologie

    Les lois électorales et les règles de communication politique peinent à appréhender ces nouveaux objets numériques. Les deepfakes se diffusent rapidement, franchissent les frontières et échappent souvent à toute identification claire de leurs auteurs. Lorsque les autorités ou les plateformes interviennent, l’impact initial est déjà ancré dans l’opinion.

    Les entreprises technologiques tentent de développer des outils de détection, mais la course est asymétrique. Chaque progrès dans l’identification des faux est suivi d’une amélioration des techniques de génération. L’IA alimente ainsi sa propre escalade.

    Un signal d’alarme bien au-delà des États-Unis

    Cette affaire dépasse le cadre d’un affrontement partisan américain. Elle préfigure ce que pourraient devenir les campagnes électorales dans de nombreuses démocraties. À mesure que les outils d’IA générative se démocratisent, le coût de la manipulation baisse, tandis que son efficacité augmente.

    La question centrale n’est plus de savoir si ces pratiques vont se généraliser, mais comment les sociétés peuvent y répondre sans sacrifier la liberté d’expression. L’épisode de ce deepfake politique rappelle une réalité inconfortable : sans garde-fous clairs et partagés, l’intelligence artificielle risque de transformer le débat démocratique en un champ de bataille où la fiction la plus choquante l’emporte sur les faits.

    Sources : vidéo dans le texte, support YouTube, Glad Law

    Et vous ?

    Ce type de contenu est-il encore marginal ou annonce-t-il une normalisation de la falsification visuelle dans les campagnes à venir ? Peut-on imaginer des élections où chaque camp diffuse des vidéos truquées en anticipant que l’adversaire fera de même ?

    L’utilisation de deepfakes dans une logique de manipulation émotionnelle marque-t-elle une rupture définitive avec les codes traditionnels de la communication politique ? Existe-t-il encore une ligne rouge morale que les partis s’interdisent de franchir, ou la logique du « tout est permis si cela fait gagner » est-elle désormais assumée ?

    La responsabilité incombe-t-elle prioritairement aux auteurs des vidéos, aux partis qui en bénéficient, ou aux plateformes qui en assurent la diffusion virale ? Dans un écosystème numérique fragmenté, est-il encore possible d’identifier clairement une chaîne de responsabilité juridique et politique ?

    L’éducation aux médias et à l’IA peut-elle réellement suivre le rythme de l’innovation technologique ? À défaut, faut-il accepter que la charge de la preuve et de la vérification repose de plus en plus sur des institutions plutôt que sur les individus ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    152
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 152
    Par défaut
    Toutes ses réclamations légales/judiciaires ne servent qu'à une seule chose :
    - Avancer les programmes de censure et de surveillance des gouvernements (vérification d'identité, IA de modération (=censure), espionnage des messages privés).

    Les trucages ont toujours existé, même avant l'IA ou photoshop.
    La meilleure défense reste l'esprit critique et l'éducation.

  3. #3
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    389
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 389
    Par défaut
    ça y est, c'est foutu, c'est devenu quasi impossible de différencier une vidéo artificielle d'une vraie vidéo. Autant dans les autres deepfakes/pubs qui ont été médiatisés jusqu'ici je trouvais facilement des incohérences/caractéristiques dès le deuxième visionnage, autant là il faut vraiment bien chercher.
    Pas forcément que les outils soient plus performants mais ils sont "mieux" exploités : downgrade de la qualité sur certains passages, très peu de passages où des gens parlent, des plans courts qui s’enchaînent, très peu de plan avec des textes dans le décors.

  4. #4
    Membre éclairé
    Profil pro
    Inscrit en
    Décembre 2007
    Messages
    787
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2007
    Messages : 787
    Par défaut
    C'est peut être un deep fake mais les abus du wokisme n'en sont pas eux et des traitement hormonaux sont belle et bien donné a des enfants.

  5. #5
    Membre chevronné
    Homme Profil pro
    Développeur Web
    Inscrit en
    Juin 2022
    Messages
    423
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 22
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Industrie

    Informations forums :
    Inscription : Juin 2022
    Messages : 423
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    ça y est, c'est foutu, c'est devenu quasi impossible de différencier une vidéo artificielle d'une vraie vidéo. Autant dans les autres deepfakes/pubs qui ont été médiatisés jusqu'ici je trouvais facilement des incohérences/caractéristiques dès le deuxième visionnage, autant là il faut vraiment bien chercher.
    Pas forcément que les outils soient plus performants mais ils sont "mieux" exploités : downgrade de la qualité sur certains passages, très peu de passages où des gens parlent, des plans courts qui s’enchaînent, très peu de plan avec des textes dans le décors.

    Sur des vidéos courte sans trop de détail dans l'arrière plan ouais c'est de plus en plus compliqué...

    On arrive bientôt au jour ou on pourra plus savoir si c'est de l'IA ou si c'est vrai. Ca va être marrant pour le judiciaire ça xD
    Un problème sans solution est un problème mal posé. (Albert Einstein)

Discussions similaires

  1. Réponses: 9
    Dernier message: 06/11/2007, 13h36
  2. [syntaxe] Gerer les variables dans une requete
    Par rastapopulos dans le forum MS SQL Server
    Réponses: 12
    Dernier message: 15/04/2003, 13h53
  3. Réponses: 2
    Dernier message: 08/10/2002, 19h26
  4. Extraire les icônes d'une DLL
    Par Globus dans le forum MFC
    Réponses: 6
    Dernier message: 13/09/2002, 14h44
  5. gérer les jpg dans une fenetre directdraw???
    Par Anonymous dans le forum DirectX
    Réponses: 1
    Dernier message: 14/06/2002, 14h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo