IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 803
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 803
    Par défaut Guerre contre les deepfakes : Alex Bores suggère d'authentifier le vrai plutôt que traquer le faux
    Guerre contre les deepfakes : Alex Bores suggère d'authentifier le vrai plutôt que traquer le faux,
    l'ex de Palantir devenu politicien propose de s'appuyer sur une logique héritée du HTTPS

    Alex Bores, membre démocrate de l'Assemblée de New York actuellement candidat au Congrès dans la 12e circonscription de Manhattan, affirme que l'une des utilisations les plus alarmantes de l'intelligence artificielle, à savoir les deepfakes très réalistes, n'est pas tant une crise insoluble qu'un échec à mettre en œuvre une solution existante.

    « Pouvons-nous nous passionner pour les deepfakes ? Car il s'agit d'un problème soluble et je pense que la plupart des gens passent à côté », a déclaré Bores lors d'un récent épisode du podcast Odd Lots de Bloomberg, animé par Joe Weisenthal et Tracy Alloway.

    Plutôt que d'apprendre aux gens à repérer les anomalies visuelles dans les images ou les enregistrements audio falsifiés, Bores estime que les décideurs politiques et l'industrie technologique devraient s'appuyer sur une approche cryptographique bien établie, similaire à celle qui a rendu possible la banque en ligne dans les années 1990. À l'époque, les sceptiques doutaient que les consommateurs puissent un jour faire confiance aux transactions financières sur Internet. L'adoption généralisée du protocole HTTPS, qui utilise des certificats numériques pour vérifier l'authenticité d'un site web, a changé la donne.


    La montée en puissance des deepfakes alimente une inquiétude diffuse mais profonde dans l’espace public. Vidéos truquées de responsables politiques, enregistrements audio fabriqués de toutes pièces, images virales impossibles à distinguer du réel : l’intelligence artificielle a fait basculer la manipulation visuelle et sonore dans une ère industrielle. Pourtant, pour Alex Bores, ancien cadre de Palantir devenu responsable politique, cette crise n’a rien d’une fatalité technologique. Elle serait avant tout le symptôme d’un retard collectif dans l’adoption d’outils pourtant bien connus de l’infrastructure du Web.

    Son propos tranche avec le discours dominant, souvent alarmiste, sur une IA supposée incontrôlable. Selon lui, les deepfakes constituent un problème solvable, non pas par davantage de censure ou par une surveillance généralisée, mais par un retour à une logique simple : restaurer la confiance technique dans les contenus numériques, comme le Web l’a déjà fait il y a plusieurs décennies avec la sécurité des sites Internet.

    Revenir à l’esprit d’HTTPS : quand le Web a appris à se faire confiance

    Pour comprendre le raisonnement d’Alex Bores, il faut se replonger dans l’histoire du Web moderne. À la fin des années 1990 et au début des années 2000, Internet souffrait d’un déficit massif de confiance. Les internautes n’avaient aucun moyen simple de savoir si un site était authentique ou s’il s’agissait d’une imitation frauduleuse. La généralisation d’HTTPS, fondée sur des certificats numériques délivrés par des autorités reconnues, a progressivement changé la donne.

    Ce mécanisme n’empêchait pas toutes les fraudes, mais il introduisait un principe fondamental : l’authenticité vérifiable. Un site pouvait prouver cryptographiquement qu’il était bien celui qu’il prétendait être. Pour Bores, la crise des deepfakes est comparable à cette période de pré-HTTPS. Les contenus circulent massivement, mais sans métadonnées fiables permettant d’identifier leur origine ou leur intégrité.

    « C'était un problème soluble », a déclaré Bores. « Cette technique fonctionne essentiellement pour les images, les vidéos et les fichiers audio. »

    L’authenticité du contenu plutôt que la chasse aux faux

    L’un des points clés de son analyse consiste à déplacer le débat. Il ne s’agit pas, selon lui, de détecter chaque faux après coup, une tâche de plus en plus complexe à mesure que les modèles génératifs progressent. Il s’agit plutôt de certifier le vrai dès la création.

    Dans cette approche, une image, une vidéo ou un fichier audio serait accompagné d’un ensemble de métadonnées cryptographiquement signées. Ces informations permettraient de savoir qui a produit le contenu, avec quel outil, à quel moment et selon quelles transformations éventuelles. Un contenu non signé ne serait pas nécessairement illégal ou interdit, mais il serait immédiatement identifiable comme non authentifié, exactement comme un site sans certificat HTTPS déclenche aujourd’hui des avertissements dans les navigateurs.


    Des standards ouverts plutôt que des solutions propriétaires

    Alex Bores insiste sur un point souvent négligé dans les débats technologiques : la question des standards. L’efficacité d’HTTPS ne vient pas d’une innovation secrète ou d’un produit propriétaire, mais d’un protocole ouvert, gratuit et adopté à très grande échelle.

    Transposé au problème des deepfakes, ce raisonnement conduit à privilégier des standards ouverts de provenance des contenus, capables d’être intégrés aussi bien par les plateformes que par les créateurs, les médias ou les institutions publiques. L’objectif n’est pas de confier la vérité à quelques acteurs dominants, mais de bâtir une infrastructure commune de confiance, interopérable et vérifiable par tous.

    Bores a évoqué une « norme libre et open source pour les métadonnées » connue sous le nom de C2PA, abréviation de Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité du contenu), qui permet aux créateurs et aux plateformes d'associer des informations d'identification inviolables aux fichiers. Cette norme permet d'enregistrer de manière cryptographique si un contenu a été capturé sur un appareil réel, généré par l'IA, et comment il a été modifié au fil du temps.

    « Le défi réside dans le fait que le créateur doit l'ajouter, et il faut donc parvenir à ce que cela devienne l'option par défaut », a déclaré Bores.

    Selon lui, l'objectif est de parvenir à un monde où la plupart des médias légitimes comportent ce type de données de provenance, et « si vous voyez une image qui ne comporte pas cette preuve cryptographique, vous devriez vous montrer sceptique ».

    Bores a déclaré que grâce au passage du protocole HTTP au protocole HTTPS, les consommateurs savent désormais instinctivement se méfier d'un site bancaire qui ne dispose pas d'une connexion sécurisée. « Ce serait comme aller sur le site web de votre banque et ne charger que le protocole HTTP, n'est-ce pas ? Vous seriez immédiatement méfiant, mais vous pourriez tout de même produire les images. »

    Une responsabilité partagée entre plateformes, États et créateurs

    Cette vision implique une redéfinition des responsabilités. Les plateformes ne peuvent plus se contenter de modérer a posteriori des contenus devenus viraux. Elles devraient intégrer nativement des mécanismes de vérification de provenance et les rendre visibles pour les utilisateurs.

    Les États, de leur côté, auraient un rôle d’incitation plutôt que de contrôle direct. Favoriser l’adoption de standards ouverts, exiger leur usage pour les communications officielles ou les campagnes électorales, soutenir leur intégration dans les outils grand public : autant de leviers possibles sans basculer dans une régulation liberticide.

    Quant aux créateurs et aux médias, ils gagneraient un outil puissant pour se distinguer dans un écosystème saturé de contenus douteux. La certification deviendrait un avantage réputationnel, un signal de crédibilité dans un paysage informationnel fragmenté.

    Les limites d’une solution pourtant pragmatique

    Alex Bores ne nie pas que cette approche comporte des limites. Tous les contenus authentiques ne seront pas nécessairement signés, notamment dans les contextes militants, citoyens ou journalistiques sensibles. De plus, un contenu certifié peut rester trompeur dans son interprétation, même s’il est techniquement authentique.

    Cependant, il estime que ces failles ne doivent pas masquer l’essentiel. L’objectif n’est pas de garantir la vérité absolue, mais de redonner aux citoyens des repères techniques clairs pour évaluer ce qu’ils voient. À l’image du cadenas HTTPS, la certification ne dit pas qu’un contenu est moralement ou politiquement juste, mais qu’il est bien ce qu’il prétend être.

    Une réponse technique à une crise démocratique

    L'IA est devenue un enjeu politique et économique central, les deepfakes suscitant une inquiétude particulière dans le cadre des élections, de la fraude financière et du harcèlement en ligne. Selon Bores, certains des cas les plus préjudiciables concernent des images à caractère sexuel non consensuelles, notamment celles ciblant des filles d'âge scolaire, où même un faux clairement identifié comme tel peut avoir des conséquences dans le monde réel. Il a fait valoir que les lois interdisant la pornographie deepfake au niveau des États, notamment à New York, risquent désormais d'être limitées par une nouvelle initiative fédérale visant à préempter les règles des États en matière d'IA.

    Au fond, la thèse défendue par Alex Bores propose une lecture presque contre-intuitive de la crise des deepfakes. Là où beaucoup voient un problème essentiellement politique ou culturel, il identifie une défaillance d’infrastructure.

    En réintroduisant des mécanismes simples, éprouvés et ouverts de vérification d’authenticité, l’IA générative pourrait cesser d’être perçue comme une menace incontrôlable pour devenir un outil intégré dans un cadre de confiance renouvelé. La bataille contre les deepfakes ne se jouerait alors ni dans la panique ni dans l’interdiction, mais dans la standardisation patiente et collective des fondations techniques du Web de demain.

    Source : vidéo dans le texte

    Et vous ?

    Que pensez-vous de l'argumentaire d'Alex Bores ? Vous semble-t-il crédible ou pertinent ?

    Dans quelle mesure des mécanismes d’authentification cryptographique suffisent-ils à restaurer la confiance des citoyens dans l’information, alors même que la défiance envers les institutions, les médias et les plateformes reste élevée ? Une infrastructure de confiance peut-elle compenser une crise de légitimité politique et médiatique ?

    Si seuls les grands médias, les États et les grandes plateformes adoptent massivement ces standards, que devient la parole des acteurs indépendants, des lanceurs d’alerte ou des journalistes citoyens qui ne peuvent ou ne veulent pas certifier leurs contenus ? La non-certification deviendra-t-elle un soupçon par défaut ?

    Même dans un modèle fondé sur des standards ouverts, la question de la gouvernance reste centrale. Qui délivre les certificats ? Selon quels critères ? Et avec quels mécanismes de recours en cas d’abus, d’erreur ou de révocation injustifiée ? Le parallèle avec HTTPS montre-t-il réellement un modèle neutre ou un équilibre fragile ?

    Les grands réseaux sociaux tirent une part de leur engagement de contenus viraux, souvent émotionnels ou polarisants. Ont-ils un réel intérêt économique à afficher clairement qu’un contenu est non authentifié ou potentiellement manipulé, au risque de réduire la viralité et le temps passé ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 374
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 374
    Par défaut
    Que pensez-vous de l'argumentaire d'Alex Bores ? Vous semble-t-il crédible ou pertinent ?
    Je suis partagé. D'un côté, je suis totalement d'accord avec lui sur le fait que des mécanismes répressifs ne serviront à rien, n’endigueront rien à long nu même à moyen terme. J'irais même plus loin que lui : mettre en places une répression risque de devenir un énième prétexte pour s'en prendre à la liberté individuel, que se soit en mettant en place une surveillance massive des utilisateurs de modèle IA, et/ou en restreignant de facto considérablement la liberté artistique/d'expression.

    D'un autre côté, je pense qu'il est illusoire de penser que même si un mécanisme de certification aussi fiable que l'https existait pour les médias (par média, je pale des photos, vidéos et enregistrements audio), les gens l'utiliserait massivement, pour des raison évidente de confidentialité. Par exemple, si je poste une photo de moi sur un réseau social, ou un blog personnel, en fonction du contexte, je ne vais pas spécialement avoir envie que l'on sache où j'étais, le jour, la date, l'heure... Un tel système de vérification ne sera probablement utilisé que dans des communications officielles, où par quelqu'un témoins de crime, qui aura besoin de prouver l’authenticité des preuves qu'il apporte. Cette certification pourrait potentiellement éviter certains problème, mais il me semble illusoire de penser qu'elle aurait un champ d'action efficace en dehors de certains cas particuliers.

    Pour prendre deux cas concret où cela ne fonctionnerai pas :
    - Un proche ou collaborateur d'un politicien divulgue (au public, à la justice, ou les deux) une vidéo authentique de ce politicien entrain de tremper dans une affaire de corruption ; il y a fort à parier que cette vidéo ne sera pas certifiée, le politicien n'ayant eu aucun intérêt et ce qu'elle soit certifiée, au cas où elle serait divulguée un jour. Dans ce cas, la justice aura de grandes difficultés à se positionner.
    - Quelqu'un est victime d'une divulgation non-consentie d'une vidéo intime authentique ; elle ne sera probablement pas certifiée, la victime ayant tout intérêt a pouvoir soit prétexter que cette vidéo serait soi-disant fausse, soit assumer et dire que cette vidéo est authentique, mais afin que les détails de la vidéo (date, heure, lieu...) n'y apparaissent pas.

    La "solution" serait donc de rendre cette certification obligatoire : sauf que dans ce cas, on tomberait vite dans un système de surveillance de masse, où il serait possible de remonter la vie de chaque personne, simplement en accédant a ses photos/vidéos/enregistrements personnel, ce qui conduisant inexorablement à un état policier autoritaire, voir totalitaire, et à une recrudescence inédite des vols de données, et des fins de chantage et/ou de doxing. Même une certification générée "par défaut" pourrait suffire à créer un système totalitaire de surveillance, la suppression de cette certification devenant de facto suspecte pour des autorités.

    De manière plus générale, je pense que si les deepfake posent clairement un problème, et continueront d'en poser un, ils ne sont qu'un problème minime en comparaison des risques que pose l’utilisation de l'IA à des fins de surveillance de masse, et de censure automatisée. L'utilisation de l'IA, générative ou non, par des structures possédant du pouvoir (états, armées, services secret, entreprises...), m’apparaît infiniment plus dangereuse que n'importe quel abus commis par des individus à l'ide de l'IA. C'est clairement là-dessus que les lanceurs d'alertes spécialiste du sujet devraient alerter en priorité. Je pense que trop se focaliser sur des problèmes secondaire risques même d'occulter le problème principal ; pire, certains moyens de résolution de ces problèmes secondaire peuvent être une aggravation du problème principal (surveillance des médias, public voir privés, détection automatique du contenu via IA...)

    Un autre souci, est que Bores lui-même avoue que son idée technologique ne suffirait pas à chaque cas :

    Citation Envoyé par Alex Bores
    L'IA est devenue un enjeu politique et économique central, les deepfakes suscitant une inquiétude particulière dans le cadre des élections, de la fraude financière et du harcèlement en ligne. Selon Bores, certains des cas les plus préjudiciables concernent des images à caractère sexuel non consensuelles, notamment celles ciblant des filles d'âge scolaire, où même un faux clairement identifié comme tel peut avoir des conséquences dans le monde réel. Il a fait valoir que les lois interdisant la pornographie deepfake au niveau des États, notamment à New York, risquent désormais d'être limitées par une nouvelle initiative fédérale visant à préempter les règles des États en matière d'IA.
    Cela m’amène a un dernier point :

    Je pense que les technologies d'IA générative n'en sont qu'à leur balbutiement, et qu'il serait très difficile, pour ne pas dire impossible d'arrêter cette marche. Il m’apparaît donc fort probable qu'un nouveau rapport aux médias, à la preuve, a la satire, et à la valeur du média, émerge. Peut-être un changement aussi important que celui ayant eu lieu part l'arrivée de l'imprimerie.
    Un rapport où un trucage évident n'aura plus de valeur offensante pour la victime, car la banalité de la chose rendra le trucage risible.
    Un nouveau rapport à la preuve, où il ne sera plus possible de prouver quoi que ce soit par des médias. Hors l'espèce humaine ne peut pas sombrer dans un chaos de violence généralisée, sans justice, elle sera contrainte de s'adapter, et de bâtir un nouveau rapport à la confiance, une plus grande honnêteté de par la plus grande difficulté de prouver certains délits ou crimes.
    Dans le même temps, la possibilité de faire chanter quelqu'un avec des images disparaîtra inexorablement, ce qui enlèvera de la culture une catégorie très large de violences.

Discussions similaires

  1. vrai langage reseau
    Par staul dans le forum Langages de programmation
    Réponses: 5
    Dernier message: 08/07/2004, 02h16
  2. requete sql : un vrai "et" booléen
    Par claquetteman dans le forum Langage SQL
    Réponses: 8
    Dernier message: 27/04/2004, 15h54
  3. Réponses: 3
    Dernier message: 11/02/2004, 13h50
  4. Vrai/Faux
    Par jfox dans le forum Débuter
    Réponses: 5
    Dernier message: 23/09/2003, 10h04
  5. Réponses: 3
    Dernier message: 16/06/2003, 17h51

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo