Guerre contre les deepfakes : Alex Bores suggère d'authentifier le vrai plutôt que traquer le faux,
l'ex de Palantir devenu politicien propose de s'appuyer sur une logique héritée du HTTPS
Alex Bores, membre démocrate de l'Assemblée de New York actuellement candidat au Congrès dans la 12e circonscription de Manhattan, affirme que l'une des utilisations les plus alarmantes de l'intelligence artificielle, à savoir les deepfakes très réalistes, n'est pas tant une crise insoluble qu'un échec à mettre en œuvre une solution existante.
« Pouvons-nous nous passionner pour les deepfakes ? Car il s'agit d'un problème soluble et je pense que la plupart des gens passent à côté », a déclaré Bores lors d'un récent épisode du podcast Odd Lots de Bloomberg, animé par Joe Weisenthal et Tracy Alloway.
Plutôt que d'apprendre aux gens à repérer les anomalies visuelles dans les images ou les enregistrements audio falsifiés, Bores estime que les décideurs politiques et l'industrie technologique devraient s'appuyer sur une approche cryptographique bien établie, similaire à celle qui a rendu possible la banque en ligne dans les années 1990. À l'époque, les sceptiques doutaient que les consommateurs puissent un jour faire confiance aux transactions financières sur Internet. L'adoption généralisée du protocole HTTPS, qui utilise des certificats numériques pour vérifier l'authenticité d'un site web, a changé la donne.
La montée en puissance des deepfakes alimente une inquiétude diffuse mais profonde dans l’espace public. Vidéos truquées de responsables politiques, enregistrements audio fabriqués de toutes pièces, images virales impossibles à distinguer du réel : l’intelligence artificielle a fait basculer la manipulation visuelle et sonore dans une ère industrielle. Pourtant, pour Alex Bores, ancien cadre de Palantir devenu responsable politique, cette crise n’a rien d’une fatalité technologique. Elle serait avant tout le symptôme d’un retard collectif dans l’adoption d’outils pourtant bien connus de l’infrastructure du Web.
Son propos tranche avec le discours dominant, souvent alarmiste, sur une IA supposée incontrôlable. Selon lui, les deepfakes constituent un problème solvable, non pas par davantage de censure ou par une surveillance généralisée, mais par un retour à une logique simple : restaurer la confiance technique dans les contenus numériques, comme le Web l’a déjà fait il y a plusieurs décennies avec la sécurité des sites Internet.
Revenir à l’esprit d’HTTPS : quand le Web a appris à se faire confiance
Pour comprendre le raisonnement d’Alex Bores, il faut se replonger dans l’histoire du Web moderne. À la fin des années 1990 et au début des années 2000, Internet souffrait d’un déficit massif de confiance. Les internautes n’avaient aucun moyen simple de savoir si un site était authentique ou s’il s’agissait d’une imitation frauduleuse. La généralisation d’HTTPS, fondée sur des certificats numériques délivrés par des autorités reconnues, a progressivement changé la donne.
Ce mécanisme n’empêchait pas toutes les fraudes, mais il introduisait un principe fondamental : l’authenticité vérifiable. Un site pouvait prouver cryptographiquement qu’il était bien celui qu’il prétendait être. Pour Bores, la crise des deepfakes est comparable à cette période de pré-HTTPS. Les contenus circulent massivement, mais sans métadonnées fiables permettant d’identifier leur origine ou leur intégrité.
« C'était un problème soluble », a déclaré Bores. « Cette technique fonctionne essentiellement pour les images, les vidéos et les fichiers audio. »
L’authenticité du contenu plutôt que la chasse aux faux
L’un des points clés de son analyse consiste à déplacer le débat. Il ne s’agit pas, selon lui, de détecter chaque faux après coup, une tâche de plus en plus complexe à mesure que les modèles génératifs progressent. Il s’agit plutôt de certifier le vrai dès la création.
Dans cette approche, une image, une vidéo ou un fichier audio serait accompagné d’un ensemble de métadonnées cryptographiquement signées. Ces informations permettraient de savoir qui a produit le contenu, avec quel outil, à quel moment et selon quelles transformations éventuelles. Un contenu non signé ne serait pas nécessairement illégal ou interdit, mais il serait immédiatement identifiable comme non authentifié, exactement comme un site sans certificat HTTPS déclenche aujourd’hui des avertissements dans les navigateurs.
Des standards ouverts plutôt que des solutions propriétaires
Alex Bores insiste sur un point souvent négligé dans les débats technologiques : la question des standards. L’efficacité d’HTTPS ne vient pas d’une innovation secrète ou d’un produit propriétaire, mais d’un protocole ouvert, gratuit et adopté à très grande échelle.
Transposé au problème des deepfakes, ce raisonnement conduit à privilégier des standards ouverts de provenance des contenus, capables d’être intégrés aussi bien par les plateformes que par les créateurs, les médias ou les institutions publiques. L’objectif n’est pas de confier la vérité à quelques acteurs dominants, mais de bâtir une infrastructure commune de confiance, interopérable et vérifiable par tous.
Bores a évoqué une « norme libre et open source pour les métadonnées » connue sous le nom de C2PA, abréviation de Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité du contenu), qui permet aux créateurs et aux plateformes d'associer des informations d'identification inviolables aux fichiers. Cette norme permet d'enregistrer de manière cryptographique si un contenu a été capturé sur un appareil réel, généré par l'IA, et comment il a été modifié au fil du temps.
« Le défi réside dans le fait que le créateur doit l'ajouter, et il faut donc parvenir à ce que cela devienne l'option par défaut », a déclaré Bores.
Selon lui, l'objectif est de parvenir à un monde où la plupart des médias légitimes comportent ce type de données de provenance, et « si vous voyez une image qui ne comporte pas cette preuve cryptographique, vous devriez vous montrer sceptique ».
Bores a déclaré que grâce au passage du protocole HTTP au protocole HTTPS, les consommateurs savent désormais instinctivement se méfier d'un site bancaire qui ne dispose pas d'une connexion sécurisée. « Ce serait comme aller sur le site web de votre banque et ne charger que le protocole HTTP, n'est-ce pas ? Vous seriez immédiatement méfiant, mais vous pourriez tout de même produire les images. »
Une responsabilité partagée entre plateformes, États et créateurs
Cette vision implique une redéfinition des responsabilités. Les plateformes ne peuvent plus se contenter de modérer a posteriori des contenus devenus viraux. Elles devraient intégrer nativement des mécanismes de vérification de provenance et les rendre visibles pour les utilisateurs.
Les États, de leur côté, auraient un rôle d’incitation plutôt que de contrôle direct. Favoriser l’adoption de standards ouverts, exiger leur usage pour les communications officielles ou les campagnes électorales, soutenir leur intégration dans les outils grand public : autant de leviers possibles sans basculer dans une régulation liberticide.
Quant aux créateurs et aux médias, ils gagneraient un outil puissant pour se distinguer dans un écosystème saturé de contenus douteux. La certification deviendrait un avantage réputationnel, un signal de crédibilité dans un paysage informationnel fragmenté.
Les limites d’une solution pourtant pragmatique
Alex Bores ne nie pas que cette approche comporte des limites. Tous les contenus authentiques ne seront pas nécessairement signés, notamment dans les contextes militants, citoyens ou journalistiques sensibles. De plus, un contenu certifié peut rester trompeur dans son interprétation, même s’il est techniquement authentique.
Cependant, il estime que ces failles ne doivent pas masquer l’essentiel. L’objectif n’est pas de garantir la vérité absolue, mais de redonner aux citoyens des repères techniques clairs pour évaluer ce qu’ils voient. À l’image du cadenas HTTPS, la certification ne dit pas qu’un contenu est moralement ou politiquement juste, mais qu’il est bien ce qu’il prétend être.
Une réponse technique à une crise démocratique
L'IA est devenue un enjeu politique et économique central, les deepfakes suscitant une inquiétude particulière dans le cadre des élections, de la fraude financière et du harcèlement en ligne. Selon Bores, certains des cas les plus préjudiciables concernent des images à caractère sexuel non consensuelles, notamment celles ciblant des filles d'âge scolaire, où même un faux clairement identifié comme tel peut avoir des conséquences dans le monde réel. Il a fait valoir que les lois interdisant la pornographie deepfake au niveau des États, notamment à New York, risquent désormais d'être limitées par une nouvelle initiative fédérale visant à préempter les règles des États en matière d'IA.
Au fond, la thèse défendue par Alex Bores propose une lecture presque contre-intuitive de la crise des deepfakes. Là où beaucoup voient un problème essentiellement politique ou culturel, il identifie une défaillance d’infrastructure.
En réintroduisant des mécanismes simples, éprouvés et ouverts de vérification d’authenticité, l’IA générative pourrait cesser d’être perçue comme une menace incontrôlable pour devenir un outil intégré dans un cadre de confiance renouvelé. La bataille contre les deepfakes ne se jouerait alors ni dans la panique ni dans l’interdiction, mais dans la standardisation patiente et collective des fondations techniques du Web de demain.
Source : vidéo dans le texte
Et vous ?
Que pensez-vous de l'argumentaire d'Alex Bores ? Vous semble-t-il crédible ou pertinent ?
Dans quelle mesure des mécanismes d’authentification cryptographique suffisent-ils à restaurer la confiance des citoyens dans l’information, alors même que la défiance envers les institutions, les médias et les plateformes reste élevée ? Une infrastructure de confiance peut-elle compenser une crise de légitimité politique et médiatique ?
Si seuls les grands médias, les États et les grandes plateformes adoptent massivement ces standards, que devient la parole des acteurs indépendants, des lanceurs d’alerte ou des journalistes citoyens qui ne peuvent ou ne veulent pas certifier leurs contenus ? La non-certification deviendra-t-elle un soupçon par défaut ?
Même dans un modèle fondé sur des standards ouverts, la question de la gouvernance reste centrale. Qui délivre les certificats ? Selon quels critères ? Et avec quels mécanismes de recours en cas d’abus, d’erreur ou de révocation injustifiée ? Le parallèle avec HTTPS montre-t-il réellement un modèle neutre ou un équilibre fragile ?
Les grands réseaux sociaux tirent une part de leur engagement de contenus viraux, souvent émotionnels ou polarisants. Ont-ils un réel intérêt économique à afficher clairement qu’un contenu est non authentifié ou potentiellement manipulé, au risque de réduire la viralité et le temps passé ?






Que pensez-vous de l'argumentaire d'Alex Bores ? Vous semble-t-il crédible ou pertinent ?
Répondre avec citation


Partager