Objectivement Joe Biden raconte plus de conneries que Trump, puisque Joe Biden a des problèmes de mémoire (officiellement, en réalité ça doit bien être pire que ça).
Si j'ai bien compris le truc, aux USA il y a une histoire de système biparti, en gros il y a 2 gros partis : démocrate et républicain, le reste est appelé tiers parti (third party).
Les petits partis sont quasiment ignorés.
En France c'est pas exactement pareil, sinon chaque second tour se finirait en PS vs LR.
En 2017 et en 2022 il n'y avait ni PS, ni LR.
En 2017 le PS a préféré soutenir Macron que de soutenir son candidat : Benoît Hamon.
Depuis il fait des petits scores. En 2022 le PS s'est fait battre par Debout la France, Parti communiste français, Résistons !, Europe-Ecologie-Les Verts, Les Républicains, Reconquête, La France insoumise, etc. (si le PS continu comme ça il pourrait finir par faire faillite)
=====
En France il n'y a pas toujours de système de primaire (il y a eu des primaires LR et des primaires PS en 2017 et les gens ont choisi Fillon et Hamon (alors que les partis espéraient Juppé et Valls)).
Aux USA les candidats républicains se disent tous "j'abandonne je ne peux pas lutter contre Trump, il est beaucoup trop populaire".
En France il y a Taubira qu'arrive et qui se présente en plus de Jospin.
Ce serait intéressant que les petits partis de gauche (PS, EELV, PCF, LO, NPA) ne se présentent pas et laissent la place à François Ruffin.
Parfois il n'y a pas de candidat EELV, parfois il n'y a pas de candidat PCF, donc il est tout à fait possible de ne pas se présenter.
Si un candidat, comme François Ruffin par exemple, arrivait à motiver les abstentionnistes à voter, il pourrait atteindre le second tour.
LFI n'est pas si loin du pouvoir que ça.
====
Bref, tout ça pour dire que j'aime bien le première tour, parce que parfois il y a Jean Lassalle, parfois il y a François Asselineau, je trouve ça cool.
1. Je n'ai jamais regardé cette chaine
2. Elle ne soutient pas Trump
Même les gens qui votent pour le parti démocrate reconnaissent que la santé mentale de Biden est inquiétante.
C'est dans tous les médias.
‘Hair on fire’: Democratic worries grow over claims about Biden’s memory lapses
Biden’s age and fitness top the list of voters’ concerns, poll finds
Les électeurs démocrates seraient plus content avec un autre candidat. Si c'était Kamala Harris à la place de Biden ils seraient satisfait.
Là ils se disent tous "putain notre candidat est quand même bien pourri".
Du côté de Trump c'est différent, le parti Républicain n'aime pas Trump, mais le peuple aime Trump.
Tump est en forme, il sait où il est, il tient debout, ses propos sont cohérents.
Biden est pire que le personnage Thomas 'Tug' Benson.
Ils sont tellement dans cet état d'esprit que : Biden remporte aisément la première primaire en Caroline du sud
Non, ce sont les suprémacistes et les complotistes, qui aiment Trump. La victoire de Trump aux primaires pourraient d'ailleurs permettre à Biden de gagner plus facilement. En effet, les indécis et les Républicains modérés ne souhaitent pas s'engager avec Trump, et donc risquent de s'abstenir, voire de voter Biden. Trump est la meilleure chance de victoire de Biden.
Aussi cohérents que les tiens en général, je confirme. Ça se place donc entre le "grand n'importe quoi" et le "ridicule absolu".
Il y a une grosse différence entre les moyens et le résultat.
Si Biden et Trump mentent autant et que l'un n'a plus les moyens de faire autrement alors il est plus honnête que l'autre.
Les Américains se retrouvent devant un cas encore plus difficile que nous : choisir entre un mythomane et un sénile.
C'était le cas depuis longtemps en France, on est passé en système triparti depuis quelques années.Si j'ai bien compris le truc, aux USA il y a une histoire de système biparti, en gros il y a 2 gros partis : démocrate et républicain, le reste est appelé tiers parti (third party).
Est ce que le système américain le permettrait? (je ne suis pas sûr parce qu'on dirait que les démocrates et les républicains ont une capacité de soutien tellement énorme qu'elle garanti leur duopole)
Ou en 2022 Taubira qui est élue sans se présenter qui fait illusion 3 jours et qui démissionne.En France il y a Taubira qu'arrive et qui se présente en plus de Jospin.
je ne répond pas à la suite parce qu'on dérive de la discussion et tu vas finir pas nous accuser de te harceler dans un débat hors sujet
Ils sont fous.
Ou alors les primaires démocrates sont truquées.
Il y a un problème quelque part, c'est pas normal de vouloir que Biden se présente à nouveau.
Prenez cet article du 08 février 2024 par exemple :
Pas de charges retenues contre Joe Biden pour rétention de documents classifiés, le président répond
Quand la justice arrive et dit "laissez tomber, il ne sait plus où il est, ça ne sert à rien de le condamner" normalement on change de candidat.Le procureur spécial décrit le président américain comme un « homme âgé avec une mauvaise mémoire », et conclut qu’« une inculpation ne se justifierait pas ». Dans la soirée, Biden, en colère, a affirmé ne pas avoir de problèmes de mémoire.
Si Biden devient le nouveau candidat démocrate, c'est vraiment que le système politique US est une blague.
Normalement on n'envoie pas un candidat complétement sénile à une élection présidentielle.
Vidéo de mars 2020 (c'est pas un deep fake, ce sont des vrais extraits audio) :
Sa santé mentale n'a fait que se dégrader depuis. Vu que c'est aux USA il ne serait pas étonnant que des médecins lui prescrivent des amphétamines et ça ne doit pas tellement lui faire du bien.
C'est faux, sinon il n'aurait gagné aucune primaire, il n'aurait pas été élu président.
Aujourd'hui il bat des records, il y a des étasuniens de tous bords qui pensent que c'est le meilleur candidat.
Pour énormément d'étasuniens son bilan est excellent alors que celui de Biden est catastrophique.
Ouais Trump est clairement plus honnête que Biden, c'est clair.
Je ne suis pas d'accord.
En France ça ne fonctionne pas comme ça.
Normalement tous les partis sont égaux.
Lors des campagnes :
Le NPA doit être autant médiatisé que le RN.
LO doit être autant médiatisé que LREM.
Asselineau doit être autant respecté que Macron.
Jean Lasalle doit être autant respecté que le ou la candidate PS.
Normalement il y a une histoire d'équité et d'égalité entre tous les partis.
Aucun média ne devrait dire "les favoris sont le RN et LREM".
Si les règles étaient respectées, pendant les campagnes, tous les partis devraient être sur un pied d'égalité, les médias ne devraient pas accorder plus de temps à l'ensemble des gens d'LREM qu'au candidat LO.
On devrait voir autant Nathalie Arthaud qu'on voit Macron, Darmanin, Attal, Philippe et tous les autres connards.
Arf, tant qu'on est à dire que Biden est sénile, c'est un peu en rapport avec le topic.
Parce que :
Les images qui montrent à quel point Biden a perdu la tête ne sont pas truquées, c'est la réalité.
Il est incapable de lire prompteur et il pourrait être le prochain candidat du parti démocrate, c'est n'importe quoi.
Envoyer Biden c'est chercher à perdre, il n'y a pas pire candidat.
Ou alors ses électeurs sont plus fous que lui.
Ce qui n'est pas impossible vu la merde que fait le parti démocrate…
Pour être satisfait de cette politique il faut avoir un grain.
Comme dirait Elon Musk :
https://twitter.com/elonmusk/status/1757264224512798913
And we are only 6 weeks into 2024!
Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu
Au moins six grandes entreprises technologiques prévoient de signer cette semaine un accord qui guiderait la manière dont elles tentent de mettre un terme à l'utilisation d'outils d'intelligence artificielle pour perturber les élections démocratiques.
L'événement à venir lors de la conférence sur la sécurité de Munich en Allemagne intervient alors que plus de 50 pays doivent organiser des élections nationales en 2024.
Des tentatives d'ingérence électorale générées par l'IA ont déjà commencé, comme lorsque des robocalls imitant la voix du président américain Joe Biden ont tenté de décourager les gens de voter lors des élections primaires du New Hampshire le mois dernier.
"En cette année cruciale pour les élections mondiales, les entreprises technologiques travaillent sur un accord visant à lutter contre l'utilisation trompeuse de l'IA ciblant les électeurs", a déclaré le mardi 13 février une déclaration commune de plusieurs entreprises. "Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres travaillent conjointement pour progresser sur cet objectif commun et nous espérons finaliser et présenter les détails vendredi lors de la Conférence de Munich sur la sécurité."
Les entreprises ont refusé de donner des détails sur le contenu de l'accord. Nombre d'entre elles ont déjà déclaré qu'elles mettaient en place des mesures de protection pour leurs propres outils d'IA générative qui peuvent manipuler des images et des sons, tout en s'efforçant d'identifier et d'étiqueter les contenus générés par l'IA afin que les utilisateurs des médias sociaux sachent si ce qu'ils voient est réel.
X, la plateforme anciennement connue sous le nom de Twitter, n'a pas été mentionnée dans la déclaration.
Source : Déclaration commune de plusieurs entreprises dont Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres, lors la conférence de Munich sur la sécurité
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de cette initiative, trouvez-vous qu'elle est appropriée et pertinente ?
Pensez-vous que cette initiative lancée par les entreprises technologiques soit suffisante pour lutter contre l'ingérence de l'IA dans le processus électoral ?
Voir aussi :
Des agents chinois sont soupçonnés d'utiliser des images générées par l'IA pour désinformer les électeurs américains, selon un rapport de Microsoft
Le gouvernement irlandais craint que l'IA ne soit utilisée pour diffuser des infox à l'approche des élections, il estime que cela pourrait influencer le vote des électeurs et saper la démocratie
OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024, en s'appuyant sur des programmes de vérification des informations et d'authenticité des images
Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives
"Vous ne pouvez pas croire toutes les vidéos que vous voyez", selon Brad Smith, vice-président de Microsoft, il indique comment lutter contre le contenu abusif de l'IA et les deepfakes malveillants.
Microsoft a découvert que ses propres outils étaient utilisés par des acteurs malveillants dans un épisode récemment médiatisé. Microsoft indique dans un billet de blog que l'entreprise "s'est engagée à adopter une approche solide et globale", citant six domaines d'action différents. Brad Smith, le vice-président de Microsoft écrit que "nous devons agir de toute urgence pour lutter contre tous ces problèmes".
Nous assistons actuellement à une expansion rapide de l'utilisation abusive des nouveaux outils d'IA par des acteurs malveillants", écrit Brad Smith, vice-président de Microsoft, "notamment par le biais de deepfakes basés sur des vidéos, des sons et des images générés par l'IA". Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par le biais de la pornographie non consensuelle et la nouvelle génération de cyberintimidation.
Chaque jour, des millions de personnes utilisent de puissants outils d'IA générative pour stimuler leur expression créative. À bien des égards, l'IA offrira à chacun des possibilités passionnantes de donner vie à de nouvelles idées. Toutefois, à mesure que ces nouveaux outils sont commercialisés par Microsoft et l'ensemble du secteur technologique, on doit prendre de nouvelles mesures pour nous assurer que ces nouvelles technologies résistent aux abus.
L'histoire de la technologie montre depuis longtemps que la créativité n'est pas l'apanage des personnes bien intentionnées. Les outils deviennent malheureusement aussi des armes, et ce schéma se répète. On assiste actuellement à une expansion rapide de l'utilisation abusive de ces nouveaux outils d'IA par des acteurs malveillants, notamment par le biais de "deepfakes" basés sur des vidéos, des sons et des images générés par l'IA. Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par la pornographie non consensuelle et la nouvelle génération de cyberintimidation.
On doit agir de toute urgence pour lutter contre tous ces problèmes. Voici l'approche de Microsoft pour lutter contre les contenus abusifs générés par l'IA :
Source : Brad Smith, vice-président de MicrosoftIl est encourageant de constater que nous pouvons tirer de nombreux enseignements de notre expérience en tant qu'industrie dans des domaines adjacents : faire progresser la cybersécurité, promouvoir la sécurité des élections, lutter contre les contenus extrémistes violents et protéger les enfants. En tant qu'entreprise, nous nous engageons à adopter une approche solide et globale qui protège les personnes et nos communautés, en nous appuyant sur six domaines d'action :
- Une architecture de sécurité solide. Nous nous engageons à adopter une approche technique globale fondée sur la sécurité dès la conception. Selon le scénario, une architecture de sécurité solide doit être appliquée au niveau de la plateforme d'IA, du modèle et des applications. Elle comprend des aspects tels que l'analyse continue de l'équipe rouge, les classificateurs préemptifs, le blocage des invites abusives, les tests automatisés et l'interdiction rapide des utilisateurs qui abusent du système. Elle doit s'appuyer sur une analyse de données solide et étendue. Microsoft a mis en place une architecture solide et partagé ses connaissances par le biais de ses normes en matière d'IA responsable et de sécurité numérique, mais il est clair que nous devrons continuer à innover dans ces domaines au fur et à mesure que la technologie évolue.
- Provenance durable des médias et filigrane. C'est essentiel pour lutter contre les "deepfakes" dans la vidéo, les images ou l'audio. L'année dernière, lors de notre conférence Build 2023, nous avons annoncé des capacités de provenance des médias qui utilisent des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA avec des métadonnées sur sa source et son historique. Avec d'autres grandes entreprises, Microsoft a joué un rôle de premier plan dans la recherche et le développement de méthodes d'authentification de la provenance, notamment en tant que cofondateur du projet Origin et de l'organisme de normalisation Coalition for Content Provenance and Authenticity (C2PA). La semaine dernière, Google et Meta ont pris des mesures importantes pour soutenir la C2PA, mesures que nous apprécions et applaudissons.
Nous utilisons déjà la technologie de provenance dans les outils de création d'images Microsoft Designer dans Bing et dans Copilot, et nous sommes en train d'étendre la provenance des médias à tous nos outils qui créent ou manipulent des images. Nous étudions également activement les techniques de filigrane et d'empreinte digitale qui contribuent à renforcer les techniques de provenance. Nous nous engageons à poursuivre l'innovation afin d'aider les utilisateurs à déterminer rapidement si une image ou une vidéo a été générée ou manipulée par l'IA.
- Protéger nos services contre les contenus et les comportements abusifs. Nous nous engageons à protéger la liberté d'expression. Mais cela ne devrait pas protéger les individus qui cherchent à imiter la voix d'une personne pour escroquer l'argent d'une personne âgée. Elle ne doit pas s'étendre aux "deepfakes" qui modifient les actions ou les déclarations de candidats politiques pour tromper le public. Elle ne doit pas non plus protéger un cyber-homme de main ou un distributeur de pornographie non consensuelle. Nous nous engageons à identifier et à supprimer les contenus trompeurs et abusifs de ce type lorsqu'ils se trouvent sur nos services hébergés destinés aux consommateurs, tels que LinkedIn, notre réseau de jeux et d'autres services pertinents.
- Une collaboration solide entre les entreprises et avec les gouvernements et la société civile. Bien que chaque entreprise soit responsable de ses propres produits et services, l'expérience montre que c'est souvent lorsque nous travaillons ensemble pour un écosystème numérique plus sûr que nous obtenons les meilleurs résultats. Nous nous engageons à travailler en collaboration avec d'autres acteurs du secteur technologique, notamment dans les domaines de l'IA générative et des médias sociaux. Nous nous engageons également à déployer des efforts proactifs avec les groupes de la société civile et à collaborer de manière appropriée avec les gouvernements.
Pour aller de l'avant, nous nous appuierons sur notre expérience de la lutte contre l'extrémisme violent dans le cadre de l'appel de Christchurch, sur notre collaboration avec les forces de l'ordre par l'intermédiaire de notre unité de lutte contre la criminalité numérique, et sur nos efforts pour mieux protéger les enfants dans le cadre de l'alliance mondiale WeProtect et d'une manière plus générale. Nous sommes déterminés à prendre de nouvelles initiatives dans l'ensemble du secteur technologique et avec d'autres groupes de parties prenantes.
- Une législation modernisée pour protéger les personnes contre l'utilisation abusive des technologies. Il est déjà évident que certaines de ces nouvelles menaces nécessiteront l'élaboration de nouvelles lois et de nouveaux efforts de la part des forces de l'ordre. Nous sommes impatients de contribuer aux idées et de soutenir les nouvelles initiatives des gouvernements du monde entier, afin de mieux protéger les internautes tout en respectant des valeurs intemporelles telles que la protection de la liberté d'expression et de la vie privée.
- Sensibilisation et éducation du public. Enfin, une défense solide nécessitera un public bien informé. À l'approche du deuxième quart du XXIe siècle, la plupart des gens ont appris qu'il ne faut pas croire tout ce que l'on lit sur l'internet (ou ailleurs). Une combinaison de curiosité et de scepticisme bien informé est une compétence essentielle pour tout le monde.
De la même manière, nous devons aider les gens à reconnaître qu'il ne faut pas croire toutes les vidéos que l'on voit ou tous les sons que l'on entend. Nous devons aider les gens à apprendre à repérer les différences entre un contenu légitime et un contenu falsifié, y compris en ce qui concerne le filigrane. Cela nécessitera de nouveaux outils et programmes d'éducation du public, notamment en étroite collaboration avec la société civile et les dirigeants de l'ensemble de la société.
En fin de compte, rien de tout cela ne sera facile. Il faudra déployer des efforts difficiles mais indispensables chaque jour. Mais avec un engagement commun en faveur de l'innovation et de la collaboration, nous pensons que nous pouvons tous travailler ensemble pour faire en sorte que la technologie reste en tête dans sa capacité à protéger le public. Peut-être plus que jamais, tel doit être notre objectif collectif.
Et vous ?
Pensez-vous que cette approche de Microsoft est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu
Microsoft comble la lacune qui a causé l'incident "Taylor Swift", avec plus de protections pour Designer. Le générateur d'images par IA était utilisé pour produire des images pornographiques
Conférence développeurs et IT Pro Ignite 2023 : Microsoft dévoile sa stratégie pour l'IA, le Cloud, et la sécurité, ainsi que pour Windows, Copilot, ChatGPT, GTP-4, Azure, et Microsoft Office 365
Le président Joe Biden demande l'interdiction des imitations vocales par l'IA après des incidents préoccupants.
Une mesure de sécurité ou une entrave à l’innovation ?
Dans un monde de plus en plus numérisé, la question de l’authenticité et de la sécurité des voix synthétisées par intelligence artificielle (IA) prend une importance capitale. Récemment, le président Joe Biden a abordé cette problématique lors de son discours sur l’état de l’Union, appelant à une interdiction des imitations vocales par l’IA. Cette proposition fait suite à des incidents préoccupants, tels que l’utilisation d’appels robotisés imitant la voix du président pour dissuader les électeurs lors des primaires dans le New Hampshire2. Ces événements soulignent les risques potentiels associés à la technologie deepfake, notamment en matière de désinformation et de fraude.
La société s'interroge peut-être sur la manière de réglementer l'IA. Mais le président Biden est déjà convaincu que les États-Unis doivent interdire la capacité de cette technologie à imiter la voix des gens. Lors de son discours sur l'état de l'Union, jeudi, Biden n'a mentionné l'IA qu'à deux reprises au cours de son intervention d'une heure. Il a toutefois souligné que l'usurpation de la voix par l'IA constituait une menace à laquelle il fallait mettre un terme.
« Exploitez les promesses de l'IA et protégez-nous du danger. Interdisez les usurpations d'identité par l'IA et bien plus encore », a-t-il déclaré vers la fin de son discours.
Ce discours intervient plus d'un mois après qu'un robot téléphonique imitant la voix de Biden a été utilisé pour décourager les électeurs des primaires dans le New Hampshire. Ironiquement, ce n'était pas l'œuvre d'escrocs ou de propagandistes étrangers. C'est un consultant politique démocrate, Steve Kramer, qui a admis avoir orchestré ces appels pour attirer l'attention sur la menace que représente l'usurpation de la voix de l'IA.
« Je suis peut-être un méchant aujourd'hui, mais je pense qu'en fin de compte, nous aurons un meilleur pays et une meilleure démocratie grâce à ce que j'ai fait, délibérément », a déclaré Kramer à l'Associated Press.
Jusqu'à présent, l'administration Biden a tenté de réprimer l'usurpation d'identité vocale par l'IA par l'intermédiaire de la FCC. Le mois dernier, le régulateur américain a confirmé que les appels vocaux générés par l'IA violaient les lois américaines existantes conçues pour protéger les consommateurs contre les appels automatisés préenregistrés. Mais cette décision n'empêche en rien les acteurs malveillants de diffuser des "deepfakes" sur l'internet.
Aucune sanction éventuelle n'a été évoquée
Lors de son discours sur l'état de l'Union, le président Joe Biden a fait un clin d'œil à un problème croissant dans les secteurs du divertissement et de la technologie, en appelant à l'interdiction des imitations vocales par l'IA.
« Ici, chez nous, j'ai signé plus de 400 projets de loi bipartisans. Il en reste encore pour faire passer mon programme d'unité », a déclaré le président Biden, en commençant à énumérer une série de propositions différentes qu'il espère aborder s'il est élu pour un second mandat. « Renforcer les sanctions contre le trafic de fentanyl, adopter une législation bipartisane sur la protection de la vie privée pour protéger nos enfants en ligne, exploiter les promesses de l'intelligence artificielle pour nous protéger des dangers, interdire les usurpations de voix par l'intelligence artificielle, etc. »
Le président n'a pas précisé les types de garde-fous ou de sanctions qu'il prévoyait d'instaurer autour de cette technologie en plein essor, ni s'ils s'étendraient à l'industrie du divertissement. L'IA a été l'une des principales préoccupations de la SAG-AFTRA lors des négociations et de la grève du syndicat des acteurs contre les grands studios l'année dernière. Les négociations se sont finalement conclues par un accord établissant des exigences en matière de consentement et de rémunération pour les productions qui utilisent l'IA pour reproduire les ressemblances et les voix des acteurs. Toutefois, l'accord n'empêche pas les studios d'entraîner les systèmes d'IA à créer des interprètes « synthétiques » qui ne ressemblent en rien à des personnes réelles.
Plusieurs projets de loi en cours, les défenseurs des droits numérique tirent la sonnette d'alarme
Entre-temps, les législateurs américains ont proposé au moins deux projets de loi pour tenter de mettre un terme à l'usurpation de la voix de l'IA. L'un d'entre eux, le No AI Fraud Act des représentantes María Elvira Salazar (R-FL) et Madeleine Dean (D-PA), propose d'autoriser les personnes à poursuivre les fabricants de ces imitations pour obtenir des dommages-intérêts. Toutefois, l'Electronic Frontier Foundation, un groupe de défense de la vie privée, a critiqué la formulation de la loi, la jugeant trop vague et trop large et susceptible d'englober tous les types de médias numériques contenant l'image d'une personne.
« Si le Congrès veut vraiment protéger les artistes-interprètes et les gens ordinaires contre les utilisations trompeuses ou abusives de leurs images et de leur voix, il devrait adopter une approche précise, prudente et pratique qui évite les dommages collatéraux potentiels à la liberté d'expression, à la concurrence et à l'innovation », a ajouté l'EFF.
Au Sénat, la loi DEFIANCE (Disrupt Explicit Forged Images and Non-Consensual Edits) créerait un « recours civil fédéral » pour les victimes de "deepfake porn". Elle couvre « les contrefaçons numériques qui représentent la victime nue, ou engagée dans un comportement sexuellement explicite ou des scénarios sexuels » créés par des logiciels, l'apprentissage automatique, l'intelligence artificielle et d'autres moyens technologiques ou générés par ordinateur.
Des escroqueries qui s'appuient sur l'IA pour cloner les voix de vos proches et simuler une situation de rançon
Récemment, une femme nommée Robin a reçu un coup de fil semblant provenir de sa belle-mère, Mona, qui, pourtant, ne l'appelait jamais après minuit. Elle s'est dit qu'il s'agissait probablement d'une fausse manipulation et l'a ignoré. Mais son numéro l'a rappelée. Face à l'insistance, elle a décroché et, à l'autre bout du fil, elle a entendu la voix de Mona qui se lamentait et répétait les mots « Je ne peux pas le faire, je ne peux pas le faire ». « J'ai cru qu'elle essayait de me dire qu'une chose horrible et tragique s'était produite »; a expliqué Robin.
La première pensée de Robin a été qu'il y avait eu un accident. Puis elle a entendu ce qui semblait être la voix de son beau-père, Bob, au téléphone. « Mona, passe-moi le téléphone », a dit la voix de Bob, puis s'adressant à Robin, « va chercher Steve [son mari] ». Elle s'est exécutée et a réveillé son mari : « Je crois que c'est ta mère », lui dit-elle. « Je pense qu'elle me dit que quelque chose de terrible est arrivé ».
Lorsqu'il a pris le téléphone, il a entendu une voix masculine détendue à l'autre bout du fil : « Tu ne vas pas appeler la police, tu ne vas le dire à personne. J'ai un pistolet sur la tempe de ta mère et je vais lui faire sauter la cervelle si tu ne fais pas exactement ce que je te dis ».
L'homme a demandé de l'argent; il voulait cinq cents dollars, envoyés par Venmo. « C'était une somme tellement insensée pour un être humain », se souvient Steve. « Mais aussi : Il est évident que je vais payer cette somme ».
Après que Steve a envoyé les cinq cents dollars, l'homme lui a fait envoyé 250 dollars de plus. Puis, environ 25 minutes après l'échange téléphonique, il a appelé sa mère pour s'assurer que ses parents étaient désormais en sécurité. Après quelques tentatives, son père Bob a décroché le téléphone et l'a tendu à Mona. « Tu es à la maison ? Tu vas bien ? » Lui a demandé Steve.
Mona avait l'air d'aller bien, mais elle ne savait pas de quoi ils parlaient. « Oui, je suis couchée », a-t-elle répondu. « Pourquoi ? »
Ils venaient de se faire escroquer.
Cette arnaque est un exemple alarmant de la tendance croissante à l’utilisation de l’IA pour imiter les voix et tromper les gens en leur faisant croire que leurs proches sont en danger. La Commission Fédérale du Commerce des États-Unis a même émis un avertissement urgent concernant ces escroqueries, qui sont désormais les plus couramment signalées dans le pays
Selon la Federal Trade Commission, qui enquête sur la fraude à la consommation, les Américains ont perdu plus de deux millions de dollars à cause d'escroqueries de toutes sortes en 2022. L'année dernière, la FTC a publié un avis de clonage vocal, notant : « Si l'appelant demande de virer de l'argent, d'envoyer de la cryptomonnaie ou d'acheter des cartes-cadeaux et de lui donner les numéros de carte et les codes PIN, cela pourrait être le signe d'une arnaque ». Mais elle n’a pas encore créé de lignes directrices pour l’utilisation de la technologie de clonage vocal. Même si des lois sont adoptées, il sera extrêmement difficile de les faire respecter. Les fraudeurs peuvent utiliser des applications cryptées pour exécuter leurs stratagèmes, et les appels sont effectués en quelques minutes.
Conclusion
L’appel du président Biden pour une interdiction des imitations vocales par l’IA met en lumière la nécessité d’une réglementation prudente et ciblée. Alors que la technologie continue de progresser, il est crucial de trouver un équilibre entre l’exploitation de ses avantages et la protection contre ses méfaits.
Sources : State of the Union, EFF
Et vous ?
Quelles pourraient être les conséquences positives et négatives d’une interdiction des imitations vocales par l’IA ?
Comment les gouvernements devraient-ils équilibrer la protection de la vie privée avec les avantages de l’IA dans le domaine de la synthèse vocale ?
Les artistes et les créateurs de contenu devraient-ils avoir un droit de regard sur l’utilisation de leur voix par des technologies d’IA, même après avoir donné leur consentement initial ?
Quel rôle les entreprises technologiques devraient-elles jouer pour garantir l’authenticité des voix synthétisées et prévenir les abus ?
Les lois actuelles sont-elles suffisantes pour lutter contre les deepfakes et autres formes de désinformation générées par l’IA ? Sinon, quelles mesures supplémentaires devraient être prises ?
Le gouvernement US doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'IA
qui pourrait, dans le pire des cas, provoquer une « extinction à la hauteur de la menace »
Le gouvernement américain doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'intelligence artificielle (IA) qui pourrait, dans le pire des cas, constituer une « menace d'extinction pour l'espèce humaine », selon un rapport commandé par le gouvernement américain et publié lundi.
« Le développement actuel de l'IA pose des risques urgents et croissants pour la sécurité nationale », indique le rapport. « L'essor de l'IA avancée et de l'AGI [intelligence artificielle générale] pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». L'AGI est une technologie hypothétique qui pourrait accomplir la plupart des tâches à un niveau égal ou supérieur à celui d'un humain. De tels systèmes n'existent pas à l'heure actuelle, mais les principaux laboratoires d'IA y travaillent et beaucoup s'attendent à ce que l'AGI arrive dans les cinq prochaines années ou moins.
Le document final, intitulé « An Action Plan to Increase the Safety and Security of Advanced AI », recommande une série de mesures politiques radicales et sans précédent qui, si elles étaient adoptées, perturberaient radicalement l'industrie de l'IA. Le Congrès devrait rendre illégal, selon le rapport, l'entraînement de modèles d'IA utilisant plus d'un certain niveau de puissance de calcul. Le seuil, recommande le rapport, devrait être fixé par une nouvelle agence fédérale de l'IA, bien que le rapport suggère, à titre d'exemple, que l'agence pourrait le fixer juste au-dessus des niveaux de puissance de calcul utilisés pour former les modèles de pointe actuels tels que le GPT-4 d'OpenAI et le Gemini de Google.
La nouvelle agence de l'IA devrait exiger des entreprises d'IA situées à la « frontière » du secteur qu'elles obtiennent l'autorisation du gouvernement pour former et déployer de nouveaux modèles au-delà d'un certain seuil, ajoute le rapport. Les autorités devraient également envisager « de toute urgence » de rendre illégale la publication des « poids » ou du fonctionnement interne des puissants modèles d'IA, par exemple dans le cadre de licences libres, les infractions pouvant être punies d'une peine d'emprisonnement, selon le rapport. Le gouvernement devrait également renforcer les contrôles sur la fabrication et l'exportation de puces d'IA et orienter le financement fédéral vers la recherche sur « l'alignement » qui vise à rendre l'IA avancée plus sûre, recommande le rapport.
Les recommandations du rapport
Le rapport a été commandé par le département d'État en novembre 2022 dans le cadre d'un contrat fédéral d'une valeur de 250 000 dollars, selon des documents publics. Il a été rédigé par Gladstone AI, une entreprise de quatre personnes qui organise des séances d'information technique sur l'IA à l'intention des fonctionnaires. (Certaines parties du plan d'action recommandent que le gouvernement investisse massivement dans la formation des fonctionnaires sur les fondements techniques des systèmes d'IA afin qu'ils puissent mieux comprendre leurs risques). Le rapport a été remis au département d'État le 26 février sous la forme d'un document de 247 pages. Le département d'État n'a pas répondu à plusieurs demandes de commentaires sur le rapport. Les recommandations « ne reflètent pas le point de vue du Département d'État des États-Unis ou du gouvernement des États-Unis », indique la première page du rapport.
Les recommandations du rapport, dont beaucoup étaient auparavant impensables, font suite à une série vertigineuse de développements majeurs dans le domaine de l'IA qui ont amené de nombreux observateurs à revoir leur position à l'égard de cette technologie. Le chatbot ChatGPT, lancé en novembre 2022, a été la première fois que ce rythme de changement est devenu visible pour la société dans son ensemble, ce qui a conduit de nombreuses personnes à se demander si les futures IA pourraient poser des risques existentiels pour l'humanité.
Depuis, de nouveaux outils, dotés de capacités accrues, continuent d'être mis sur le marché à un rythme soutenu. Alors que les gouvernements du monde entier discutent de la meilleure façon de réglementer l'IA, les plus grandes entreprises technologiques ont rapidement mis en place l'infrastructure nécessaire pour former la prochaine génération de systèmes plus puissants, en prévoyant dans certains cas d'utiliser une puissance de calcul 10 ou 100 fois supérieure. Parallèlement, plus de 80 % des Américains pensent que l'IA pourrait accidentellement provoquer un événement catastrophique, et 77 % des électeurs estiment que le gouvernement devrait faire davantage pour réglementer l'IA, selon un récent sondage réalisé par l'AI Policy Institute.
Un rapport qui risque de se heurter à des difficultés politiques
Selon le rapport, interdire la formation de systèmes d'IA avancés au-delà d'un certain seuil pourrait « modérer la dynamique de course entre tous les développeurs d'IA » et contribuer à réduire la vitesse de fabrication de matériel plus rapide par l'industrie des puces. Au fil du temps, une agence fédérale de l'IA pourrait relever le seuil et autoriser la formation de systèmes d'IA plus avancés une fois que la sécurité des modèles de pointe aura été suffisamment prouvée, propose le rapport. De même, le gouvernement pourrait abaisser le seuil de sécurité si des capacités dangereuses sont découvertes dans des modèles existants.
La proposition risque de se heurter à des difficultés politiques. « Je pense qu'il est très peu probable que cette recommandation soit adoptée par le gouvernement des États-Unis », déclare Greg Allen, directeur du Wadhwani Center for AI and Advanced Technologies au Center for Strategic and International Studies (CSIS), en réponse à un résumé fourni par TIME de la recommandation du rapport visant à interdire les entraînements à l'IA au-delà d'un certain seuil. La politique actuelle du gouvernement américain en matière d'IA, note-t-il, consiste à fixer des seuils de calcul au-delà desquels des exigences supplémentaires en matière de transparence, de contrôle et de réglementation s'appliquent, mais pas à fixer des limites au-delà desquelles les essais d'entraînement seraient illégaux. « En l'absence d'un choc exogène, je pense qu'il est peu probable qu'ils changent d'approche », déclare Allen.
Jeremie et Edouard Harris, respectivement PDG et directeur technique de Gladstone, informent le gouvernement américain sur les risques de l'IA depuis 2021. Les deux frères affirment que les représentants du gouvernement qui ont assisté à leurs premières réunions d'information ont reconnu que les risques de l'IA étaient importants, mais leur ont dit que la responsabilité de les gérer incombait à différentes équipes ou départements. À la fin de l'année 2021, les Harris affirment que Gladstone a finalement trouvé un service gouvernemental chargé de traiter les risques liés à l'IA : le Bureau de la sécurité internationale et de la non-prolifération du département d'État. Les équipes du Bureau ont un mandat inter-agences pour traiter les risques liés aux technologies émergentes, y compris les armes chimiques et biologiques, ainsi que les risques radiologiques et nucléaires. À la suite de réunions d'information organisées par Jeremie et Mark Beall, alors directeur général de Gladstone, le Bureau a lancé, en octobre 2022, un appel d'offres pour la rédaction d'un rapport susceptible d'éclairer la décision d'ajouter ou non l'IA à la liste des autres risques qu'il surveille. (Le département d'État n'a pas répondu à une demande de commentaire sur l'issue de cette décision). L'équipe Gladstone a remporté ce contrat et le rapport publié lundi en est le résultat.
Le rapport se concentre sur deux catégories de risques distinctes
La première catégorie, appelée « risque d'armement », est décrite dans le rapport : « Ces systèmes pourraient potentiellement être utilisés pour concevoir et même exécuter des attaques biologiques, chimiques ou cybernétiques catastrophiques, ou permettre des applications armées sans précédent dans le domaine de la robotique en essaim ». La deuxième catégorie est ce que le rapport appelle le risque de « perte de contrôle », c'est-à-dire la possibilité que les systèmes d'IA avancés soient plus malins que leurs créateurs. Il y a, selon le rapport, « des raisons de croire qu'ils pourraient être incontrôlables s'ils sont développés à l'aide des techniques actuelles, et qu'ils pourraient se comporter de manière hostile à l'égard des êtres humains par défaut ».
Selon le rapport, ces deux catégories de risques sont exacerbées par la « dynamique de la course » dans le secteur de l'IA. Selon le rapport, la probabilité que la première entreprise à réaliser l'AGI récolte la majorité des bénéfices économiques incite les entreprises à donner la priorité à la vitesse plutôt qu'à la sécurité. « Les laboratoires d'IA d'avant-garde sont confrontés à une incitation intense et immédiate à faire évoluer leurs systèmes d'IA aussi vite que possible », indique le rapport. « Ils ne sont pas immédiatement incités à investir dans des mesures de sûreté ou de sécurité qui n'apportent pas d'avantages économiques directs, même si certains le font par souci sincère ».
Le rapport Gladstone identifie le matériel - en particulier les puces informatiques haut de gamme actuellement utilisées pour former les systèmes d'IA - comme un goulot d'étranglement important pour l'augmentation des capacités de l'IA. Selon le rapport, la réglementation de la prolifération de ce matériel pourrait être "la condition la plus importante pour préserver la sécurité mondiale à long terme de l'IA". Il indique que le gouvernement devrait envisager de lier les licences d'exportation de puces à la présence de technologies sur puce permettant de contrôler si les puces sont utilisées dans de grandes séries d'entraînement à l'IA, afin de faire respecter les règles proposées contre l'entraînement de systèmes d'IA plus grands que le GPT-4. Toutefois, le rapport note également que toute intervention devra tenir compte de la possibilité qu'une surréglementation soutienne les industries de puces étrangères, érodant ainsi la capacité des États-Unis à influencer la chaîne d'approvisionnement.
Les auteurs du rapport ont travaillé pendant plus d'un an, s'entretenant avec plus de 200 fonctionnaires, experts et employés d'entreprises d'avant-garde dans le domaine de l'IA, comme OpenAI, Google DeepMind, Anthropic et Meta, dans le cadre de leurs recherches. Les comptes rendus de certaines de ces conversations brossent un tableau inquiétant, suggérant que de nombreux travailleurs de la sécurité de l'IA dans les laboratoires de pointe sont préoccupés par les incitations perverses qui motivent la prise de décision par les dirigeants qui contrôlent leurs entreprises.
Source : rapport
Et vous ?
Quelles devraient être les priorités du gouvernement pour réguler l’intelligence artificielle ?
Comment pouvons-nous équilibrer les avantages de l’IA avec les risques potentiels pour la sécurité ?
Quel rôle les citoyens devraient-ils jouer dans la surveillance de l’évolution de l’IA ?
Quelles mesures internationales pourraient être prises pour assurer une utilisation éthique de l’IA ?
Comment la recherche et l’innovation en IA peuvent-elles contribuer à prévenir les scénarios catastrophiques ?
En effet, la situation politique en France est malheureusement assez proche. La seul différence est qu'il y a toujours un mince espoir par le fait que le système est moins fondé sur le bipartisme. Depuis 2017, les politiciens de LR et du PS ayant les idées les plus anti-démocratique on rejoins Macron, ce qui a créé un éclatement du système politique. De plus, aux USA toute voix de gauche (j’entends social) est réduite au silence au sein du parti démocrate (comme Bernie Sanders par exemple, pourtant pas si à gauche que ça). L'obligation de faire carrière dans un des deux principaux partis est clairement un carcans énorme.
La Chine utilisera l'IA pour perturber les élections aux USA, en Corée du Sud et en Inde, prévient Microsoft
A propos du tsunami de désinformation dû à l’avènement des deepfakes et IA génératives
Le gouvernement chinois intensifie ses efforts en matière d'intelligence artificielle pour perturber les élections dans le monde entier, d’après l'équipe de renseignement sur les menaces de Microsoft. Le géant technologique affirme qu'une multitude de groupes cybercriminels soutenus par l'État chinois prévoient d'utiliser l'IA pour perturber les élections de 2024 aux États-Unis, en Inde et en Corée du Sud. Les experts en sécurité de l'entreprise ont ajouté que la Corée du Nord participait également à cet effort, qui pourrait s'étendre à toute une série de canaux, y compris les médias sociaux.
La Chine utilise de faux comptes de médias sociaux pour sonder les électeurs sur ce qui les divise le plus, afin de semer la discorde et d'influencer éventuellement le résultat de l'élection présidentielle américaine en sa faveur. C’est ce qui ressort de l’alerte de Microsoft qui ajoute que le Parti communiste chinois soutient des groupes cybercriminels qui, ces derniers mois, ont tenté de diviser les Américains sur une série d'événements récents, notamment en affirmant que le gouvernement américain pourrait être impliqué dans le déraillement du train du Kentucky en novembre 2023, que les États-Unis empoisonnent de façon intentionnelle les réserves d'eau étrangères, les raisons de la consommation de drogues aux États-Unis, ainsi que les politiques d'immigration et les tensions raciales dans le pays.
L’un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à l’IA, qui peuvent faire dire ou faire n’importe quoi à n’importe qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique comme le président Joe Biden être transporté à l’hôpital, ou un candidat dire des choses qu’il ou elle n’a jamais dites.
Près de trois ans après que les émeutiers ont pris d’assaut le Capitole des États-Unis, les théories du complot à l’origine de cette violente attaque restent répandues sur les réseaux sociaux et dans l’actualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.
Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois s’érodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.
De nombreux Américains, encouragés par l’ancien président Donald Trump, ont continué à promouvoir l’idée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden n’a pas été légitimement élu président.
Parallèlement, les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.
Les deepfakes IA deviennent de plus en plus répandus
Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.
Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection.
« On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital. On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu », soulignent des observateurs
Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.
Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.
Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.
Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.
Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.
Les protections des médias sociaux s'effondrent : l'exemple de X/Twitter
Il y a un peu plus d’un an, Elon Musk a racheté Twitter et a commencé à licencier ses dirigeants, à démanteler certaines de ses fonctionnalités principales et à remodeler la plateforme de médias sociaux pour en faire ce que l’on appelle désormais X.
Depuis lors, il a bouleversé le système de vérification, laissant les agents publics vulnérables aux usurpateurs d’identité. Il s'est débarrassé des équipes qui luttaient autrefois contre la désinformation sur la plateforme, laissant la communauté des utilisateurs se modérer. Et il a rétabli les comptes de théoriciens du complot et d’extrémistes qui étaient auparavant bannis.
Les changements ont été applaudis par de nombreux conservateurs qui affirment que les précédentes tentatives de modération de Twitter équivalaient à une censure de leurs opinions. Mais les partisans des démocrates affirment que cette prise de pouvoir a transformé ce qui était autrefois une ressource imparfaite mais utile en matière d’information et d’informations électorales en une chambre d’écho largement non réglementée qui amplifie les discours de haine et la désinformation.
Twitter était autrefois l'une des plateformes « les plus responsables », montrant sa volonté de tester des fonctionnalités susceptibles de réduire la désinformation, même au détriment de l'engagement, a déclaré Jesse Lehrich, co-fondateur d'Accountable Tech, un groupe de surveillance à but non lucratif.
« De toute évidence, ils se trouvent désormais à l'autre extrémité du spectre », a-t-il déclaré, ajoutant qu'il pensait que les changements apportés par l'entreprise avaient permis à d'autres plateformes d'assouplir leurs propres politiques.
X, Meta et YouTube et leurs gestions de la désinformation
À l’approche de 2024, X, Meta et YouTube ont supprimé ensemble 17 politiques protégeant contre la haine et la désinformation, selon un rapport de Free Press, une organisation à but non lucratif qui défend les droits civiques dans la technologie et les médias.
En juin, YouTube a annoncé que même s’il continuerait de réglementer les contenus trompeurs sur les élections en cours ou à venir, il cesserait de supprimer les contenus prétendant faussement que les élections de 2020 ou d’autres élections américaines précédentes ont été entachées de « fraudes, erreurs ou problèmes généralisés ». La plateforme a déclaré que cette politique visait à protéger la capacité de « débattre ouvertement des idées politiques, même celles qui sont controversées ou basées sur des hypothèses réfutées ».
Lehrich a déclaré que même si les entreprises technologiques veulent éviter de supprimer les contenus trompeurs, « il existe de nombreuses façons neutres en termes de contenu » pour les plateformes de réduire la propagation de la désinformation, depuis l'étiquetage des articles vieux de plusieurs mois jusqu'à rendre plus difficile le partage de contenu sans l'examiner. d'abord.
X, Meta et YouTube ont également licencié des milliers d'employés et de sous-traitants depuis 2020, dont certains incluent des modérateurs de contenu.
Le rétrécissement de ces équipes, que beaucoup attribuent à la pression politique, « prépare le terrain pour que les choses soient pires en 2024 qu’en 2020 », a déclaré Kate Starbird, experte en désinformation à l’Université de Washington.
Meta explique sur son site Internet qu'elle compte quelque 40 000 personnes dévouées à la sûreté et à la sécurité et qu'elle gère « le plus grand réseau indépendant de vérification des faits de toutes les plateformes ». Il supprime également fréquemment les réseaux de faux comptes de réseaux sociaux visant à semer la discorde et la méfiance. « Aucune entreprise technologique n’en fait ou n’investit autant que Meta pour protéger les élections en ligne – pas seulement pendant les périodes électorales mais à tout moment », indique le message.
Ivy Choi, porte-parole de YouTube, a déclaré que la plateforme était « fortement investie » dans la connexion des gens à du contenu de haute qualité sur YouTube, y compris pour les élections. Elle a souligné les panneaux de recommandation et d’information de la plateforme, qui fournissent aux utilisateurs des informations électorales fiables, et a déclaré que la plateforme supprimait les contenus qui induisaient les électeurs en erreur sur la manière de voter ou encourageaient l’ingérence dans le processus démocratique.
La montée en puissance de TikTok et d’autres plateformes moins réglementées telles que Telegram, Truth Social et Gab a également créé davantage de silos d’informations en ligne où des allégations sans fondement peuvent se propager. Certaines applications particulièrement populaires parmi les communautés de couleur et les immigrés, comme WhatsApp et WeChat, s'appuient sur des discussions privées, ce qui rend difficile pour les groupes extérieurs de voir la désinformation qui peut se propager.
« Je crains qu’en 2024, nous assistions à des faux récits recyclés et enracinés similaires, mais à des tactiques plus sophistiquées », a déclaré Roberta Braga, fondatrice et directrice exécutive du Digital Democracy Institute of the Americas. « Mais du côté positif, j'espère qu'il y aura plus de résilience sociale face à ces choses ».
« Si une campagne de désinformation est suffisamment efficace pour qu’un pourcentage suffisamment important de la population américaine ne croit pas que les résultats reflètent ce qui s’est réellement passé, alors le 6 janvier [date de l’assaut du Capitole par des partisans de Donald Trump] ressemblera probablement à un échauffement », a averti Laura Rosenberger, directrice du groupe de réflexion Alliance for Securing Democracy.
Face à ce défi, certains acteurs tentent de sensibiliser le public et de renforcer la résilience démocratique. C’est le cas d'un groupe d’étudiants du Minnesota qui se concentre sur la promotion et la sensibilisation des électeurs. Le groupe organise des séances d’information avec des responsables électoraux, des experts en désinformation et des journalistes, et encourage les jeunes à s’informer auprès de sources fiables et diversifiées : « Nous voulons que les gens soient conscients de ce qui se passe, qu’ils sachent comment vérifier les faits et qu’ils comprennent comment les médias sociaux peuvent influencer leur perception de la réalité ».
Source : Microsoft
Et vous ?
Quelle est votre opinion sur le développement de l’IA et son impact sur la désinformation ?
Pensez-vous que les réseaux sociaux devraient être plus responsables et régulés face à la diffusion des deepfakes et des fausses informations ?
Comment vous informez-vous sur les candidats et les enjeux des élections en général et de l’élection américaine de 2024 en particulier ? Craignez-vous une ingérence de l'IA dans les élections présidentielles de votre pays tandis que la technologie se perfectionne ? Dans quelle mesure ?
Quel rôle pensez-vous que les citoyens et les organisations civiles peuvent jouer pour renforcer la résilience démocratique face à la désinformation ?
Même avant l'IA il y avait de la désinformation partout.
Par exemple régulièrement des gens comme Bruno Le Maire, Gérald Darmanin, Emmanuel Macron, Gabriel Attal, diffusent de fausses informations.
Les Mensonges de la Macronie
Non.
Déjà parce que c'est techniquement impossible. J'imagine qu'il existe une course entre les outils qui génèrent des deepfakes et les outils qui identifient les deepfakes.
Donc bonne chance pour identifier les deepfakes.
Ensuite il est rarement possible de savoir ce qui est une "vraie information".
Ou alors il faudrait un ministère de la vérité qui dise "ça c'est vrai" / "ça c'est faux", ce qui serait digne d'un régime totalitaire.
Aux USA les 2 candidats favoris sont Trump et Biden.
Les électeurs peuvent utiliser leurs expériences personnelles pour se forger un jugement. Trump a été président, Biden a été président ; il est donc possible de s'imaginer ce que cela donnerait si l'un d'entre eux prenait le pouvoir en 2024.
Celui qui est très satisfait du bilan de Biden peut voter Biden, celui qui préfère le bilan de Trump peut voter Trump.
Ou sinon les électeurs peuvent regarder les promesses de campagne.
Si c'est vrai ce qui est dit dans cet article je préfère le programme de Trump :
Duel Trump vs Biden: que disent leurs programmes ?
Ça parle de protectionnisme, ce qui est toujours cool.
Ça parle de diminuer l'immigration illégale, ce qui est important.
Ça parle de faire quelque chose contre la crise des opioïdes, il y a un grave problème avec ces médicaments aux USA, les médecins se sont laissé manipuler par les laboratoires et en ont prescris trop facilement.
Il dit que les USA ne reconnaitront que 2 genres (ce qui est bien puisque c'est le cas dans la réalité).
J'ai plus peur des instituts de sondages, des médias mainstream, du gouvernement et de la justice de mon propre pays.
Des démocraties ne fonctionnent pas très bien.
Une candidate fait des promesses pendant la campagne, une fois qu'elle est présidente elle fait ce qu'elle veut et on ne peut rien faire pour la dégager.
Le pire c'est que parfois, après un mandat catastrophique elle se fait réélire, alors que tout le monde la déteste.
Il parait qu'en Suisse c'est légèrement mieux.
Là-bas il y a un truc qui s'appelle "referendum", ça n'existe pas en France, c'est un procédé par lequel une autorité politique consulte l'ensemble des citoyens.
Entièrement d'accord avec vous. Depuis Sarkozy les élus Français ont très bien compris qu'il fallait mieux arrêter de nous demander notre avis vu qu'on a dit non à la constitution européenne. Pouraggrandir les murs de la prisonaméliorer notre démocratie il faut donc constamment nous inonder d'infos sinon fausse, très fortement orientée pour qu'ils puissent continuer à nous emmener droit dans le mur pour éviter que les USA ne chutent trop bruyamment.
Nords Stream a sauté, l'Europe est dans une récession sans précédent, mais la priorité ce serait de continuer à lutter contre la discrimination capillaire.
TikTok permet aux utilisateurs de diffuser des deepfakes de Joe Biden générés par l'IA malgré les politiques de la plateforme
qui interdisent les contenus pouvant induire en erreur sur des faits réels
Les deepfakes mettant en scène le président américain Joe Biden continuent d'être largement diffusés sur TikTok. Dans de nombreux cas, ces fausses vidéos sont diffusées sans aucune mention ni divulgation comme l'exigent les politiques d'utilisation de la plateforme, en violation flagrante des politiques de la plateforme. Par le passé, des experts ont souligné que TikTok a l'habitude de ne pas être à la hauteur lorsqu'il s'agit de modérer les contenus générés par l'IA ou modifiés de manière trompeuse. ByteDance est actuellement soumis à des pressions croissantes pour céder l'activité américaine de TikTok sous peine de voir sa plateforme interdite aux États-Unis.
Selon les lignes directrices communautaires de TikTok, "les médias synthétiques ou manipulés qui montrent des scènes réalistes doivent être clairement divulgués en affichant un autocollant ou une légende, comme synthétique, faux, pas réel ou altéré". Cette politique précise également que "le matériel qui a été édité, raccordé ou combiné (comme la vidéo et l'audio) d'une manière qui peut induire une personne en erreur sur des événements réels n'est pas autorisé". De nouveaux rapports signalent un laxisme dans l'application de ces règles, ce qui permet aux utilisateurs de diffuser largement des deepfakes sur la plateforme.
Media Matters a trouvé plusieurs vidéos sur TikTok qui montrent Joe Biden avec un son altéré et qui ne comportent aucune étiquette ou information sur l'altération. (Ces vidéos durent moins de 60 secondes et ne semblent donc pas être éligibles au programme de récompenses.) Le 29 avril, Snopes a identifié une vidéo de la visite de Joe Biden, le 17 avril, dans une supérette Sheetz à Pittsburgh, qui a été modifiée pour inclure des huées et d'autres chahuts et qui a été partagée sur les médias sociaux. L'audio proviendrait d'une vidéo prise par un manifestant qui chahutait le cortège de Joe Biden lors de sa visite à Maui en 2023.
Aucune des vidéos manipulées n'a été étiquetée ou divulguée comme étant fausse. Une enquête distincte de USA Today a révélé qu'une vidéo de Joe Biden visitant une entreprise d'Allentown, en Pennsylvanie, avait été modifiée de la même manière, avec un son rempli de blasphème, et postée sur Instagram et X (anciennement Twitter) en janvier. Bien que Joe Biden ait été chahuté lors de sa visite, d'autres injures auraient été ajoutées à la vidéo. Plusieurs vidéos ont été manipulées pour inclure des chants profanes dirigés contre Joe Biden, y compris des vidéos modifiées d'un discours du président sur la violence des armes à feu.
Bien que le nombre de deepfakes mettant en scène le président américain Joe Biden ait augmenté ces derniers mois, le problème ne touche pas que lui. D'autres personnalités influentes sont aussi concernées. Selon les experts, ces vidéos pullulent sur TikTok, car la plateforme n'applique pas comme cela se doit ses règles communautaires, permettant ainsi toute forme de violation. Des deepfakes faisant la promotion d'escroqueries au bitcoin, de produits de santé douteux et de théories du complot générées par l'IA ont proliféré sur la plateforme, y compris d'autres vidéos de politiciens éditées de manière trompeuse.
Dans certains cas, des utilisateurs ont pu profiter du programme de récompenses pour les créateurs de TikTok (anciennement le programme de créativité), qui vise à rémunérer les créateurs pour les contenus de plus de 60 secondes qu'ils publient sur la plateforme. Face à l'augmentation de deepfakes faisant la promotion d'escroquerie et mettant en scène des politiciens de manière trompeuse, la Maison Blanche a annoncé en février qu'elle travaille sur des techniques pouvant permettre de vérifier cryptographiquement ses communiqués officiels. Aucun détail n'a encore été communiqué sur la forme que prendrait ce processus.
Les outils d'IA générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. De fausses voix, images et autres contenus manipulés ont déjà été diffusés en ligne pour tenter de saper les élections présidentielles américaines de novembre 2024. La FCC (Federal Communications Commission) a interdit les appels automatisés générés par l'IA après qu'un appel destiné aux électeurs du New Hampshire a imité la voix du président Joe Biden et les exhortés à ne pas voter lors des élections primaires de l'État.
Le problème des deepfakes sur TikTok prend de l'ampleur dans un contexte où l'application est confrontée à une incertitude quant à son avenir sur le marché américain. Une nouvelle loi votée le mois dernier interdirait TikTok aux États-Unis à moins que son propriétaire, ByteDance, ne vende l'application populaire de partage de vidéos courtes. Le vote de cette législation a été motivé par des préoccupations bipartisanes en matière de sécurité nationale. Les législateurs américains craignent en effet que le gouvernement chinois ne s'appuie sur ByteDance pour accéder aux informations des utilisateurs américains de TikTok.
Selon les législateurs, cela pourrait permettre à la Chine de surveiller les Américains et de diffuser des informations fausses et trompeuses auprès des électeurs américains. « Il n'est pas difficile d'imaginer comment une plateforme qui facilite tant le commerce, le discours politique et le débat social pourrait être secrètement manipulée pour servir les objectifs d'un régime autoritaire », a déclaré cette semaine le sénateur Mark Warner (D-Va). Certaines sources indiquent que des informations classifiées des services de renseignement ont alerté sur TikTok, mais ces informations ne sont pas encore accessibles au grand public.
Les détracteurs de la législation affirment toutefois que les préoccupations liées à TikTok sont exagérées. Par exemple, le sénateur Edward Markey du Massachusetts a déclaré que bien qu'il soit préoccupé par la collecte de données d'utilisateurs par de nombreux réseaux sociaux, il n'a vu aucune preuve crédible que TikTok représente une menace simplement parce que sa société mère est basée en Chine. Que savons-nous donc des efforts déployés par la Chine pour manipuler les Américains à l'aide des médias sociaux, et quel rôle joue TikTok ? Depuis le début, aucune réponse claire n'a été apportée à cette question.
Selon la communauté du renseignement, les entreprises technologiques et les chercheurs indépendants américains, la Chine représente une menace croissante. « La Chine cherche à semer le doute sur le leadership des États-Unis, à saper la démocratie et à étendre l'influence de Pékin », a écrit le Bureau du directeur du renseignement national (ODNI) dans son évaluation annuelle des menaces au début de l'année. Malgré tout, ByteDance dispose de neuf mois pour vendre TikTok à une entreprise américaine sinon l'application sera interdite aux États-Unis. ByteDance n'a toutefois aucune intention de se soumettre.
ByteDance et TikTok envisagent de déposer des recours juridiques contre la législation et espèrent qu'elle sera bloquée par les tribunaux au nom du Premier amendement et d'autres lois américaines sur la liberté d'expression. Un décret similaire signé par Donald Trump, alors président des États-Unis, avait déjà été bloqué par les tribunaux. D'autres rapports indiquent que ByteDance envisage la fermeture de TikTok sur le marché américain si ses recours n'aboutissent pas.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la prolifération des deepfakes visant le président américain Joe Biden sur TikTok ?
Pensez-vous que TikTok laisse délibérément ces vidéos se propager sur sa plateforme ?
Les plateformes de médias sociaux ont-ils perdu la guerre contre les deepfakes ?
Pensez-vous que TikTok représente une menace pour la sécurité nationale des États-Unis ?
Voir aussi
La Maison Blanche veut «vérifier cryptographiquement» les vidéos de Joe Biden afin que les téléspectateurs ne les confondent pas avec des «deepfakes», et dit reconnaitre « le risque de préjudice »
La FCC juge illégales les voix générées par l'IA dans les appels automatisés : "De mauvais acteurs les utilisent pour extorquer des membres de la famille et désinformer les électeurs"
Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation », avec l'avènement des deepfakes et les IA génératives
Les vidéos réelles sont plus rigolotes.
En ce qui concerne Joe Biden la fiction ne peut pas être pire que la réalité.
Il est souvent complétement perdu, quand il essaie de prononcer une phrase il oublie ce qu'il était en train de dire, il lit les didascalies du prompteur à haute voix, etc.
Il est pire que le président Benson dans Hot Shots 2.
Sur Twitter il y a un message qui dit quand une vidéo est truquée.
Il y a une histoire de "note de la communauté", dès que quelqu'un dit quelque chose de faux il y a une correction juste en dessous.
Non au contraire.
Le gouvernement US veut prendre le contrôle de TikTok pour faire de la propagande pro Biden.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager