Les entreprises de la Tech prévoient de signer un accord pour lutter contre les fraudes électorales par l'IA
Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu
Au moins six grandes entreprises technologiques prévoient de signer cette semaine un accord qui guiderait la manière dont elles tentent de mettre un terme à l'utilisation d'outils d'intelligence artificielle pour perturber les élections démocratiques.
L'événement à venir lors de la conférence sur la sécurité de Munich en Allemagne intervient alors que plus de 50 pays doivent organiser des élections nationales en 2024.
Des tentatives d'ingérence électorale générées par l'IA ont déjà commencé, comme lorsque des robocalls imitant la voix du président américain Joe Biden ont tenté de décourager les gens de voter lors des élections primaires du New Hampshire le mois dernier.
"En cette année cruciale pour les élections mondiales, les entreprises technologiques travaillent sur un accord visant à lutter contre l'utilisation trompeuse de l'IA ciblant les électeurs", a déclaré le mardi 13 février une déclaration commune de plusieurs entreprises. "Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres travaillent conjointement pour progresser sur cet objectif commun et nous espérons finaliser et présenter les détails vendredi lors de la Conférence de Munich sur la sécurité."
Les entreprises ont refusé de donner des détails sur le contenu de l'accord. Nombre d'entre elles ont déjà déclaré qu'elles mettaient en place des mesures de protection pour leurs propres outils d'IA générative qui peuvent manipuler des images et des sons, tout en s'efforçant d'identifier et d'étiqueter les contenus générés par l'IA afin que les utilisateurs des médias sociaux sachent si ce qu'ils voient est réel.
X, la plateforme anciennement connue sous le nom de Twitter, n'a pas été mentionnée dans la déclaration.
Source : Déclaration commune de plusieurs entreprises dont Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres, lors la conférence de Munich sur la sécurité
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de cette initiative, trouvez-vous qu'elle est appropriée et pertinente ?
:fleche: Pensez-vous que cette initiative lancée par les entreprises technologiques soit suffisante pour lutter contre l'ingérence de l'IA dans le processus électoral ?
Voir aussi :
:fleche: Des agents chinois sont soupçonnés d'utiliser des images générées par l'IA pour désinformer les électeurs américains, selon un rapport de Microsoft
:fleche: Le gouvernement irlandais craint que l'IA ne soit utilisée pour diffuser des infox à l'approche des élections, il estime que cela pourrait influencer le vote des électeurs et saper la démocratie
:fleche: OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024, en s'appuyant sur des programmes de vérification des informations et d'authenticité des images
:fleche: Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives
"Vous ne pouvez pas croire toutes les vidéos que vous voyez", selon Brad Smith, vice-président de Microsoft
"Vous ne pouvez pas croire toutes les vidéos que vous voyez", selon Brad Smith, vice-président de Microsoft, il indique comment lutter contre le contenu abusif de l'IA et les deepfakes malveillants.
Microsoft a découvert que ses propres outils étaient utilisés par des acteurs malveillants dans un épisode récemment médiatisé. Microsoft indique dans un billet de blog que l'entreprise "s'est engagée à adopter une approche solide et globale", citant six domaines d'action différents. Brad Smith, le vice-président de Microsoft écrit que "nous devons agir de toute urgence pour lutter contre tous ces problèmes".
Nous assistons actuellement à une expansion rapide de l'utilisation abusive des nouveaux outils d'IA par des acteurs malveillants", écrit Brad Smith, vice-président de Microsoft, "notamment par le biais de deepfakes basés sur des vidéos, des sons et des images générés par l'IA". Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par le biais de la pornographie non consensuelle et la nouvelle génération de cyberintimidation.
Chaque jour, des millions de personnes utilisent de puissants outils d'IA générative pour stimuler leur expression créative. À bien des égards, l'IA offrira à chacun des possibilités passionnantes de donner vie à de nouvelles idées. Toutefois, à mesure que ces nouveaux outils sont commercialisés par Microsoft et l'ensemble du secteur technologique, on doit prendre de nouvelles mesures pour nous assurer que ces nouvelles technologies résistent aux abus.
L'histoire de la technologie montre depuis longtemps que la créativité n'est pas l'apanage des personnes bien intentionnées. Les outils deviennent malheureusement aussi des armes, et ce schéma se répète. On assiste actuellement à une expansion rapide de l'utilisation abusive de ces nouveaux outils d'IA par des acteurs malveillants, notamment par le biais de "deepfakes" basés sur des vidéos, des sons et des images générés par l'IA. Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par la pornographie non consensuelle et la nouvelle génération de cyberintimidation.
On doit agir de toute urgence pour lutter contre tous ces problèmes. Voici l'approche de Microsoft pour lutter contre les contenus abusifs générés par l'IA :
Citation:
Il est encourageant de constater que nous pouvons tirer de nombreux enseignements de notre expérience en tant qu'industrie dans des domaines adjacents : faire progresser la cybersécurité, promouvoir la sécurité des élections, lutter contre les contenus extrémistes violents et protéger les enfants. En tant qu'entreprise, nous nous engageons à adopter une approche solide et globale qui protège les personnes et nos communautés, en nous appuyant sur six domaines d'action :
- Une architecture de sécurité solide. Nous nous engageons à adopter une approche technique globale fondée sur la sécurité dès la conception. Selon le scénario, une architecture de sécurité solide doit être appliquée au niveau de la plateforme d'IA, du modèle et des applications. Elle comprend des aspects tels que l'analyse continue de l'équipe rouge, les classificateurs préemptifs, le blocage des invites abusives, les tests automatisés et l'interdiction rapide des utilisateurs qui abusent du système. Elle doit s'appuyer sur une analyse de données solide et étendue. Microsoft a mis en place une architecture solide et partagé ses connaissances par le biais de ses normes en matière d'IA responsable et de sécurité numérique, mais il est clair que nous devrons continuer à innover dans ces domaines au fur et à mesure que la technologie évolue.
- Provenance durable des médias et filigrane. C'est essentiel pour lutter contre les "deepfakes" dans la vidéo, les images ou l'audio. L'année dernière, lors de notre conférence Build 2023, nous avons annoncé des capacités de provenance des médias qui utilisent des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA avec des métadonnées sur sa source et son historique. Avec d'autres grandes entreprises, Microsoft a joué un rôle de premier plan dans la recherche et le développement de méthodes d'authentification de la provenance, notamment en tant que cofondateur du projet Origin et de l'organisme de normalisation Coalition for Content Provenance and Authenticity (C2PA). La semaine dernière, Google et Meta ont pris des mesures importantes pour soutenir la C2PA, mesures que nous apprécions et applaudissons.
Nous utilisons déjà la technologie de provenance dans les outils de création d'images Microsoft Designer dans Bing et dans Copilot, et nous sommes en train d'étendre la provenance des médias à tous nos outils qui créent ou manipulent des images. Nous étudions également activement les techniques de filigrane et d'empreinte digitale qui contribuent à renforcer les techniques de provenance. Nous nous engageons à poursuivre l'innovation afin d'aider les utilisateurs à déterminer rapidement si une image ou une vidéo a été générée ou manipulée par l'IA.
- Protéger nos services contre les contenus et les comportements abusifs. Nous nous engageons à protéger la liberté d'expression. Mais cela ne devrait pas protéger les individus qui cherchent à imiter la voix d'une personne pour escroquer l'argent d'une personne âgée. Elle ne doit pas s'étendre aux "deepfakes" qui modifient les actions ou les déclarations de candidats politiques pour tromper le public. Elle ne doit pas non plus protéger un cyber-homme de main ou un distributeur de pornographie non consensuelle. Nous nous engageons à identifier et à supprimer les contenus trompeurs et abusifs de ce type lorsqu'ils se trouvent sur nos services hébergés destinés aux consommateurs, tels que LinkedIn, notre réseau de jeux et d'autres services pertinents.
- Une collaboration solide entre les entreprises et avec les gouvernements et la société civile. Bien que chaque entreprise soit responsable de ses propres produits et services, l'expérience montre que c'est souvent lorsque nous travaillons ensemble pour un écosystème numérique plus sûr que nous obtenons les meilleurs résultats. Nous nous engageons à travailler en collaboration avec d'autres acteurs du secteur technologique, notamment dans les domaines de l'IA générative et des médias sociaux. Nous nous engageons également à déployer des efforts proactifs avec les groupes de la société civile et à collaborer de manière appropriée avec les gouvernements.
Pour aller de l'avant, nous nous appuierons sur notre expérience de la lutte contre l'extrémisme violent dans le cadre de l'appel de Christchurch, sur notre collaboration avec les forces de l'ordre par l'intermédiaire de notre unité de lutte contre la criminalité numérique, et sur nos efforts pour mieux protéger les enfants dans le cadre de l'alliance mondiale WeProtect et d'une manière plus générale. Nous sommes déterminés à prendre de nouvelles initiatives dans l'ensemble du secteur technologique et avec d'autres groupes de parties prenantes.
- Une législation modernisée pour protéger les personnes contre l'utilisation abusive des technologies. Il est déjà évident que certaines de ces nouvelles menaces nécessiteront l'élaboration de nouvelles lois et de nouveaux efforts de la part des forces de l'ordre. Nous sommes impatients de contribuer aux idées et de soutenir les nouvelles initiatives des gouvernements du monde entier, afin de mieux protéger les internautes tout en respectant des valeurs intemporelles telles que la protection de la liberté d'expression et de la vie privée.
- Sensibilisation et éducation du public. Enfin, une défense solide nécessitera un public bien informé. À l'approche du deuxième quart du XXIe siècle, la plupart des gens ont appris qu'il ne faut pas croire tout ce que l'on lit sur l'internet (ou ailleurs). Une combinaison de curiosité et de scepticisme bien informé est une compétence essentielle pour tout le monde.
De la même manière, nous devons aider les gens à reconnaître qu'il ne faut pas croire toutes les vidéos que l'on voit ou tous les sons que l'on entend. Nous devons aider les gens à apprendre à repérer les différences entre un contenu légitime et un contenu falsifié, y compris en ce qui concerne le filigrane. Cela nécessitera de nouveaux outils et programmes d'éducation du public, notamment en étroite collaboration avec la société civile et les dirigeants de l'ensemble de la société.
En fin de compte, rien de tout cela ne sera facile. Il faudra déployer des efforts difficiles mais indispensables chaque jour. Mais avec un engagement commun en faveur de l'innovation et de la collaboration, nous pensons que nous pouvons tous travailler ensemble pour faire en sorte que la technologie reste en tête dans sa capacité à protéger le public. Peut-être plus que jamais, tel doit être notre objectif collectif.
Source : Brad Smith, vice-président de Microsoft
Et vous ?
:fleche: Pensez-vous que cette approche de Microsoft est crédible ou pertinente ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu
:fleche: Microsoft comble la lacune qui a causé l'incident "Taylor Swift", avec plus de protections pour Designer. Le générateur d'images par IA était utilisé pour produire des images pornographiques
:fleche: Conférence développeurs et IT Pro Ignite 2023 : Microsoft dévoile sa stratégie pour l'IA, le Cloud, et la sécurité, ainsi que pour Windows, Copilot, ChatGPT, GTP-4, Azure, et Microsoft Office 365
1 pièce(s) jointe(s)
Le président Joe Biden demande l'interdiction des imitations vocales par l'IA après des incidents préoccupants
Le président Joe Biden demande l'interdiction des imitations vocales par l'IA après des incidents préoccupants.
Une mesure de sécurité ou une entrave à l’innovation ?
Dans un monde de plus en plus numérisé, la question de l’authenticité et de la sécurité des voix synthétisées par intelligence artificielle (IA) prend une importance capitale. Récemment, le président Joe Biden a abordé cette problématique lors de son discours sur l’état de l’Union, appelant à une interdiction des imitations vocales par l’IA. Cette proposition fait suite à des incidents préoccupants, tels que l’utilisation d’appels robotisés imitant la voix du président pour dissuader les électeurs lors des primaires dans le New Hampshire2. Ces événements soulignent les risques potentiels associés à la technologie deepfake, notamment en matière de désinformation et de fraude.
La société s'interroge peut-être sur la manière de réglementer l'IA. Mais le président Biden est déjà convaincu que les États-Unis doivent interdire la capacité de cette technologie à imiter la voix des gens. Lors de son discours sur l'état de l'Union, jeudi, Biden n'a mentionné l'IA qu'à deux reprises au cours de son intervention d'une heure. Il a toutefois souligné que l'usurpation de la voix par l'IA constituait une menace à laquelle il fallait mettre un terme.
« Exploitez les promesses de l'IA et protégez-nous du danger. Interdisez les usurpations d'identité par l'IA et bien plus encore », a-t-il déclaré vers la fin de son discours.
Ce discours intervient plus d'un mois après qu'un robot téléphonique imitant la voix de Biden a été utilisé pour décourager les électeurs des primaires dans le New Hampshire. Ironiquement, ce n'était pas l'œuvre d'escrocs ou de propagandistes étrangers. C'est un consultant politique démocrate, Steve Kramer, qui a admis avoir orchestré ces appels pour attirer l'attention sur la menace que représente l'usurpation de la voix de l'IA.
« Je suis peut-être un méchant aujourd'hui, mais je pense qu'en fin de compte, nous aurons un meilleur pays et une meilleure démocratie grâce à ce que j'ai fait, délibérément », a déclaré Kramer à l'Associated Press.
Jusqu'à présent, l'administration Biden a tenté de réprimer l'usurpation d'identité vocale par l'IA par l'intermédiaire de la FCC. Le mois dernier, le régulateur américain a confirmé que les appels vocaux générés par l'IA violaient les lois américaines existantes conçues pour protéger les consommateurs contre les appels automatisés préenregistrés. Mais cette décision n'empêche en rien les acteurs malveillants de diffuser des "deepfakes" sur l'internet.
Aucune sanction éventuelle n'a été évoquée
Lors de son discours sur l'état de l'Union, le président Joe Biden a fait un clin d'œil à un problème croissant dans les secteurs du divertissement et de la technologie, en appelant à l'interdiction des imitations vocales par l'IA.
« Ici, chez nous, j'ai signé plus de 400 projets de loi bipartisans. Il en reste encore pour faire passer mon programme d'unité », a déclaré le président Biden, en commençant à énumérer une série de propositions différentes qu'il espère aborder s'il est élu pour un second mandat. « Renforcer les sanctions contre le trafic de fentanyl, adopter une législation bipartisane sur la protection de la vie privée pour protéger nos enfants en ligne, exploiter les promesses de l'intelligence artificielle pour nous protéger des dangers, interdire les usurpations de voix par l'intelligence artificielle, etc. »
Le président n'a pas précisé les types de garde-fous ou de sanctions qu'il prévoyait d'instaurer autour de cette technologie en plein essor, ni s'ils s'étendraient à l'industrie du divertissement. L'IA a été l'une des principales préoccupations de la SAG-AFTRA lors des négociations et de la grève du syndicat des acteurs contre les grands studios l'année dernière. Les négociations se sont finalement conclues par un accord établissant des exigences en matière de consentement et de rémunération pour les productions qui utilisent l'IA pour reproduire les ressemblances et les voix des acteurs. Toutefois, l'accord n'empêche pas les studios d'entraîner les systèmes d'IA à créer des interprètes « synthétiques » qui ne ressemblent en rien à des personnes réelles.
Plusieurs projets de loi en cours, les défenseurs des droits numérique tirent la sonnette d'alarme
Entre-temps, les législateurs américains ont proposé au moins deux projets de loi pour tenter de mettre un terme à l'usurpation de la voix de l'IA. L'un d'entre eux, le No AI Fraud Act des représentantes María Elvira Salazar (R-FL) et Madeleine Dean (D-PA), propose d'autoriser les personnes à poursuivre les fabricants de ces imitations pour obtenir des dommages-intérêts. Toutefois, l'Electronic Frontier Foundation, un groupe de défense de la vie privée, a critiqué la formulation de la loi, la jugeant trop vague et trop large et susceptible d'englober tous les types de médias numériques contenant l'image d'une personne.
« Si le Congrès veut vraiment protéger les artistes-interprètes et les gens ordinaires contre les utilisations trompeuses ou abusives de leurs images et de leur voix, il devrait adopter une approche précise, prudente et pratique qui évite les dommages collatéraux potentiels à la liberté d'expression, à la concurrence et à l'innovation », a ajouté l'EFF.
Au Sénat, la loi DEFIANCE (Disrupt Explicit Forged Images and Non-Consensual Edits) créerait un « recours civil fédéral » pour les victimes de "deepfake porn". Elle couvre « les contrefaçons numériques qui représentent la victime nue, ou engagée dans un comportement sexuellement explicite ou des scénarios sexuels » créés par des logiciels, l'apprentissage automatique, l'intelligence artificielle et d'autres moyens technologiques ou générés par ordinateur.
Des escroqueries qui s'appuient sur l'IA pour cloner les voix de vos proches et simuler une situation de rançon
Récemment, une femme nommée Robin a reçu un coup de fil semblant provenir de sa belle-mère, Mona, qui, pourtant, ne l'appelait jamais après minuit. Elle s'est dit qu'il s'agissait probablement d'une fausse manipulation et l'a ignoré. Mais son numéro l'a rappelée. Face à l'insistance, elle a décroché et, à l'autre bout du fil, elle a entendu la voix de Mona qui se lamentait et répétait les mots « Je ne peux pas le faire, je ne peux pas le faire ». « J'ai cru qu'elle essayait de me dire qu'une chose horrible et tragique s'était produite »; a expliqué Robin.
La première pensée de Robin a été qu'il y avait eu un accident. Puis elle a entendu ce qui semblait être la voix de son beau-père, Bob, au téléphone. « Mona, passe-moi le téléphone », a dit la voix de Bob, puis s'adressant à Robin, « va chercher Steve [son mari] ». Elle s'est exécutée et a réveillé son mari : « Je crois que c'est ta mère », lui dit-elle. « Je pense qu'elle me dit que quelque chose de terrible est arrivé ».
Lorsqu'il a pris le téléphone, il a entendu une voix masculine détendue à l'autre bout du fil : « Tu ne vas pas appeler la police, tu ne vas le dire à personne. J'ai un pistolet sur la tempe de ta mère et je vais lui faire sauter la cervelle si tu ne fais pas exactement ce que je te dis ».
L'homme a demandé de l'argent; il voulait cinq cents dollars, envoyés par Venmo. « C'était une somme tellement insensée pour un être humain », se souvient Steve. « Mais aussi : Il est évident que je vais payer cette somme ».
Après que Steve a envoyé les cinq cents dollars, l'homme lui a fait envoyé 250 dollars de plus. Puis, environ 25 minutes après l'échange téléphonique, il a appelé sa mère pour s'assurer que ses parents étaient désormais en sécurité. Après quelques tentatives, son père Bob a décroché le téléphone et l'a tendu à Mona. « Tu es à la maison ? Tu vas bien ? » Lui a demandé Steve.
Mona avait l'air d'aller bien, mais elle ne savait pas de quoi ils parlaient. « Oui, je suis couchée », a-t-elle répondu. « Pourquoi ? »
Ils venaient de se faire escroquer.
Cette arnaque est un exemple alarmant de la tendance croissante à l’utilisation de l’IA pour imiter les voix et tromper les gens en leur faisant croire que leurs proches sont en danger. La Commission Fédérale du Commerce des États-Unis a même émis un avertissement urgent concernant ces escroqueries, qui sont désormais les plus couramment signalées dans le pays
Selon la Federal Trade Commission, qui enquête sur la fraude à la consommation, les Américains ont perdu plus de deux millions de dollars à cause d'escroqueries de toutes sortes en 2022. L'année dernière, la FTC a publié un avis de clonage vocal, notant : « Si l'appelant demande de virer de l'argent, d'envoyer de la cryptomonnaie ou d'acheter des cartes-cadeaux et de lui donner les numéros de carte et les codes PIN, cela pourrait être le signe d'une arnaque ». Mais elle n’a pas encore créé de lignes directrices pour l’utilisation de la technologie de clonage vocal. Même si des lois sont adoptées, il sera extrêmement difficile de les faire respecter. Les fraudeurs peuvent utiliser des applications cryptées pour exécuter leurs stratagèmes, et les appels sont effectués en quelques minutes.
Conclusion
L’appel du président Biden pour une interdiction des imitations vocales par l’IA met en lumière la nécessité d’une réglementation prudente et ciblée. Alors que la technologie continue de progresser, il est crucial de trouver un équilibre entre l’exploitation de ses avantages et la protection contre ses méfaits.
Sources : State of the Union, EFF
Et vous ?
:fleche: Quelles pourraient être les conséquences positives et négatives d’une interdiction des imitations vocales par l’IA ?
:fleche: Comment les gouvernements devraient-ils équilibrer la protection de la vie privée avec les avantages de l’IA dans le domaine de la synthèse vocale ?
:fleche: Les artistes et les créateurs de contenu devraient-ils avoir un droit de regard sur l’utilisation de leur voix par des technologies d’IA, même après avoir donné leur consentement initial ?
:fleche: Quel rôle les entreprises technologiques devraient-elles jouer pour garantir l’authenticité des voix synthétisées et prévenir les abus ?
:fleche: Les lois actuelles sont-elles suffisantes pour lutter contre les deepfakes et autres formes de désinformation générées par l’IA ? Sinon, quelles mesures supplémentaires devraient être prises ?
2 pièce(s) jointe(s)
IA : le gouvernement US doit agir « rapidement et de manière décisive » pour éviter les risques importants
Le gouvernement US doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'IA
qui pourrait, dans le pire des cas, provoquer une « extinction à la hauteur de la menace »
Le gouvernement américain doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'intelligence artificielle (IA) qui pourrait, dans le pire des cas, constituer une « menace d'extinction pour l'espèce humaine », selon un rapport commandé par le gouvernement américain et publié lundi.
« Le développement actuel de l'IA pose des risques urgents et croissants pour la sécurité nationale », indique le rapport. « L'essor de l'IA avancée et de l'AGI [intelligence artificielle générale] pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». L'AGI est une technologie hypothétique qui pourrait accomplir la plupart des tâches à un niveau égal ou supérieur à celui d'un humain. De tels systèmes n'existent pas à l'heure actuelle, mais les principaux laboratoires d'IA y travaillent et beaucoup s'attendent à ce que l'AGI arrive dans les cinq prochaines années ou moins.
Le document final, intitulé « An Action Plan to Increase the Safety and Security of Advanced AI », recommande une série de mesures politiques radicales et sans précédent qui, si elles étaient adoptées, perturberaient radicalement l'industrie de l'IA. Le Congrès devrait rendre illégal, selon le rapport, l'entraînement de modèles d'IA utilisant plus d'un certain niveau de puissance de calcul. Le seuil, recommande le rapport, devrait être fixé par une nouvelle agence fédérale de l'IA, bien que le rapport suggère, à titre d'exemple, que l'agence pourrait le fixer juste au-dessus des niveaux de puissance de calcul utilisés pour former les modèles de pointe actuels tels que le GPT-4 d'OpenAI et le Gemini de Google.
La nouvelle agence de l'IA devrait exiger des entreprises d'IA situées à la « frontière » du secteur qu'elles obtiennent l'autorisation du gouvernement pour former et déployer de nouveaux modèles au-delà d'un certain seuil, ajoute le rapport. Les autorités devraient également envisager « de toute urgence » de rendre illégale la publication des « poids » ou du fonctionnement interne des puissants modèles d'IA, par exemple dans le cadre de licences libres, les infractions pouvant être punies d'une peine d'emprisonnement, selon le rapport. Le gouvernement devrait également renforcer les contrôles sur la fabrication et l'exportation de puces d'IA et orienter le financement fédéral vers la recherche sur « l'alignement » qui vise à rendre l'IA avancée plus sûre, recommande le rapport.
Les recommandations du rapport
Le rapport a été commandé par le département d'État en novembre 2022 dans le cadre d'un contrat fédéral d'une valeur de 250 000 dollars, selon des documents publics. Il a été rédigé par Gladstone AI, une entreprise de quatre personnes qui organise des séances d'information technique sur l'IA à l'intention des fonctionnaires. (Certaines parties du plan d'action recommandent que le gouvernement investisse massivement dans la formation des fonctionnaires sur les fondements techniques des systèmes d'IA afin qu'ils puissent mieux comprendre leurs risques). Le rapport a été remis au département d'État le 26 février sous la forme d'un document de 247 pages. Le département d'État n'a pas répondu à plusieurs demandes de commentaires sur le rapport. Les recommandations « ne reflètent pas le point de vue du Département d'État des États-Unis ou du gouvernement des États-Unis », indique la première page du rapport.
Les recommandations du rapport, dont beaucoup étaient auparavant impensables, font suite à une série vertigineuse de développements majeurs dans le domaine de l'IA qui ont amené de nombreux observateurs à revoir leur position à l'égard de cette technologie. Le chatbot ChatGPT, lancé en novembre 2022, a été la première fois que ce rythme de changement est devenu visible pour la société dans son ensemble, ce qui a conduit de nombreuses personnes à se demander si les futures IA pourraient poser des risques existentiels pour l'humanité.
Depuis, de nouveaux outils, dotés de capacités accrues, continuent d'être mis sur le marché à un rythme soutenu. Alors que les gouvernements du monde entier discutent de la meilleure façon de réglementer l'IA, les plus grandes entreprises technologiques ont rapidement mis en place l'infrastructure nécessaire pour former la prochaine génération de systèmes plus puissants, en prévoyant dans certains cas d'utiliser une puissance de calcul 10 ou 100 fois supérieure. Parallèlement, plus de 80 % des Américains pensent que l'IA pourrait accidentellement provoquer un événement catastrophique, et 77 % des électeurs estiment que le gouvernement devrait faire davantage pour réglementer l'IA, selon un récent sondage réalisé par l'AI Policy Institute.
Un rapport qui risque de se heurter à des difficultés politiques
Selon le rapport, interdire la formation de systèmes d'IA avancés au-delà d'un certain seuil pourrait « modérer la dynamique de course entre tous les développeurs d'IA » et contribuer à réduire la vitesse de fabrication de matériel plus rapide par l'industrie des puces. Au fil du temps, une agence fédérale de l'IA pourrait relever le seuil et autoriser la formation de systèmes d'IA plus avancés une fois que la sécurité des modèles de pointe aura été suffisamment prouvée, propose le rapport. De même, le gouvernement pourrait abaisser le seuil de sécurité si des capacités dangereuses sont découvertes dans des modèles existants.
La proposition risque de se heurter à des difficultés politiques. « Je pense qu'il est très peu probable que cette recommandation soit adoptée par le gouvernement des États-Unis », déclare Greg Allen, directeur du Wadhwani Center for AI and Advanced Technologies au Center for Strategic and International Studies (CSIS), en réponse à un résumé fourni par TIME de la recommandation du rapport visant à interdire les entraînements à l'IA au-delà d'un certain seuil. La politique actuelle du gouvernement américain en matière d'IA, note-t-il, consiste à fixer des seuils de calcul au-delà desquels des exigences supplémentaires en matière de transparence, de contrôle et de réglementation s'appliquent, mais pas à fixer des limites au-delà desquelles les essais d'entraînement seraient illégaux. « En l'absence d'un choc exogène, je pense qu'il est peu probable qu'ils changent d'approche », déclare Allen.
Jeremie et Edouard Harris, respectivement PDG et directeur technique de Gladstone, informent le gouvernement américain sur les risques de l'IA depuis 2021. Les deux frères affirment que les représentants du gouvernement qui ont assisté à leurs premières réunions d'information ont reconnu que les risques de l'IA étaient importants, mais leur ont dit que la responsabilité de les gérer incombait à différentes équipes ou départements. À la fin de l'année 2021, les Harris affirment que Gladstone a finalement trouvé un service gouvernemental chargé de traiter les risques liés à l'IA : le Bureau de la sécurité internationale et de la non-prolifération du département d'État. Les équipes du Bureau ont un mandat inter-agences pour traiter les risques liés aux technologies émergentes, y compris les armes chimiques et biologiques, ainsi que les risques radiologiques et nucléaires. À la suite de réunions d'information organisées par Jeremie et Mark Beall, alors directeur général de Gladstone, le Bureau a lancé, en octobre 2022, un appel d'offres pour la rédaction d'un rapport susceptible d'éclairer la décision d'ajouter ou non l'IA à la liste des autres risques qu'il surveille. (Le département d'État n'a pas répondu à une demande de commentaire sur l'issue de cette décision). L'équipe Gladstone a remporté ce contrat et le rapport publié lundi en est le résultat.
Le rapport se concentre sur deux catégories de risques distinctes
La première catégorie, appelée « risque d'armement », est décrite dans le rapport : « Ces systèmes pourraient potentiellement être utilisés pour concevoir et même exécuter des attaques biologiques, chimiques ou cybernétiques catastrophiques, ou permettre des applications armées sans précédent dans le domaine de la robotique en essaim ». La deuxième catégorie est ce que le rapport appelle le risque de « perte de contrôle », c'est-à-dire la possibilité que les systèmes d'IA avancés soient plus malins que leurs créateurs. Il y a, selon le rapport, « des raisons de croire qu'ils pourraient être incontrôlables s'ils sont développés à l'aide des techniques actuelles, et qu'ils pourraient se comporter de manière hostile à l'égard des êtres humains par défaut ».
Selon le rapport, ces deux catégories de risques sont exacerbées par la « dynamique de la course » dans le secteur de l'IA. Selon le rapport, la probabilité que la première entreprise à réaliser l'AGI récolte la majorité des bénéfices économiques incite les entreprises à donner la priorité à la vitesse plutôt qu'à la sécurité. « Les laboratoires d'IA d'avant-garde sont confrontés à une incitation intense et immédiate à faire évoluer leurs systèmes d'IA aussi vite que possible », indique le rapport. « Ils ne sont pas immédiatement incités à investir dans des mesures de sûreté ou de sécurité qui n'apportent pas d'avantages économiques directs, même si certains le font par souci sincère ».
Le rapport Gladstone identifie le matériel - en particulier les puces informatiques haut de gamme actuellement utilisées pour former les systèmes d'IA - comme un goulot d'étranglement important pour l'augmentation des capacités de l'IA. Selon le rapport, la réglementation de la prolifération de ce matériel pourrait être "la condition la plus importante pour préserver la sécurité mondiale à long terme de l'IA". Il indique que le gouvernement devrait envisager de lier les licences d'exportation de puces à la présence de technologies sur puce permettant de contrôler si les puces sont utilisées dans de grandes séries d'entraînement à l'IA, afin de faire respecter les règles proposées contre l'entraînement de systèmes d'IA plus grands que le GPT-4. Toutefois, le rapport note également que toute intervention devra tenir compte de la possibilité qu'une surréglementation soutienne les industries de puces étrangères, érodant ainsi la capacité des États-Unis à influencer la chaîne d'approvisionnement.
Les auteurs du rapport ont travaillé pendant plus d'un an, s'entretenant avec plus de 200 fonctionnaires, experts et employés d'entreprises d'avant-garde dans le domaine de l'IA, comme OpenAI, Google DeepMind, Anthropic et Meta, dans le cadre de leurs recherches. Les comptes rendus de certaines de ces conversations brossent un tableau inquiétant, suggérant que de nombreux travailleurs de la sécurité de l'IA dans les laboratoires de pointe sont préoccupés par les incitations perverses qui motivent la prise de décision par les dirigeants qui contrôlent leurs entreprises.
Source : rapport
Et vous ?
:fleche: Quelles devraient être les priorités du gouvernement pour réguler l’intelligence artificielle ?
:fleche: Comment pouvons-nous équilibrer les avantages de l’IA avec les risques potentiels pour la sécurité ?
:fleche: Quel rôle les citoyens devraient-ils jouer dans la surveillance de l’évolution de l’IA ?
:fleche: Quelles mesures internationales pourraient être prises pour assurer une utilisation éthique de l’IA ?
:fleche: Comment la recherche et l’innovation en IA peuvent-elles contribuer à prévenir les scénarios catastrophiques ?
2 pièce(s) jointe(s)
La Chine utilisera l'IA pour perturber les élections aux USA, en Corée du Sud et en Inde, prévient Microsoft
La Chine utilisera l'IA pour perturber les élections aux USA, en Corée du Sud et en Inde, prévient Microsoft
A propos du tsunami de désinformation dû à l’avènement des deepfakes et IA génératives
Le gouvernement chinois intensifie ses efforts en matière d'intelligence artificielle pour perturber les élections dans le monde entier, d’après l'équipe de renseignement sur les menaces de Microsoft. Le géant technologique affirme qu'une multitude de groupes cybercriminels soutenus par l'État chinois prévoient d'utiliser l'IA pour perturber les élections de 2024 aux États-Unis, en Inde et en Corée du Sud. Les experts en sécurité de l'entreprise ont ajouté que la Corée du Nord participait également à cet effort, qui pourrait s'étendre à toute une série de canaux, y compris les médias sociaux.
La Chine utilise de faux comptes de médias sociaux pour sonder les électeurs sur ce qui les divise le plus, afin de semer la discorde et d'influencer éventuellement le résultat de l'élection présidentielle américaine en sa faveur. C’est ce qui ressort de l’alerte de Microsoft qui ajoute que le Parti communiste chinois soutient des groupes cybercriminels qui, ces derniers mois, ont tenté de diviser les Américains sur une série d'événements récents, notamment en affirmant que le gouvernement américain pourrait être impliqué dans le déraillement du train du Kentucky en novembre 2023, que les États-Unis empoisonnent de façon intentionnelle les réserves d'eau étrangères, les raisons de la consommation de drogues aux États-Unis, ainsi que les politiques d'immigration et les tensions raciales dans le pays.
L’un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à l’IA, qui peuvent faire dire ou faire n’importe quoi à n’importe qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique comme le président Joe Biden être transporté à l’hôpital, ou un candidat dire des choses qu’il ou elle n’a jamais dites.
Près de trois ans après que les émeutiers ont pris d’assaut le Capitole des États-Unis, les théories du complot à l’origine de cette violente attaque restent répandues sur les réseaux sociaux et dans l’actualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.
Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois s’érodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.
De nombreux Américains, encouragés par l’ancien président Donald Trump, ont continué à promouvoir l’idée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden n’a pas été légitimement élu président.
Parallèlement, les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.
Les deepfakes IA deviennent de plus en plus répandus
Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.
Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection.
« On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital. On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu », soulignent des observateurs
Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.
Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.
Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.
Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.
Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.
Les protections des médias sociaux s'effondrent : l'exemple de X/Twitter
Il y a un peu plus d’un an, Elon Musk a racheté Twitter et a commencé à licencier ses dirigeants, à démanteler certaines de ses fonctionnalités principales et à remodeler la plateforme de médias sociaux pour en faire ce que l’on appelle désormais X.
Depuis lors, il a bouleversé le système de vérification, laissant les agents publics vulnérables aux usurpateurs d’identité. Il s'est débarrassé des équipes qui luttaient autrefois contre la désinformation sur la plateforme, laissant la communauté des utilisateurs se modérer. Et il a rétabli les comptes de théoriciens du complot et d’extrémistes qui étaient auparavant bannis.
Les changements ont été applaudis par de nombreux conservateurs qui affirment que les précédentes tentatives de modération de Twitter équivalaient à une censure de leurs opinions. Mais les partisans des démocrates affirment que cette prise de pouvoir a transformé ce qui était autrefois une ressource imparfaite mais utile en matière d’information et d’informations électorales en une chambre d’écho largement non réglementée qui amplifie les discours de haine et la désinformation.
Twitter était autrefois l'une des plateformes « les plus responsables », montrant sa volonté de tester des fonctionnalités susceptibles de réduire la désinformation, même au détriment de l'engagement, a déclaré Jesse Lehrich, co-fondateur d'Accountable Tech, un groupe de surveillance à but non lucratif.
« De toute évidence, ils se trouvent désormais à l'autre extrémité du spectre », a-t-il déclaré, ajoutant qu'il pensait que les changements apportés par l'entreprise avaient permis à d'autres plateformes d'assouplir leurs propres politiques.
X, Meta et YouTube et leurs gestions de la désinformation
À l’approche de 2024, X, Meta et YouTube ont supprimé ensemble 17 politiques protégeant contre la haine et la désinformation, selon un rapport de Free Press, une organisation à but non lucratif qui défend les droits civiques dans la technologie et les médias.
En juin, YouTube a annoncé que même s’il continuerait de réglementer les contenus trompeurs sur les élections en cours ou à venir, il cesserait de supprimer les contenus prétendant faussement que les élections de 2020 ou d’autres élections américaines précédentes ont été entachées de « fraudes, erreurs ou problèmes généralisés ». La plateforme a déclaré que cette politique visait à protéger la capacité de « débattre ouvertement des idées politiques, même celles qui sont controversées ou basées sur des hypothèses réfutées ».
Lehrich a déclaré que même si les entreprises technologiques veulent éviter de supprimer les contenus trompeurs, « il existe de nombreuses façons neutres en termes de contenu » pour les plateformes de réduire la propagation de la désinformation, depuis l'étiquetage des articles vieux de plusieurs mois jusqu'à rendre plus difficile le partage de contenu sans l'examiner. d'abord.
X, Meta et YouTube ont également licencié des milliers d'employés et de sous-traitants depuis 2020, dont certains incluent des modérateurs de contenu.
Le rétrécissement de ces équipes, que beaucoup attribuent à la pression politique, « prépare le terrain pour que les choses soient pires en 2024 qu’en 2020 », a déclaré Kate Starbird, experte en désinformation à l’Université de Washington.
Meta explique sur son site Internet qu'elle compte quelque 40 000 personnes dévouées à la sûreté et à la sécurité et qu'elle gère « le plus grand réseau indépendant de vérification des faits de toutes les plateformes ». Il supprime également fréquemment les réseaux de faux comptes de réseaux sociaux visant à semer la discorde et la méfiance. « Aucune entreprise technologique n’en fait ou n’investit autant que Meta pour protéger les élections en ligne – pas seulement pendant les périodes électorales mais à tout moment », indique le message.
Ivy Choi, porte-parole de YouTube, a déclaré que la plateforme était « fortement investie » dans la connexion des gens à du contenu de haute qualité sur YouTube, y compris pour les élections. Elle a souligné les panneaux de recommandation et d’information de la plateforme, qui fournissent aux utilisateurs des informations électorales fiables, et a déclaré que la plateforme supprimait les contenus qui induisaient les électeurs en erreur sur la manière de voter ou encourageaient l’ingérence dans le processus démocratique.
La montée en puissance de TikTok et d’autres plateformes moins réglementées telles que Telegram, Truth Social et Gab a également créé davantage de silos d’informations en ligne où des allégations sans fondement peuvent se propager. Certaines applications particulièrement populaires parmi les communautés de couleur et les immigrés, comme WhatsApp et WeChat, s'appuient sur des discussions privées, ce qui rend difficile pour les groupes extérieurs de voir la désinformation qui peut se propager.
« Je crains qu’en 2024, nous assistions à des faux récits recyclés et enracinés similaires, mais à des tactiques plus sophistiquées », a déclaré Roberta Braga, fondatrice et directrice exécutive du Digital Democracy Institute of the Americas. « Mais du côté positif, j'espère qu'il y aura plus de résilience sociale face à ces choses ».
« Si une campagne de désinformation est suffisamment efficace pour qu’un pourcentage suffisamment important de la population américaine ne croit pas que les résultats reflètent ce qui s’est réellement passé, alors le 6 janvier [date de l’assaut du Capitole par des partisans de Donald Trump] ressemblera probablement à un échauffement », a averti Laura Rosenberger, directrice du groupe de réflexion Alliance for Securing Democracy.
Face à ce défi, certains acteurs tentent de sensibiliser le public et de renforcer la résilience démocratique. C’est le cas d'un groupe d’étudiants du Minnesota qui se concentre sur la promotion et la sensibilisation des électeurs. Le groupe organise des séances d’information avec des responsables électoraux, des experts en désinformation et des journalistes, et encourage les jeunes à s’informer auprès de sources fiables et diversifiées : « Nous voulons que les gens soient conscients de ce qui se passe, qu’ils sachent comment vérifier les faits et qu’ils comprennent comment les médias sociaux peuvent influencer leur perception de la réalité ».
Source : Microsoft
Et vous ?
:fleche: Quelle est votre opinion sur le développement de l’IA et son impact sur la désinformation ?
:fleche: Pensez-vous que les réseaux sociaux devraient être plus responsables et régulés face à la diffusion des deepfakes et des fausses informations ?
:fleche: Comment vous informez-vous sur les candidats et les enjeux des élections en général et de l’élection américaine de 2024 en particulier ? Craignez-vous une ingérence de l'IA dans les élections présidentielles de votre pays tandis que la technologie se perfectionne ? Dans quelle mesure ?
:fleche: Quel rôle pensez-vous que les citoyens et les organisations civiles peuvent jouer pour renforcer la résilience démocratique face à la désinformation ?
1 pièce(s) jointe(s)
TikTok permet aux utilisateurs de diffuser des deepfakes de Joe Biden générés par l'IA malgré ses politiques
TikTok permet aux utilisateurs de diffuser des deepfakes de Joe Biden générés par l'IA malgré les politiques de la plateforme
qui interdisent les contenus pouvant induire en erreur sur des faits réels
Les deepfakes mettant en scène le président américain Joe Biden continuent d'être largement diffusés sur TikTok. Dans de nombreux cas, ces fausses vidéos sont diffusées sans aucune mention ni divulgation comme l'exigent les politiques d'utilisation de la plateforme, en violation flagrante des politiques de la plateforme. Par le passé, des experts ont souligné que TikTok a l'habitude de ne pas être à la hauteur lorsqu'il s'agit de modérer les contenus générés par l'IA ou modifiés de manière trompeuse. ByteDance est actuellement soumis à des pressions croissantes pour céder l'activité américaine de TikTok sous peine de voir sa plateforme interdite aux États-Unis.
Selon les lignes directrices communautaires de TikTok, "les médias synthétiques ou manipulés qui montrent des scènes réalistes doivent être clairement divulgués en affichant un autocollant ou une légende, comme synthétique, faux, pas réel ou altéré". Cette politique précise également que "le matériel qui a été édité, raccordé ou combiné (comme la vidéo et l'audio) d'une manière qui peut induire une personne en erreur sur des événements réels n'est pas autorisé". De nouveaux rapports signalent un laxisme dans l'application de ces règles, ce qui permet aux utilisateurs de diffuser largement des deepfakes sur la plateforme.
Media Matters a trouvé plusieurs vidéos sur TikTok qui montrent Joe Biden avec un son altéré et qui ne comportent aucune étiquette ou information sur l'altération. (Ces vidéos durent moins de 60 secondes et ne semblent donc pas être éligibles au programme de récompenses.) Le 29 avril, Snopes a identifié une vidéo de la visite de Joe Biden, le 17 avril, dans une supérette Sheetz à Pittsburgh, qui a été modifiée pour inclure des huées et d'autres chahuts et qui a été partagée sur les médias sociaux. L'audio proviendrait d'une vidéo prise par un manifestant qui chahutait le cortège de Joe Biden lors de sa visite à Maui en 2023.
Aucune des vidéos manipulées n'a été étiquetée ou divulguée comme étant fausse. Une enquête distincte de USA Today a révélé qu'une vidéo de Joe Biden visitant une entreprise d'Allentown, en Pennsylvanie, avait été modifiée de la même manière, avec un son rempli de blasphème, et postée sur Instagram et X (anciennement Twitter) en janvier. Bien que Joe Biden ait été chahuté lors de sa visite, d'autres injures auraient été ajoutées à la vidéo. Plusieurs vidéos ont été manipulées pour inclure des chants profanes dirigés contre Joe Biden, y compris des vidéos modifiées d'un discours du président sur la violence des armes à feu.
Bien que le nombre de deepfakes mettant en scène le président américain Joe Biden ait augmenté ces derniers mois, le problème ne touche pas que lui. D'autres personnalités influentes sont aussi concernées. Selon les experts, ces vidéos pullulent sur TikTok, car la plateforme n'applique pas comme cela se doit ses règles communautaires, permettant ainsi toute forme de violation. Des deepfakes faisant la promotion d'escroqueries au bitcoin, de produits de santé douteux et de théories du complot générées par l'IA ont proliféré sur la plateforme, y compris d'autres vidéos de politiciens éditées de manière trompeuse.
Dans certains cas, des utilisateurs ont pu profiter du programme de récompenses pour les créateurs de TikTok (anciennement le programme de créativité), qui vise à rémunérer les créateurs pour les contenus de plus de 60 secondes qu'ils publient sur la plateforme. Face à l'augmentation de deepfakes faisant la promotion d'escroquerie et mettant en scène des politiciens de manière trompeuse, la Maison Blanche a annoncé en février qu'elle travaille sur des techniques pouvant permettre de vérifier cryptographiquement ses communiqués officiels. Aucun détail n'a encore été communiqué sur la forme que prendrait ce processus.
Les outils d'IA générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. De fausses voix, images et autres contenus manipulés ont déjà été diffusés en ligne pour tenter de saper les élections présidentielles américaines de novembre 2024. La FCC (Federal Communications Commission) a interdit les appels automatisés générés par l'IA après qu'un appel destiné aux électeurs du New Hampshire a imité la voix du président Joe Biden et les exhortés à ne pas voter lors des élections primaires de l'État.
Le problème des deepfakes sur TikTok prend de l'ampleur dans un contexte où l'application est confrontée à une incertitude quant à son avenir sur le marché américain. Une nouvelle loi votée le mois dernier interdirait TikTok aux États-Unis à moins que son propriétaire, ByteDance, ne vende l'application populaire de partage de vidéos courtes. Le vote de cette législation a été motivé par des préoccupations bipartisanes en matière de sécurité nationale. Les législateurs américains craignent en effet que le gouvernement chinois ne s'appuie sur ByteDance pour accéder aux informations des utilisateurs américains de TikTok.
Selon les législateurs, cela pourrait permettre à la Chine de surveiller les Américains et de diffuser des informations fausses et trompeuses auprès des électeurs américains. « Il n'est pas difficile d'imaginer comment une plateforme qui facilite tant le commerce, le discours politique et le débat social pourrait être secrètement manipulée pour servir les objectifs d'un régime autoritaire », a déclaré cette semaine le sénateur Mark Warner (D-Va). Certaines sources indiquent que des informations classifiées des services de renseignement ont alerté sur TikTok, mais ces informations ne sont pas encore accessibles au grand public.
Les détracteurs de la législation affirment toutefois que les préoccupations liées à TikTok sont exagérées. Par exemple, le sénateur Edward Markey du Massachusetts a déclaré que bien qu'il soit préoccupé par la collecte de données d'utilisateurs par de nombreux réseaux sociaux, il n'a vu aucune preuve crédible que TikTok représente une menace simplement parce que sa société mère est basée en Chine. Que savons-nous donc des efforts déployés par la Chine pour manipuler les Américains à l'aide des médias sociaux, et quel rôle joue TikTok ? Depuis le début, aucune réponse claire n'a été apportée à cette question.
Selon la communauté du renseignement, les entreprises technologiques et les chercheurs indépendants américains, la Chine représente une menace croissante. « La Chine cherche à semer le doute sur le leadership des États-Unis, à saper la démocratie et à étendre l'influence de Pékin », a écrit le Bureau du directeur du renseignement national (ODNI) dans son évaluation annuelle des menaces au début de l'année. Malgré tout, ByteDance dispose de neuf mois pour vendre TikTok à une entreprise américaine sinon l'application sera interdite aux États-Unis. ByteDance n'a toutefois aucune intention de se soumettre.
ByteDance et TikTok envisagent de déposer des recours juridiques contre la législation et espèrent qu'elle sera bloquée par les tribunaux au nom du Premier amendement et d'autres lois américaines sur la liberté d'expression. Un décret similaire signé par Donald Trump, alors président des États-Unis, avait déjà été bloqué par les tribunaux. D'autres rapports indiquent que ByteDance envisage la fermeture de TikTok sur le marché américain si ses recours n'aboutissent pas.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de la prolifération des deepfakes visant le président américain Joe Biden sur TikTok ?
:fleche: Pensez-vous que TikTok laisse délibérément ces vidéos se propager sur sa plateforme ?
:fleche: Les plateformes de médias sociaux ont-ils perdu la guerre contre les deepfakes ?
:fleche: Pensez-vous que TikTok représente une menace pour la sécurité nationale des États-Unis ?
Voir aussi
:fleche: La Maison Blanche veut «vérifier cryptographiquement» les vidéos de Joe Biden afin que les téléspectateurs ne les confondent pas avec des «deepfakes», et dit reconnaitre « le risque de préjudice »
:fleche: La FCC juge illégales les voix générées par l'IA dans les appels automatisés : "De mauvais acteurs les utilisent pour extorquer des membres de la famille et désinformer les électeurs"
:fleche: Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation », avec l'avènement des deepfakes et les IA génératives