Discussion :
Objectivement Joe Biden raconte plus de conneries que Trump, puisque Joe Biden a des problèmes de mémoire (officiellement, en réalité ça doit bien être pire que ça).
Si j'ai bien compris le truc, aux USA il y a une histoire de système biparti, en gros il y a 2 gros partis : démocrate et républicain, le reste est appelé tiers parti (third party).
Les petits partis sont quasiment ignorés.
En France c'est pas exactement pareil, sinon chaque second tour se finirait en PS vs LR.
En 2017 et en 2022 il n'y avait ni PS, ni LR.
En 2017 le PS a préféré soutenir Macron que de soutenir son candidat : Benoît Hamon.
Depuis il fait des petits scores. En 2022 le PS s'est fait battre par Debout la France, Parti communiste français, Résistons !, Europe-Ecologie-Les Verts, Les Républicains, Reconquête, La France insoumise, etc. (si le PS continu comme ça il pourrait finir par faire faillite)
=====
En France il n'y a pas toujours de système de primaire (il y a eu des primaires LR et des primaires PS en 2017 et les gens ont choisi Fillon et Hamon (alors que les partis espéraient Juppé et Valls)).
Aux USA les candidats républicains se disent tous "j'abandonne je ne peux pas lutter contre Trump, il est beaucoup trop populaire".
En France il y a Taubira qu'arrive et qui se présente en plus de Jospin.
Ce serait intéressant que les petits partis de gauche (PS, EELV, PCF, LO, NPA) ne se présentent pas et laissent la place à François Ruffin.
Parfois il n'y a pas de candidat EELV, parfois il n'y a pas de candidat PCF, donc il est tout à fait possible de ne pas se présenter.
Si un candidat, comme François Ruffin par exemple, arrivait à motiver les abstentionnistes à voter, il pourrait atteindre le second tour.
LFI n'est pas si loin du pouvoir que ça.
====
Bref, tout ça pour dire que j'aime bien le première tour, parce que parfois il y a Jean Lassalle, parfois il y a François Asselineau, je trouve ça cool.
La Chine recourt à l'IA pour intensifier sa campagne de désinformation à l'approche des élections américaines
elle s'appuierait sur des réseaux de sites Web avec des contenus et des avatars générés par l'IA
La Chine est accusée d'avoir déployé une vaste campagne de désinformation dans le but d'influencer l'opinion publique américaine à l'approche de l'élection présidentielle de novembre 2024. Cette campagne coûterait plusieurs milliards de dollars par an et s'appuierait sur les capacités de génération de l'IA et des réseaux de sites Web. Ces derniers prétendent être des organes d'information légitimes et diffusent des informations favorables à Pékin. Les recherches sur l'identité de certains auteurs des publications révèlent que leurs noms n'appartiennent à aucun journaliste connu travaillant en Chine, et leurs photos portent les signes révélateurs d'œuvres générées par l'IA.
Des réseaux de sites Web et l'IA : la recette de Pékin pour mener des opérations d'influence
Les rapports accusant la Chine, la Russie et l'Iran de mener de vastes opérations de désinformation en ligne ne sont pas nouveaux. Toutefois, les rapports de ces dernières années soulignent un changement préoccupant dans ces campagnes : elles deviennent de plus en plus sophistiquées grâce à l'IA. La neutralisation de ces campagnes de désinformation devient extrêmement difficile, notamment en raison de la capacité de l'IA à générer du texte cohérent et convaincant, et sa capacité à générer des images réalistes. La combinaison de ses éléments permet à ces campagnes de générer des infox très convaincantes.
Des réseaux de sites Web présentés prétendument appartenant à des organes d'information légitimes et les plateformes de médias sociaux permettent ensuite aux auteurs de ces campagnes de diffuser à grande échelle leurs infox. Selon un rapport publié récemment par Fortune, Shannon Van Sant, conseillère auprès de la Fondation du Comité pour la liberté à Hong Kong, a suivi un réseau de dizaines de sites Web se faisant passer pour des organes de presse.
L'un d'entre eux imitait le New York Times, utilisant une police de caractères et un graphisme similaires. Le site véhiculait des messages fortement prochinois. Lorsque Shannon Van Sant a fait des recherches sur les journalistes du site, elle n'a trouvé aucune information. En effet, les recherches ont révélé que les noms des auteurs n'appartiennent à aucun journaliste connu travaillant en Chine, et leurs photos portent les signes révélateurs d'une création par l'IA.
Les analystes de la société de cybersécurité Logically ont identifié 1 200 sites Web ayant diffusé des articles de médias d'État russes ou chinois. Ces sites ciblent souvent des publics spécifiques et portent des noms qui ressemblent à ceux d'organismes d'information traditionnels ou de journaux disparus. Selon les analystes, dans leurs opérations de désinformation, Moscou et Téhéran ont affiché des préférences claires dans la campagne présidentielle américaine.
Pékin quant à lui est plus prudent et se concentre sur la diffusion de contenus positifs sur la Chine. Si les sites n'appartiennent pas à la Chine, ils diffusent un contenu chinois. Lorsque Logically s'est penché sur le contenu concernant spécifiquement les élections américaines, 20 % ont pu être retracés jusqu'aux médias d'État chinois ou russes. Les analystes estiment que la probabilité que ces infox puissent influencer l'opinion publique américaine est très élevée.
« Il est fort probable que ces articles puissent influencer le public américain sans qu'il sache d'où ils viennent », a déclaré Alex Nelson, responsable de la stratégie et de l'analyse chez Logically. Ils appellent le gouvernement américain à déployer des mesures d'urgence pour contrer les opérations d'influences chinoises.
Les efforts déployés par Pékin sont liés à la course mondiale à la domination technologique
« En plus de ses médias d'État, Pékin s'est tourné vers des acteurs étrangers - réels ou non - pour relayer des messages et donner de la crédibilité à des récits favorables au Parti communiste », affirme Xiao Qiang, chercheur à l'École de l'information de l'Université de Californie à Berkeley. Xiao Qiang est également rédacteur en chef de China Digital Times, un site Web d'information bilingue qui rassemble des articles sur la Chine et en provenance de ce pays. « Les méthodes de Pékin sont très variées et les liens avec le gouvernement sont souvent difficiles à prouver », a-t-il déclaré à propos des campagnes d'infox.
Mais Xiao Qiang ajoute : « qu'il s'agisse de journalistes aux noms à consonance américaine ou d'un influenceur indien, les messages toujours favorables à Pékin les trahissent. Le message implicite est le même : le parti communiste chinois travaille pour son peuple ». Dans ses efforts visant à influencer l'opinion mondiale, en particulier l'opinion publique américaine, la Chine aurait également conclu des partenariats avec des groupes de média du monde entier.
« L'action de la Chine s'inscrit dans le cadre de la course mondiale à la domination économique dans les domaines des véhicules électriques, des puces électroniques, de l'IA et de l'informatique quantique. Les pays qui seront à la pointe des technologies émergentes seront ceux qui bénéficieront d'un avantage considérable à l'avenir », a déclaré Jaret Riddick, chercheur principal au Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.
Et pour raconter son histoire, Pékin n'hésiterait pas à utiliser de faux personnages. Un rapport du département d'État américain, datant de 2023, décrit le cas d'un écrivain publié nommé Yi Fan, présenté à l'origine comme un analyste du ministère chinois des Affaires étrangères. Yi Fan s'est transformé en journaliste, puis en analyste indépendant. Le rapport du département d'État indique que les détails de Yi Fan ont changé, mais le message est resté le même.
Dans les écrits qu'il a publiés, Yi Fan a vanté les liens étroits entre la Chine et l'Afrique, loué l'approche de Pékin en matière de durabilité environnementale et affirmé que la Chine devait contrer les récits déformés de l'Occident. Et puis il y a eu Wilson Edwards, un prétendu virologue suisse cité dans les médias chinois comme un expert de la Covid-19 qui a critiqué la réponse des États-Unis. Mais les autorités suisses n'ont trouvé aucune preuve de son existence.
Selon les experts américains, Pékin a investi dans des médias d'État tels que l'agence de presse Xinhua et China Central Television pour transmettre ses messages au monde entier, et ce dans différentes langues et sur différentes plateformes. Les groupes de médias au niveau local créent des « centres de communication internationaux » pour établir une présence à l'étranger avec des sites Web, des chaînes d'information et des comptes de médias sociaux.
Cependant, Liu Pengyu, porte-parole de l'ambassade de Chine aux États-Unis, a déclaré que « les allégations selon lesquelles la Chine utilise des sites d'information et des médias sociaux pour diffuser des informations favorables à Pékin et influencer l'opinion publique aux États-Unis sont pleines de spéculations malveillantes contre la Chine, ce à quoi la Chine s'oppose fermement ». La Russie et l'Iran ont également démenti les rapports les concernant.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'utilisation détournée de l'IA dans les campagnes d'influence en ligne ?
Quels pourraient être les impacts de cette forme d'utilisation de l'IA sur l'état du Web dans les années à venir ?
Comment peut-on contrer les campagnes de désinformation basées sur l'IA ? Peut-on y faire face de manière efficace ?
Voir aussi
Il n'y a pas que TikTok, les applications chinoises, les médias sociaux et les jeux en ligne espionnent également les utilisateurs du monde entier pour collecter leurs données personnelles, avertit une étude
La Chine utilise l'IA pour générer de la propagande sur YouTube : des puces ultra-fines aux projets d'infrastructures gigantesques, le contenu a été vu près de 120 millions de fois
La Chine aurait lancé la plus grande campagne de désinformation en ligne au monde dans le but de harceler les Américains, selon un nouveau rapport
Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu
Au moins six grandes entreprises technologiques prévoient de signer cette semaine un accord qui guiderait la manière dont elles tentent de mettre un terme à l'utilisation d'outils d'intelligence artificielle pour perturber les élections démocratiques.
L'événement à venir lors de la conférence sur la sécurité de Munich en Allemagne intervient alors que plus de 50 pays doivent organiser des élections nationales en 2024.
Des tentatives d'ingérence électorale générées par l'IA ont déjà commencé, comme lorsque des robocalls imitant la voix du président américain Joe Biden ont tenté de décourager les gens de voter lors des élections primaires du New Hampshire le mois dernier.
"En cette année cruciale pour les élections mondiales, les entreprises technologiques travaillent sur un accord visant à lutter contre l'utilisation trompeuse de l'IA ciblant les électeurs", a déclaré le mardi 13 février une déclaration commune de plusieurs entreprises. "Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres travaillent conjointement pour progresser sur cet objectif commun et nous espérons finaliser et présenter les détails vendredi lors de la Conférence de Munich sur la sécurité."
Les entreprises ont refusé de donner des détails sur le contenu de l'accord. Nombre d'entre elles ont déjà déclaré qu'elles mettaient en place des mesures de protection pour leurs propres outils d'IA générative qui peuvent manipuler des images et des sons, tout en s'efforçant d'identifier et d'étiqueter les contenus générés par l'IA afin que les utilisateurs des médias sociaux sachent si ce qu'ils voient est réel.
X, la plateforme anciennement connue sous le nom de Twitter, n'a pas été mentionnée dans la déclaration.
Source : Déclaration commune de plusieurs entreprises dont Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres, lors la conférence de Munich sur la sécurité
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de cette initiative, trouvez-vous qu'elle est appropriée et pertinente ?
Pensez-vous que cette initiative lancée par les entreprises technologiques soit suffisante pour lutter contre l'ingérence de l'IA dans le processus électoral ?
Voir aussi :
Des agents chinois sont soupçonnés d'utiliser des images générées par l'IA pour désinformer les électeurs américains, selon un rapport de Microsoft
Le gouvernement irlandais craint que l'IA ne soit utilisée pour diffuser des infox à l'approche des élections, il estime que cela pourrait influencer le vote des électeurs et saper la démocratie
OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024, en s'appuyant sur des programmes de vérification des informations et d'authenticité des images
Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
"Vous ne pouvez pas croire toutes les vidéos que vous voyez", selon Brad Smith, vice-président de Microsoft, il indique comment lutter contre le contenu abusif de l'IA et les deepfakes malveillants.
Microsoft a découvert que ses propres outils étaient utilisés par des acteurs malveillants dans un épisode récemment médiatisé. Microsoft indique dans un billet de blog que l'entreprise "s'est engagée à adopter une approche solide et globale", citant six domaines d'action différents. Brad Smith, le vice-président de Microsoft écrit que "nous devons agir de toute urgence pour lutter contre tous ces problèmes".
Nous assistons actuellement à une expansion rapide de l'utilisation abusive des nouveaux outils d'IA par des acteurs malveillants", écrit Brad Smith, vice-président de Microsoft, "notamment par le biais de deepfakes basés sur des vidéos, des sons et des images générés par l'IA". Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par le biais de la pornographie non consensuelle et la nouvelle génération de cyberintimidation.
Chaque jour, des millions de personnes utilisent de puissants outils d'IA générative pour stimuler leur expression créative. À bien des égards, l'IA offrira à chacun des possibilités passionnantes de donner vie à de nouvelles idées. Toutefois, à mesure que ces nouveaux outils sont commercialisés par Microsoft et l'ensemble du secteur technologique, on doit prendre de nouvelles mesures pour nous assurer que ces nouvelles technologies résistent aux abus.
L'histoire de la technologie montre depuis longtemps que la créativité n'est pas l'apanage des personnes bien intentionnées. Les outils deviennent malheureusement aussi des armes, et ce schéma se répète. On assiste actuellement à une expansion rapide de l'utilisation abusive de ces nouveaux outils d'IA par des acteurs malveillants, notamment par le biais de "deepfakes" basés sur des vidéos, des sons et des images générés par l'IA. Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par la pornographie non consensuelle et la nouvelle génération de cyberintimidation.
On doit agir de toute urgence pour lutter contre tous ces problèmes. Voici l'approche de Microsoft pour lutter contre les contenus abusifs générés par l'IA :
Source : Brad Smith, vice-président de MicrosoftIl est encourageant de constater que nous pouvons tirer de nombreux enseignements de notre expérience en tant qu'industrie dans des domaines adjacents : faire progresser la cybersécurité, promouvoir la sécurité des élections, lutter contre les contenus extrémistes violents et protéger les enfants. En tant qu'entreprise, nous nous engageons à adopter une approche solide et globale qui protège les personnes et nos communautés, en nous appuyant sur six domaines d'action :
- Une architecture de sécurité solide. Nous nous engageons à adopter une approche technique globale fondée sur la sécurité dès la conception. Selon le scénario, une architecture de sécurité solide doit être appliquée au niveau de la plateforme d'IA, du modèle et des applications. Elle comprend des aspects tels que l'analyse continue de l'équipe rouge, les classificateurs préemptifs, le blocage des invites abusives, les tests automatisés et l'interdiction rapide des utilisateurs qui abusent du système. Elle doit s'appuyer sur une analyse de données solide et étendue. Microsoft a mis en place une architecture solide et partagé ses connaissances par le biais de ses normes en matière d'IA responsable et de sécurité numérique, mais il est clair que nous devrons continuer à innover dans ces domaines au fur et à mesure que la technologie évolue.
- Provenance durable des médias et filigrane. C'est essentiel pour lutter contre les "deepfakes" dans la vidéo, les images ou l'audio. L'année dernière, lors de notre conférence Build 2023, nous avons annoncé des capacités de provenance des médias qui utilisent des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA avec des métadonnées sur sa source et son historique. Avec d'autres grandes entreprises, Microsoft a joué un rôle de premier plan dans la recherche et le développement de méthodes d'authentification de la provenance, notamment en tant que cofondateur du projet Origin et de l'organisme de normalisation Coalition for Content Provenance and Authenticity (C2PA). La semaine dernière, Google et Meta ont pris des mesures importantes pour soutenir la C2PA, mesures que nous apprécions et applaudissons.
Nous utilisons déjà la technologie de provenance dans les outils de création d'images Microsoft Designer dans Bing et dans Copilot, et nous sommes en train d'étendre la provenance des médias à tous nos outils qui créent ou manipulent des images. Nous étudions également activement les techniques de filigrane et d'empreinte digitale qui contribuent à renforcer les techniques de provenance. Nous nous engageons à poursuivre l'innovation afin d'aider les utilisateurs à déterminer rapidement si une image ou une vidéo a été générée ou manipulée par l'IA.
- Protéger nos services contre les contenus et les comportements abusifs. Nous nous engageons à protéger la liberté d'expression. Mais cela ne devrait pas protéger les individus qui cherchent à imiter la voix d'une personne pour escroquer l'argent d'une personne âgée. Elle ne doit pas s'étendre aux "deepfakes" qui modifient les actions ou les déclarations de candidats politiques pour tromper le public. Elle ne doit pas non plus protéger un cyber-homme de main ou un distributeur de pornographie non consensuelle. Nous nous engageons à identifier et à supprimer les contenus trompeurs et abusifs de ce type lorsqu'ils se trouvent sur nos services hébergés destinés aux consommateurs, tels que LinkedIn, notre réseau de jeux et d'autres services pertinents.
- Une collaboration solide entre les entreprises et avec les gouvernements et la société civile. Bien que chaque entreprise soit responsable de ses propres produits et services, l'expérience montre que c'est souvent lorsque nous travaillons ensemble pour un écosystème numérique plus sûr que nous obtenons les meilleurs résultats. Nous nous engageons à travailler en collaboration avec d'autres acteurs du secteur technologique, notamment dans les domaines de l'IA générative et des médias sociaux. Nous nous engageons également à déployer des efforts proactifs avec les groupes de la société civile et à collaborer de manière appropriée avec les gouvernements.
Pour aller de l'avant, nous nous appuierons sur notre expérience de la lutte contre l'extrémisme violent dans le cadre de l'appel de Christchurch, sur notre collaboration avec les forces de l'ordre par l'intermédiaire de notre unité de lutte contre la criminalité numérique, et sur nos efforts pour mieux protéger les enfants dans le cadre de l'alliance mondiale WeProtect et d'une manière plus générale. Nous sommes déterminés à prendre de nouvelles initiatives dans l'ensemble du secteur technologique et avec d'autres groupes de parties prenantes.
- Une législation modernisée pour protéger les personnes contre l'utilisation abusive des technologies. Il est déjà évident que certaines de ces nouvelles menaces nécessiteront l'élaboration de nouvelles lois et de nouveaux efforts de la part des forces de l'ordre. Nous sommes impatients de contribuer aux idées et de soutenir les nouvelles initiatives des gouvernements du monde entier, afin de mieux protéger les internautes tout en respectant des valeurs intemporelles telles que la protection de la liberté d'expression et de la vie privée.
- Sensibilisation et éducation du public. Enfin, une défense solide nécessitera un public bien informé. À l'approche du deuxième quart du XXIe siècle, la plupart des gens ont appris qu'il ne faut pas croire tout ce que l'on lit sur l'internet (ou ailleurs). Une combinaison de curiosité et de scepticisme bien informé est une compétence essentielle pour tout le monde.
De la même manière, nous devons aider les gens à reconnaître qu'il ne faut pas croire toutes les vidéos que l'on voit ou tous les sons que l'on entend. Nous devons aider les gens à apprendre à repérer les différences entre un contenu légitime et un contenu falsifié, y compris en ce qui concerne le filigrane. Cela nécessitera de nouveaux outils et programmes d'éducation du public, notamment en étroite collaboration avec la société civile et les dirigeants de l'ensemble de la société.
En fin de compte, rien de tout cela ne sera facile. Il faudra déployer des efforts difficiles mais indispensables chaque jour. Mais avec un engagement commun en faveur de l'innovation et de la collaboration, nous pensons que nous pouvons tous travailler ensemble pour faire en sorte que la technologie reste en tête dans sa capacité à protéger le public. Peut-être plus que jamais, tel doit être notre objectif collectif.
Et vous ?
Pensez-vous que cette approche de Microsoft est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu
Microsoft comble la lacune qui a causé l'incident "Taylor Swift", avec plus de protections pour Designer. Le générateur d'images par IA était utilisé pour produire des images pornographiques
Conférence développeurs et IT Pro Ignite 2023 : Microsoft dévoile sa stratégie pour l'IA, le Cloud, et la sécurité, ainsi que pour Windows, Copilot, ChatGPT, GTP-4, Azure, et Microsoft Office 365
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Le président Joe Biden demande l'interdiction des imitations vocales par l'IA après des incidents préoccupants.
Une mesure de sécurité ou une entrave à l’innovation ?
Dans un monde de plus en plus numérisé, la question de l’authenticité et de la sécurité des voix synthétisées par intelligence artificielle (IA) prend une importance capitale. Récemment, le président Joe Biden a abordé cette problématique lors de son discours sur l’état de l’Union, appelant à une interdiction des imitations vocales par l’IA. Cette proposition fait suite à des incidents préoccupants, tels que l’utilisation d’appels robotisés imitant la voix du président pour dissuader les électeurs lors des primaires dans le New Hampshire2. Ces événements soulignent les risques potentiels associés à la technologie deepfake, notamment en matière de désinformation et de fraude.
La société s'interroge peut-être sur la manière de réglementer l'IA. Mais le président Biden est déjà convaincu que les États-Unis doivent interdire la capacité de cette technologie à imiter la voix des gens. Lors de son discours sur l'état de l'Union, jeudi, Biden n'a mentionné l'IA qu'à deux reprises au cours de son intervention d'une heure. Il a toutefois souligné que l'usurpation de la voix par l'IA constituait une menace à laquelle il fallait mettre un terme.
« Exploitez les promesses de l'IA et protégez-nous du danger. Interdisez les usurpations d'identité par l'IA et bien plus encore », a-t-il déclaré vers la fin de son discours.
Ce discours intervient plus d'un mois après qu'un robot téléphonique imitant la voix de Biden a été utilisé pour décourager les électeurs des primaires dans le New Hampshire. Ironiquement, ce n'était pas l'œuvre d'escrocs ou de propagandistes étrangers. C'est un consultant politique démocrate, Steve Kramer, qui a admis avoir orchestré ces appels pour attirer l'attention sur la menace que représente l'usurpation de la voix de l'IA.
« Je suis peut-être un méchant aujourd'hui, mais je pense qu'en fin de compte, nous aurons un meilleur pays et une meilleure démocratie grâce à ce que j'ai fait, délibérément », a déclaré Kramer à l'Associated Press.
Jusqu'à présent, l'administration Biden a tenté de réprimer l'usurpation d'identité vocale par l'IA par l'intermédiaire de la FCC. Le mois dernier, le régulateur américain a confirmé que les appels vocaux générés par l'IA violaient les lois américaines existantes conçues pour protéger les consommateurs contre les appels automatisés préenregistrés. Mais cette décision n'empêche en rien les acteurs malveillants de diffuser des "deepfakes" sur l'internet.
Aucune sanction éventuelle n'a été évoquée
Lors de son discours sur l'état de l'Union, le président Joe Biden a fait un clin d'œil à un problème croissant dans les secteurs du divertissement et de la technologie, en appelant à l'interdiction des imitations vocales par l'IA.
« Ici, chez nous, j'ai signé plus de 400 projets de loi bipartisans. Il en reste encore pour faire passer mon programme d'unité », a déclaré le président Biden, en commençant à énumérer une série de propositions différentes qu'il espère aborder s'il est élu pour un second mandat. « Renforcer les sanctions contre le trafic de fentanyl, adopter une législation bipartisane sur la protection de la vie privée pour protéger nos enfants en ligne, exploiter les promesses de l'intelligence artificielle pour nous protéger des dangers, interdire les usurpations de voix par l'intelligence artificielle, etc. »
Le président n'a pas précisé les types de garde-fous ou de sanctions qu'il prévoyait d'instaurer autour de cette technologie en plein essor, ni s'ils s'étendraient à l'industrie du divertissement. L'IA a été l'une des principales préoccupations de la SAG-AFTRA lors des négociations et de la grève du syndicat des acteurs contre les grands studios l'année dernière. Les négociations se sont finalement conclues par un accord établissant des exigences en matière de consentement et de rémunération pour les productions qui utilisent l'IA pour reproduire les ressemblances et les voix des acteurs. Toutefois, l'accord n'empêche pas les studios d'entraîner les systèmes d'IA à créer des interprètes « synthétiques » qui ne ressemblent en rien à des personnes réelles.
Plusieurs projets de loi en cours, les défenseurs des droits numérique tirent la sonnette d'alarme
Entre-temps, les législateurs américains ont proposé au moins deux projets de loi pour tenter de mettre un terme à l'usurpation de la voix de l'IA. L'un d'entre eux, le No AI Fraud Act des représentantes María Elvira Salazar (R-FL) et Madeleine Dean (D-PA), propose d'autoriser les personnes à poursuivre les fabricants de ces imitations pour obtenir des dommages-intérêts. Toutefois, l'Electronic Frontier Foundation, un groupe de défense de la vie privée, a critiqué la formulation de la loi, la jugeant trop vague et trop large et susceptible d'englober tous les types de médias numériques contenant l'image d'une personne.
« Si le Congrès veut vraiment protéger les artistes-interprètes et les gens ordinaires contre les utilisations trompeuses ou abusives de leurs images et de leur voix, il devrait adopter une approche précise, prudente et pratique qui évite les dommages collatéraux potentiels à la liberté d'expression, à la concurrence et à l'innovation », a ajouté l'EFF.
Au Sénat, la loi DEFIANCE (Disrupt Explicit Forged Images and Non-Consensual Edits) créerait un « recours civil fédéral » pour les victimes de "deepfake porn". Elle couvre « les contrefaçons numériques qui représentent la victime nue, ou engagée dans un comportement sexuellement explicite ou des scénarios sexuels » créés par des logiciels, l'apprentissage automatique, l'intelligence artificielle et d'autres moyens technologiques ou générés par ordinateur.
Des escroqueries qui s'appuient sur l'IA pour cloner les voix de vos proches et simuler une situation de rançon
Récemment, une femme nommée Robin a reçu un coup de fil semblant provenir de sa belle-mère, Mona, qui, pourtant, ne l'appelait jamais après minuit. Elle s'est dit qu'il s'agissait probablement d'une fausse manipulation et l'a ignoré. Mais son numéro l'a rappelée. Face à l'insistance, elle a décroché et, à l'autre bout du fil, elle a entendu la voix de Mona qui se lamentait et répétait les mots « Je ne peux pas le faire, je ne peux pas le faire ». « J'ai cru qu'elle essayait de me dire qu'une chose horrible et tragique s'était produite »; a expliqué Robin.
La première pensée de Robin a été qu'il y avait eu un accident. Puis elle a entendu ce qui semblait être la voix de son beau-père, Bob, au téléphone. « Mona, passe-moi le téléphone », a dit la voix de Bob, puis s'adressant à Robin, « va chercher Steve [son mari] ». Elle s'est exécutée et a réveillé son mari : « Je crois que c'est ta mère », lui dit-elle. « Je pense qu'elle me dit que quelque chose de terrible est arrivé ».
Lorsqu'il a pris le téléphone, il a entendu une voix masculine détendue à l'autre bout du fil : « Tu ne vas pas appeler la police, tu ne vas le dire à personne. J'ai un pistolet sur la tempe de ta mère et je vais lui faire sauter la cervelle si tu ne fais pas exactement ce que je te dis ».
L'homme a demandé de l'argent; il voulait cinq cents dollars, envoyés par Venmo. « C'était une somme tellement insensée pour un être humain », se souvient Steve. « Mais aussi : Il est évident que je vais payer cette somme ».
Après que Steve a envoyé les cinq cents dollars, l'homme lui a fait envoyé 250 dollars de plus. Puis, environ 25 minutes après l'échange téléphonique, il a appelé sa mère pour s'assurer que ses parents étaient désormais en sécurité. Après quelques tentatives, son père Bob a décroché le téléphone et l'a tendu à Mona. « Tu es à la maison ? Tu vas bien ? » Lui a demandé Steve.
Mona avait l'air d'aller bien, mais elle ne savait pas de quoi ils parlaient. « Oui, je suis couchée », a-t-elle répondu. « Pourquoi ? »
Ils venaient de se faire escroquer.
Cette arnaque est un exemple alarmant de la tendance croissante à l’utilisation de l’IA pour imiter les voix et tromper les gens en leur faisant croire que leurs proches sont en danger. La Commission Fédérale du Commerce des États-Unis a même émis un avertissement urgent concernant ces escroqueries, qui sont désormais les plus couramment signalées dans le pays
Selon la Federal Trade Commission, qui enquête sur la fraude à la consommation, les Américains ont perdu plus de deux millions de dollars à cause d'escroqueries de toutes sortes en 2022. L'année dernière, la FTC a publié un avis de clonage vocal, notant : « Si l'appelant demande de virer de l'argent, d'envoyer de la cryptomonnaie ou d'acheter des cartes-cadeaux et de lui donner les numéros de carte et les codes PIN, cela pourrait être le signe d'une arnaque ». Mais elle n’a pas encore créé de lignes directrices pour l’utilisation de la technologie de clonage vocal. Même si des lois sont adoptées, il sera extrêmement difficile de les faire respecter. Les fraudeurs peuvent utiliser des applications cryptées pour exécuter leurs stratagèmes, et les appels sont effectués en quelques minutes.
Conclusion
L’appel du président Biden pour une interdiction des imitations vocales par l’IA met en lumière la nécessité d’une réglementation prudente et ciblée. Alors que la technologie continue de progresser, il est crucial de trouver un équilibre entre l’exploitation de ses avantages et la protection contre ses méfaits.
Sources : State of the Union, EFF
Et vous ?
Quelles pourraient être les conséquences positives et négatives d’une interdiction des imitations vocales par l’IA ?
Comment les gouvernements devraient-ils équilibrer la protection de la vie privée avec les avantages de l’IA dans le domaine de la synthèse vocale ?
Les artistes et les créateurs de contenu devraient-ils avoir un droit de regard sur l’utilisation de leur voix par des technologies d’IA, même après avoir donné leur consentement initial ?
Quel rôle les entreprises technologiques devraient-elles jouer pour garantir l’authenticité des voix synthétisées et prévenir les abus ?
Les lois actuelles sont-elles suffisantes pour lutter contre les deepfakes et autres formes de désinformation générées par l’IA ? Sinon, quelles mesures supplémentaires devraient être prises ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Le gouvernement US doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'IA
qui pourrait, dans le pire des cas, provoquer une « extinction à la hauteur de la menace »
Le gouvernement américain doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'intelligence artificielle (IA) qui pourrait, dans le pire des cas, constituer une « menace d'extinction pour l'espèce humaine », selon un rapport commandé par le gouvernement américain et publié lundi.
« Le développement actuel de l'IA pose des risques urgents et croissants pour la sécurité nationale », indique le rapport. « L'essor de l'IA avancée et de l'AGI [intelligence artificielle générale] pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». L'AGI est une technologie hypothétique qui pourrait accomplir la plupart des tâches à un niveau égal ou supérieur à celui d'un humain. De tels systèmes n'existent pas à l'heure actuelle, mais les principaux laboratoires d'IA y travaillent et beaucoup s'attendent à ce que l'AGI arrive dans les cinq prochaines années ou moins.
Le document final, intitulé « An Action Plan to Increase the Safety and Security of Advanced AI », recommande une série de mesures politiques radicales et sans précédent qui, si elles étaient adoptées, perturberaient radicalement l'industrie de l'IA. Le Congrès devrait rendre illégal, selon le rapport, l'entraînement de modèles d'IA utilisant plus d'un certain niveau de puissance de calcul. Le seuil, recommande le rapport, devrait être fixé par une nouvelle agence fédérale de l'IA, bien que le rapport suggère, à titre d'exemple, que l'agence pourrait le fixer juste au-dessus des niveaux de puissance de calcul utilisés pour former les modèles de pointe actuels tels que le GPT-4 d'OpenAI et le Gemini de Google.
La nouvelle agence de l'IA devrait exiger des entreprises d'IA situées à la « frontière » du secteur qu'elles obtiennent l'autorisation du gouvernement pour former et déployer de nouveaux modèles au-delà d'un certain seuil, ajoute le rapport. Les autorités devraient également envisager « de toute urgence » de rendre illégale la publication des « poids » ou du fonctionnement interne des puissants modèles d'IA, par exemple dans le cadre de licences libres, les infractions pouvant être punies d'une peine d'emprisonnement, selon le rapport. Le gouvernement devrait également renforcer les contrôles sur la fabrication et l'exportation de puces d'IA et orienter le financement fédéral vers la recherche sur « l'alignement » qui vise à rendre l'IA avancée plus sûre, recommande le rapport.
Les recommandations du rapport
Le rapport a été commandé par le département d'État en novembre 2022 dans le cadre d'un contrat fédéral d'une valeur de 250 000 dollars, selon des documents publics. Il a été rédigé par Gladstone AI, une entreprise de quatre personnes qui organise des séances d'information technique sur l'IA à l'intention des fonctionnaires. (Certaines parties du plan d'action recommandent que le gouvernement investisse massivement dans la formation des fonctionnaires sur les fondements techniques des systèmes d'IA afin qu'ils puissent mieux comprendre leurs risques). Le rapport a été remis au département d'État le 26 février sous la forme d'un document de 247 pages. Le département d'État n'a pas répondu à plusieurs demandes de commentaires sur le rapport. Les recommandations « ne reflètent pas le point de vue du Département d'État des États-Unis ou du gouvernement des États-Unis », indique la première page du rapport.
Les recommandations du rapport, dont beaucoup étaient auparavant impensables, font suite à une série vertigineuse de développements majeurs dans le domaine de l'IA qui ont amené de nombreux observateurs à revoir leur position à l'égard de cette technologie. Le chatbot ChatGPT, lancé en novembre 2022, a été la première fois que ce rythme de changement est devenu visible pour la société dans son ensemble, ce qui a conduit de nombreuses personnes à se demander si les futures IA pourraient poser des risques existentiels pour l'humanité.
Depuis, de nouveaux outils, dotés de capacités accrues, continuent d'être mis sur le marché à un rythme soutenu. Alors que les gouvernements du monde entier discutent de la meilleure façon de réglementer l'IA, les plus grandes entreprises technologiques ont rapidement mis en place l'infrastructure nécessaire pour former la prochaine génération de systèmes plus puissants, en prévoyant dans certains cas d'utiliser une puissance de calcul 10 ou 100 fois supérieure. Parallèlement, plus de 80 % des Américains pensent que l'IA pourrait accidentellement provoquer un événement catastrophique, et 77 % des électeurs estiment que le gouvernement devrait faire davantage pour réglementer l'IA, selon un récent sondage réalisé par l'AI Policy Institute.
Un rapport qui risque de se heurter à des difficultés politiques
Selon le rapport, interdire la formation de systèmes d'IA avancés au-delà d'un certain seuil pourrait « modérer la dynamique de course entre tous les développeurs d'IA » et contribuer à réduire la vitesse de fabrication de matériel plus rapide par l'industrie des puces. Au fil du temps, une agence fédérale de l'IA pourrait relever le seuil et autoriser la formation de systèmes d'IA plus avancés une fois que la sécurité des modèles de pointe aura été suffisamment prouvée, propose le rapport. De même, le gouvernement pourrait abaisser le seuil de sécurité si des capacités dangereuses sont découvertes dans des modèles existants.
La proposition risque de se heurter à des difficultés politiques. « Je pense qu'il est très peu probable que cette recommandation soit adoptée par le gouvernement des États-Unis », déclare Greg Allen, directeur du Wadhwani Center for AI and Advanced Technologies au Center for Strategic and International Studies (CSIS), en réponse à un résumé fourni par TIME de la recommandation du rapport visant à interdire les entraînements à l'IA au-delà d'un certain seuil. La politique actuelle du gouvernement américain en matière d'IA, note-t-il, consiste à fixer des seuils de calcul au-delà desquels des exigences supplémentaires en matière de transparence, de contrôle et de réglementation s'appliquent, mais pas à fixer des limites au-delà desquelles les essais d'entraînement seraient illégaux. « En l'absence d'un choc exogène, je pense qu'il est peu probable qu'ils changent d'approche », déclare Allen.
Jeremie et Edouard Harris, respectivement PDG et directeur technique de Gladstone, informent le gouvernement américain sur les risques de l'IA depuis 2021. Les deux frères affirment que les représentants du gouvernement qui ont assisté à leurs premières réunions d'information ont reconnu que les risques de l'IA étaient importants, mais leur ont dit que la responsabilité de les gérer incombait à différentes équipes ou départements. À la fin de l'année 2021, les Harris affirment que Gladstone a finalement trouvé un service gouvernemental chargé de traiter les risques liés à l'IA : le Bureau de la sécurité internationale et de la non-prolifération du département d'État. Les équipes du Bureau ont un mandat inter-agences pour traiter les risques liés aux technologies émergentes, y compris les armes chimiques et biologiques, ainsi que les risques radiologiques et nucléaires. À la suite de réunions d'information organisées par Jeremie et Mark Beall, alors directeur général de Gladstone, le Bureau a lancé, en octobre 2022, un appel d'offres pour la rédaction d'un rapport susceptible d'éclairer la décision d'ajouter ou non l'IA à la liste des autres risques qu'il surveille. (Le département d'État n'a pas répondu à une demande de commentaire sur l'issue de cette décision). L'équipe Gladstone a remporté ce contrat et le rapport publié lundi en est le résultat.
Le rapport se concentre sur deux catégories de risques distinctes
La première catégorie, appelée « risque d'armement », est décrite dans le rapport : « Ces systèmes pourraient potentiellement être utilisés pour concevoir et même exécuter des attaques biologiques, chimiques ou cybernétiques catastrophiques, ou permettre des applications armées sans précédent dans le domaine de la robotique en essaim ». La deuxième catégorie est ce que le rapport appelle le risque de « perte de contrôle », c'est-à-dire la possibilité que les systèmes d'IA avancés soient plus malins que leurs créateurs. Il y a, selon le rapport, « des raisons de croire qu'ils pourraient être incontrôlables s'ils sont développés à l'aide des techniques actuelles, et qu'ils pourraient se comporter de manière hostile à l'égard des êtres humains par défaut ».
Selon le rapport, ces deux catégories de risques sont exacerbées par la « dynamique de la course » dans le secteur de l'IA. Selon le rapport, la probabilité que la première entreprise à réaliser l'AGI récolte la majorité des bénéfices économiques incite les entreprises à donner la priorité à la vitesse plutôt qu'à la sécurité. « Les laboratoires d'IA d'avant-garde sont confrontés à une incitation intense et immédiate à faire évoluer leurs systèmes d'IA aussi vite que possible », indique le rapport. « Ils ne sont pas immédiatement incités à investir dans des mesures de sûreté ou de sécurité qui n'apportent pas d'avantages économiques directs, même si certains le font par souci sincère ».
Le rapport Gladstone identifie le matériel - en particulier les puces informatiques haut de gamme actuellement utilisées pour former les systèmes d'IA - comme un goulot d'étranglement important pour l'augmentation des capacités de l'IA. Selon le rapport, la réglementation de la prolifération de ce matériel pourrait être "la condition la plus importante pour préserver la sécurité mondiale à long terme de l'IA". Il indique que le gouvernement devrait envisager de lier les licences d'exportation de puces à la présence de technologies sur puce permettant de contrôler si les puces sont utilisées dans de grandes séries d'entraînement à l'IA, afin de faire respecter les règles proposées contre l'entraînement de systèmes d'IA plus grands que le GPT-4. Toutefois, le rapport note également que toute intervention devra tenir compte de la possibilité qu'une surréglementation soutienne les industries de puces étrangères, érodant ainsi la capacité des États-Unis à influencer la chaîne d'approvisionnement.
Les auteurs du rapport ont travaillé pendant plus d'un an, s'entretenant avec plus de 200 fonctionnaires, experts et employés d'entreprises d'avant-garde dans le domaine de l'IA, comme OpenAI, Google DeepMind, Anthropic et Meta, dans le cadre de leurs recherches. Les comptes rendus de certaines de ces conversations brossent un tableau inquiétant, suggérant que de nombreux travailleurs de la sécurité de l'IA dans les laboratoires de pointe sont préoccupés par les incitations perverses qui motivent la prise de décision par les dirigeants qui contrôlent leurs entreprises.
Source : rapport
Et vous ?
Quelles devraient être les priorités du gouvernement pour réguler l’intelligence artificielle ?
Comment pouvons-nous équilibrer les avantages de l’IA avec les risques potentiels pour la sécurité ?
Quel rôle les citoyens devraient-ils jouer dans la surveillance de l’évolution de l’IA ?
Quelles mesures internationales pourraient être prises pour assurer une utilisation éthique de l’IA ?
Comment la recherche et l’innovation en IA peuvent-elles contribuer à prévenir les scénarios catastrophiques ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Si c'était Trump cela n'aurait posé aucun problème et serait même relayé par les médias de masse comme une preuve de la dangerosité de Trump. Posez-vous juste la question du pourquoi du comment.
TikTok va étiqueter automatiquement les contenus générés par IA sur des plateformes comme DALL-E 3 afin de lutter contre la désinformation, en utilisant la technologie d'authentification des contenus de C2PA.
TikTok va étiqueter automatiquement les contenus générés par l'IA. Le géant des médias sociaux a déclaré que l'objectif était de lutter contre la désinformation.
TikTok a annoncé sur "GMA" qu'à partir de maintenant, le géant des médias sociaux étiquettera automatiquement les contenus générés par l'intelligence artificielle lorsqu'ils seront téléchargés à partir de certaines plateformes.
"Nos utilisateurs et nos créateurs sont très enthousiastes à propos de l'IA et de ce qu'elle peut faire pour leur créativité et leur capacité à se connecter avec le public." a déclaré Adam Presser, responsable des opérations, de la confiance et de la sécurité chez TikTok. "Et en même temps, nous voulons nous assurer que les gens ont la capacité de comprendre ce qu'est un fait et ce qu'est une fiction."
Le géant des médias sociaux affirme qu'il devient la première plateforme de partage de vidéos à mettre en œuvre la technologie Content Credentials, une norme technique ouverte qui permet aux éditeurs, aux créateurs et aux consommateurs de retracer l'origine de différents types de médias. "C'est comme une étiquette nutritionnelle pour le contenu. Il vous indique ce qui s'est passé dans l'image, où elle a été prise, qui l'a réalisée et les modifications qui ont été apportées en cours de route", a expliqué Dana Rao, Chief Trust Officer d'Adobe.
Adobe est l'un des membres fondateurs de la Coalition for Content Provenance and Authenticity (C2PA), une coalition d'entreprises qui travaillent ensemble pour faire avancer l'adoption de cette nouvelle norme numérique. Les Content Credentials (étiquettes nutritionnelles numériques) sont de plus en plus utilisés comme norme pour certifier le contenu numérique.
Au début de l'année, OpenAI a annoncé qu'elle ajouterait cette technologie à toutes les images créées et éditées par DALL.E 3, son dernier modèle d'image. OpenAI a également déclaré qu'elle prévoyait d'intégrer les certificats de contenu à son modèle de génération de vidéos, Sora, une fois qu'il sera lancé à plus grande échelle. D'autres produits dotés de capacités d'IA générative, comme Adobe Firefly, Photoshop, Express et Microsoft Copilot, utilisent déjà la technologie pour intégrer des métadonnées dans le contenu visuel créé à l'aide de leurs plateformes.
"Certains éléments du tableau se mettent en place", remarque Sam Gregory, directeur exécutif de Witness et expert en matière de "deepfakes". "Il est essentiel que des entreprises spécifiques rendent aussi facile que possible de savoir quand un contenu a été créé à l'aide de leurs outils en fournissant des classifications spécifiques à ces derniers."
TikTok a déclaré que le déploiement de ce nouveau label commence aujourd'hui et s'appliquera à tous les utilisateurs à l'échelle mondiale dans les semaines à venir. Au cours des prochains mois, TikTok commencera également à attacher des références de contenu au contenu, qui resteront sur le contenu lorsqu'il sera téléchargé, ce qui permettra à d'autres plateformes de lire les métadonnées.
Avec l'élection présidentielle américaine qui se profile à l'horizon et les élections qui s'enchaînent dans le monde entier, les demandes de détection en ligne des contenus générés par l'IA se font de plus en plus pressantes.
"Ni l'une ni l'autre n'est une solution miracle, ni maintenant ni lorsqu'elles seront pleinement utilisées et fournies - elles constituent une forme de réduction des dommages qui permet de discerner plus facilement quand et comment l'IA a été utilisée", a expliqué M. Gregory. "Les créateurs et distributeurs malveillants et trompeurs trouveront toujours un moyen de les contourner, mais la plupart d'entre nous seront heureux de les utiliser s'ils ne compromettent pas notre vie privée ou notre capacité à créer."
Rao pense que nous nous dirigerons vers un monde en ligne où les contenus qui portent ces étiquettes nutritionnelles numériques pourraient être plus dignes de confiance ou plus valorisés que ceux qui n'en portent pas. "La valeur réelle sera l'authenticité", souligne M. Rao. "Les créateurs veulent avoir une communication authentique avec leurs spectateurs, et ce certificat de contenu permet donc aux créateurs d'établir le niveau d'authenticité qu'ils souhaitent avec leur public."
Source : TikTok
Et vous ?
Pensez-vous que cette initiative est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
TikTok permet aux utilisateurs de diffuser des deepfakes de Joe Biden générés par l'IA malgré les politiques de la plateforme, qui interdisent les contenus pouvant induire en erreur sur des faits réels
OpenAI lance un outil capable de détecter les images créées par son générateur texte-image DALL-E 3, afin de répondre aux inquiétudes concernant l'influence des contenus générés par l'IA lors des élections
Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Plus de 70 % des consommateurs craignent d'être dupés par une deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio.
Une nouvelle étude de la société de vérification d'identité Jumio révèle une inquiétude croissante quant à l'influence politique que l'IA et les deepfakes pourraient avoir lors des prochaines élections et à la manière dont ils pourraient influencer la confiance dans les médias en ligne.
L'étude menée auprès de plus de 8 000 consommateurs adultes, répartis équitablement entre le Royaume-Uni, les États-Unis, Singapour et le Mexique, révèle que 72 % des consommateurs améticains s'inquiètent de l'influence potentielle de l'IA et des deepfakes sur les prochaines élections dans leur pays. Ils estiment que les deepfakes minent la confiance dans les politiciens et les médias, 70 % d'entre eux faisant état d'un scepticisme accru à l'égard du contenu qu'ils voient en ligne, par rapport aux dernières élections.
Au niveau mondial, seuls 46 % des consommateurs pensent qu'ils pourraient facilement repérer un deepfake d'une personnalité politique ou d'une célébrité. Ce chiffre tombe à 37 % aux États-Unis et la confiance varie en fonction de la tranche d'âge : seuls 22 % des Américains âgés de 55 ans ou plus ont confiance en leurs capacités. Les hommes âgés de 18 à 34 ans sont les plus confiants dans leur capacité à repérer les faux (75 %), tandis que les femmes âgées de 35 à 54 ans sont les moins confiantes (52 %).
Seuls 43 % des consommateurs du monde entier déclarent faire confiance aux informations politiques qu'ils voient en ligne, malgré la possibilité de tomber sur des deepfakes audio, vidéo et image. Les Américains sont beaucoup moins confiants (32 %). Au niveau mondial, seulement 43 % des personnes interrogées ont confiance dans la capacité de leur gouvernement à réglementer l'IA, ce chiffre tombant à 31 % aux États-Unis et à seulement 26 % au Royaume-Uni.
« Avec la moitié de la population mondiale participant aux élections cette année, l'influence et l'impact potentiels de l'IA générative et des deepfakes exigent notre attention immédiate », déclare Robert Prigge, PDG de Jumio. « La confiance du public dans l'information en ligne s'effrite, exigeant un discours transparent pour faire face à ce défi et donner aux citoyens les outils pour discerner et signaler les deepfakes. Les plateformes en ligne ont le devoir essentiel de tirer parti de mesures de détection de pointe telles que les systèmes de vérification multimodaux basés sur la biométrie pour renforcer nos défenses contre les "deepfakes" qui influencent des élections cruciales. »
À propos de la recherche
L'étude annuelle Jumio Online Identity Consumer Study, qui en est à sa troisième année, explore la sensibilisation et le sentiment des consommateurs autour des questions liées à l'identité en ligne, aux risques de fraude et aux méthodes actuelles utilisées pour protéger les données d'identité des consommateurs.
Les résultats de 2024 mettent en évidence les préoccupations importantes des consommateurs concernant les risques associés à l'IA générative et aux deepfakes, notamment le potentiel d'augmentation de la cybercriminalité et de l'usurpation d'identité. L'étude démontre le besoin pressant de s'assurer de l'authenticité des utilisateurs.
Principales conclusions
- 72 % des consommateurs s'inquiètent quotidiennement d'être trompés par un deepfake et souhaitent que leur gouvernement fasse davantage pour réglementer l'IA. Les trois quarts des consommateurs s'inquiètent quotidiennement d'être trompés par un deepfake et d'avoir à communiquer des informations sensibles ou de l'argent. Seuls 15 % des consommateurs déclarent n'avoir jamais été confrontés à un deepfake, tandis que 60 % l'ont été au cours de l'année écoulée et que 22 % n'en sont pas sûrs.
Une majorité significative de consommateurs appelle à une plus grande réglementation gouvernementale de l'IA afin de résoudre les problèmes liés aux deepfakes et à l'IA générative. Toutefois, la confiance dans la réglementation varie d'un pays à l'autre.
- Les consommateurs continuent de surestimer leur propre capacité à repérer les deepfakes. Même si cette technologie de plus en plus répandue et en constante évolution suscite une grande anxiété, les consommateurs continuent de surestimer leur propre capacité à repérer les deepfakes - 60 % d'entre eux pensent qu'ils pourraient détecter un deepfake, contre 52 % en 2023.
Les hommes sont plus confiants dans leur capacité à repérer un deepfake (66 % des hommes contre 55 % des femmes). Les hommes âgés de 18 à 34 ans sont les plus confiants (75%), tandis que les femmes âgées de 35 à 54 ans sont les moins confiantes (52%)
- Une vérification plus rigoureuse de l'identité est nécessaire pour se protéger contre l'usurpation d'identité et la fraude, qui sont coûteuses et répandues. La fraude est un problème bien trop familier pour de nombreux consommateurs à travers le monde, 68% des personnes interrogées déclarant qu'elles savent ou soupçonnent avoir été victimes d'une fraude en ligne ou d'un vol d'identité, ou qu'elles connaissent quelqu'un qui a été affecté.
Un tiers (32 %)des consommateurs qui ont été ou pensent avoir été victimes d'une fraude en ligne déclarent que cela leur a causé des problèmes importants et plusieurs heures de travail administratif à résoudre, et 14 % vont même jusqu'à parler d'une expérience traumatisante. Plus de 70 % des consommateurs ont déclaré qu'ils consacreraient plus de temps à la vérification de l'identité si ces mesures amélioraient la sécurité dans des secteurs tels que les services financiers (77 %), la santé (74 %), le gouvernement (72 %), la vente au détail et le commerce électronique (72 %), les médias sociaux (71 %), l'économie de partage (71 %), et les voyages et l'hôtellerie (71 %).
Lors de la création d'un nouveau compte en ligne, les consommateurs du monde entier ont déclaré que la prise d'une photo de leur pièce d'identité et d'un selfie en direct serait la forme la plus précise de vérification de l'identité (21 %), la création d'un mot de passe sécurisé arrivant juste derrière (19 %). Qu'ils aient été ou non victimes de fraude ou d'usurpation d'identité, la plupart des consommateurs s'inquiètent chaque jour de la possibilité d'être victimes d'une violation de données ou d'une prise de contrôle de leur compte.
La sécurité dans les services financiers
La majorité des consommateurs sont prêts à changer de banque en raison d'une protection inadéquate contre la fraude. Ils estiment que les prestataires de services bancaires sont responsables en dernier ressort de la protection des clients et de l'indemnisation des victimes de fraude.
75 % d'entre eux attendent un remboursement intégral de leur banque s'ils sont victimes de la cybercriminalité. La technologie utilisée par les fraudeurs devenant de plus en plus sophistiquée, les outils de prévention et de détection des escroqueries doivent eux aussi évoluer. 69 % des clients exigent des mesures de cybersécurité plus strictes, car la confiance dans les protections des banques diminue.
Deepfakes et Elections
Alors que plus de 50 pays organisent des élections nationales en 2024, Jumio a étudié la perception des deepfakes par les consommateurs et la manière dont ils pourraient influencer la confiance dans les médias en ligne. Les données révèlent également une évolution de la relation entre le public et les médias en ligne.
Source : Jumio Online Identity Consumer Study 2024
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives
Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind
La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Les cyberattaques par IA sont une telle menace que 73 % des entreprises américaines ont un plan de réponse aux deepfakes, et 69 % sont tenues d'utiliser l'authentification biométrique pour renforcer la sécurité
Compte tenu du niveau d'inquiétude suscité par l'influence des « deepfakes », il n'est peut-être pas surprenant d'apprendre que les entreprises élaborent leurs propres plans de réponse aux « deepfakes ».
Une nouvelle enquête menée par le moteur de recommandation de logiciels GetApp auprès de plus de 2 600 professionnels mondiaux de l'informatique et de la cybersécurité révèle que 73 % des personnes interrogées aux États-Unis déclarent que leur organisation a élaboré un plan de réponse aux deepfakes.
Parmi les répondants américains, 69 % sont tenus d'utiliser l'authentification biométrique pour renforcer la cybersécurité, ce qui est supérieur à la moyenne mondiale de 53 %. Toutefois, la confiance dans ces systèmes diminue, 36 % d'entre eux se déclarant très préoccupés par les capacités croissantes de l'IA à fabriquer des données biométriques synthétiques à des fins de fraude.
Globalement, 49 % des professionnels sont préoccupés par la protection de la vie privée et 38 % craignent un vol d'identité potentiel lié à l'utilisation de protections biométriques.
En outre, 60 % des professionnels mondiaux de l'informatique et de la sécurité déclarent que leur entreprise a mis au point des mesures de défense contre les attaques de type « deepfake » générées par l'IA. 77 % indiquent que leur entreprise a augmenté ses investissements en matière de cybersécurité au cours des 18 derniers mois.
« Les dirigeants d'entreprise ont besoin d'être rassurés sur le fait que leurs protections peuvent encore fonctionner pour les défendre contre les menaces », déclare David Jani, analyste principal de la sécurité chez GetApp. « En pratique, cela signifie que les dirigeants doivent revoir la façon dont ils protègent l'accès à leurs systèmes et comprendre les meilleurs moyens de relever le défi des nouvelles fraudes plus ciblées.
Les entreprises interrogées au niveau mondial qui ont déjà subi des cyberattaques se tournent vers des mesures qui peuvent être mises en œuvre immédiatement et souvent à un coût minime pour renforcer les vulnérabilités. Il s'agit notamment d'améliorer la sécurité des réseaux, de donner la priorité aux mises à jour de logiciels et de renforcer les politiques de mots de passe. En outre, de nombreuses personnes interrogées aux États-Unis (49 %) se concentrent sur l'utilisation de solutions de chiffrement des données pour protéger leurs données.
Source : "2024 Executive Security Survey" (GetApp)
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions de cette étude de GetApp crédibles ou pertinentes ?
Voir aussi :
Plus de 70 % des consommateurs craignent d'être dupés par un deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio
72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio
Les deepfakes sont désormais le deuxième incident de sécurité le plus fréquent, les attaquants utilisent la technologie d'IA pour inciter les victimes à effectuer des transferts de fonds, d'après ISMS.online
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Une vidéo manipulée partagée par Elon Musk imite la voix de la vice-présidente des États-Unis Kamala Harris, ce qui soulève des inquiétudes quant à l'utilisation de l'IA en politique.
Une vidéo manipulée partagée par Elon Musk imite la voix de la vice-présidente des États-Unis Kamala Harris. Des experts ont confirmé qu'une grande partie de la voix a été générée par l'IA. Cela soulève des questions sur une utilisation appropriée de l'IA dans la politique, en particulier, car Elon Musk n'a mis aucune étiquette indicant la nature parodique de la vidéo.
Elon Musk est un homme d'affaires et un investisseur connu pour ses rôles clés dans la société spatiale SpaceX et la société automobile Tesla, Inc. Il est également propriétaire de la plateforme X, anciennement connue sous le nom de Twitter, et a participé à la création de xAI et Neuralink. Il est l'une des personnes les plus riches du monde et ces opinions ont fait de lui une figure polarisante.
Il a été critiqué pour avoir fait des déclarations non scientifiques et trompeuses, y compris la désinformation COVID-19, pour avoir promu des théories du complot de droite et pour avoir "approuvé une théorie antisémite", ce dont il s'est excusé par la suite. Récemment, il a partagé une vidéo manipulée où on entend une imitation de la voix de la vice-présidente des États-Unis Kamala Harris.
Sous la présidence de Joe Biden, Kamala Harris est la première femme vice-présidente et la plus haute fonctionnaire de l'histoire des États-Unis, ainsi que la première Afro-Américaine et la première Sud-Asiatique vice-présidente. Membre du Parti démocrate, Harris a lancé sa propre campagne présidentielle avec l'appui de Biden après le retrait de ce dernier de l'élection présidentielle de 2024.
Une vidéo manipulée qui imite la voix de la vice-présidente Kamala Harris en disant des choses qu'elle n'a pas dites suscite des inquiétudes quant au pouvoir de l'intelligence artificielle à induire en erreur à trois mois du jour du scrutin. La vidéo a attiré l'attention après que le milliardaire de la technologie Elon Musk l'a partagée sur sa plateforme de médias sociaux X, sans indiquer explicitement qu'il s'agissait à l'origine d'une parodie.
La vidéo reprend de nombreux éléments visuels d'une véritable publicité que Mme Harris, candidate probable à la présidence du parti démocrate, a publiée pour lancer sa campagne. Mais la vidéo remplace la voix off par une autre voix qui imite de manière convaincante celle de Mme Harris.This is amazing 😂
— Elon Musk (@elonmusk) July 26, 2024
pic.twitter.com/KpnBKGUUwn
« Je suis Kamala Harris, votre candidate démocrate à la présidence parce que Joe Biden a finalement révélé sa sénilité lors du débat », déclare la voix dans la vidéo. Elle affirme que Mme Harris est une « candidate de la diversité » parce qu'elle est une femme et une personne de couleur, et qu'elle ne connaît pas « la moindre chose sur la façon de diriger le pays ». La vidéo conserve la marque « Harris for President ». Elle ajoute également d'anciens clips authentiques de Mme Harris.
Mia Ehrenberg, porte-parole de la campagne de Mme Harris, a déclaré : « Nous pensons que le peuple américain veut la vraie liberté, les opportunités et la sécurité que le vice-président Harris propose, et non les mensonges manipulés d'Elon Musk et de Donald Trump. »
La video soulève des questionnements sur l'IA
La vidéo largement partagée est un exemple de la manière dont des images, des vidéos ou des clips audios générés par l'IA ont été utilisés à la fois pour se moquer de la politique et pour induire en erreur, alors que les États-Unis se rapprochent de l'élection présidentielle. Elle montre comment, alors que les outils d'IA de haute qualité sont devenus beaucoup plus accessibles, le gouvernement fédéral n'a pas encore pris de mesures significatives pour réglementer leur utilisation, laissant aux États et aux plateformes de médias sociaux le soin de définir les règles régissant l'utilisation de l'IA en politique.
La vidéo soulève également des questions sur la meilleure façon de traiter les contenus qui brouillent les limites de ce qui est considéré comme une utilisation appropriée de l'IA, en particulier s'ils entrent dans la catégorie de la satire.
L'utilisateur original qui a posté la vidéo, un YouTubeur connu sous le nom de Mr Reagan, a révélé à la fois sur YouTube et sur X que la vidéo manipulée était une parodie. Mais le message de M. Musk, qui a été visionné plus de 123 millions de fois, selon la plateforme, ne comporte que la légende « C'est incroyable » accompagnée d'un émoji qui rit. À noter que Musk a soutenu l'ancien président Donald Trump, le candidat républicain.
Les utilisateurs de X qui connaissent bien la plateforme sauront peut-être qu'il faut cliquer sur le message de Musk pour accéder au message de l'utilisateur original, où la divulgation est visible. La légende de Musk ne les incite pas à le faire.
Bien que certains participants à la fonction "note de la communauté" de X, qui permet d'ajouter un contexte aux messages, aient suggéré d'étiqueter le message de Musk, aucune étiquette de ce type n'avait été ajoutée à ce dernier. Certains utilisateurs en ligne se sont demandé si son message ne violait pas les règles de X, qui stipulent que les utilisateurs "ne peuvent pas partager des médias synthétiques, manipulés ou hors contexte susceptibles de tromper ou d'embrouiller les gens et de leur causer du tort". Cette politique prévoit une exception pour les mèmes et la satire, à condition qu'ils ne causent pas de "confusion significative quant à l'authenticité du média".
Deux experts spécialisés dans les médias générés par l'IA ont examiné le son de la fausse publicité et ont confirmé qu'une grande partie avait été générée à l'aide de la technologie de l'IA. L'un d'entre eux, Hany Farid, expert en criminalistique numérique de l'université de Californie à Berkeley, a déclaré que la vidéo montrait la puissance de l'IA générative et des "deepfakes".
« La voix générée par l'IA est très bonne », a-t-il déclaré. « Même si la plupart des gens ne croiront pas qu'il s'agît de la voix de la vice-présidente Harris, la vidéo est d'autant plus puissante que les mots sont prononcés par elle. »
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous la vidéo pertinente voir amusante ? ou alors pensez-vous que c'est honteux de diffuser ce genre de désinformations ? Pour ou contre ?
Voir aussi :
Plus de 70 % des consommateurs craignent d'être dupés par un deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio
Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation », avec l'avènement des deepfakes et les IA génératives
Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
L'intégralité des individus qui ont regardé cette vidéo savent qu'elle est fausse.
Cela dit il y a passage réel et on voit bien la différence.
Kamala Harris repeats same expression four times in speech loop
À la limite ils pourraient mettre un petit "réalisé avec trucage" de cette façon plus personne ne pourrait critiquer ces vidéos humoristiques.The vice president, who was speaking on Monday in Sunset, Louisiana, repeated the same phrase, “the significance of the passage of time”, four times in a row.
Sur YouTube c'est obligatoire. La Satire est bien évidemment autorisée, mais il faut incruster l'information concernant la modification de la vidéo originale. Et plus aucun problème. Si la mention n'est pas précisée, la vidéo est supprimée et la chaîne également après plusieurs avertissement.
C'est beau de croire que personne n'est crédule.L'intégralité des individus qui ont regardé cette vidéo savent qu'elle est fausse.
Si c'était le cas il n'y aurait plus jamais de phising et autre joyeusetés qui se basent exclusivement sur la crédulité.
Non mais là il faut voir le contexte, il est évident que ce n'est pas la vraie Kamala Harris qui dit ça.
C'est clair.
De toute façon le plus néfaste pour Kamala Harris ce ne sont pas les fausses vidéos mais les vraies.
Par exemple :
https://twitter.com/mitchellvii/stat...34578902905208
Kamala Harris is asked a simple question on how she will fix inflation and she proceeds to give a completely useless word salad with zero solutions. There is no way this woman should be the President. Please retweet this so everyone can see!
Donc sur les 13 millions de vues (au moment de cet article) pas une seule personne n'a cru que c'était un fake ?!Non mais là il faut voir le contexte, il est évident que ce n'est pas la vraie Kamala Harris qui dit ça.
Là je pense que c'est toi qui est crédule (sans vouloir te vexer).
Partager