IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 291
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 291
    Par défaut Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo
    Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA,
    les anciennes conférences vidéos en ligne authentiques de ce directeur soupçonnées d'être à l'origine de ce deepfake

    Un employé du secteur financier a versé 25 millions de dollars à des escrocs qui se faisaient passer pour le directeur financier de son entreprise grâce à la technologie du deepfake lors d’un appel vidéo, selon la police de Hong Kong. L’arnaque élaborée a consisté à faire croire à l’employé qu’il participait à un appel vidéo avec plusieurs autres membres du personnel, mais tous étaient en fait des créations de deepfake, a déclaré la police de Hong Kong lors d’un briefing vendredi. « Dans la conférence vidéo à plusieurs personnes, il s’avère que tout le monde (qu’il a vu) était faux », a déclaré le surintendant principal Baron Chan Shun-ching à la radio publique RTHK.

    Le surintendant principal Baron Chan Shun-ching a déclaré que l’employé avait eu des soupçons après avoir reçu un message qui était censé provenir du directeur financier basé au Royaume-Uni de l’entreprise. Au départ, l’employé a pensé qu’il s’agissait d’un courriel de hameçonnage, car il parlait de la nécessité d’effectuer une transaction secrète.

    Pour rassurer leur victime, les hackers ont proposé d’organiser une réunion en visioconférence. L’employé a accepté de participer à cet appel vidéo avec son directeur. Lors de l'appel vidéo, l’employé a mis de côté ses doutes car les autres personnes présentes ressemblaient et parlaient comme des collègues qu’il reconnaissait, a déclaré Chan.

    Croyant que tout le monde sur l’appel était réel, l’employé a accepté de transférer un total de 200 millions de dollars de Hong Kong - environ 25 millions de dollars - a ajouté le policier. Au total, quinze virements ont été effectués par l’employé berné. La police a souligné que cette affaire était la première du genre à Hong Kong et qu'elle impliquait également une importante somme d'argent. Elle n'a toutefois pas révélé l'identité de l'employé ou de l'entreprise.

    L’affaire est l’un des plusieurs épisodes récents dans lesquels des escrocs auraient utilisé la technologie du deepfake pour modifier des vidéos et d’autres images disponibles publiquement afin de tromper les gens et de leur soutirer de l’argent.

    Lors du briefing de presse de vendredi, la police de Hong Kong a déclaré avoir procédé à six arrestations en lien avec de telles arnaques.

    Chan a déclaré que huit cartes d’identité volées à Hong Kong - toutes signalées comme perdues par leurs propriétaires - avaient été utilisées pour faire 90 demandes de prêt et 54 inscriptions de comptes bancaires entre juillet et septembre de l’année dernière. À au moins 20 reprises, des deepfakes basés sur l’intelligence artificielle avaient été utilisés pour tromper les programmes de reconnaissance faciale en imitant les personnes figurant sur les cartes d’identité, selon la police.

    L’arnaque impliquant le faux directeur financier n’a été découverte que bien plus tard, lorsque l’employé a vérifié auprès du siège social de l’entreprise. Les vidéos générées par l'IA auraient été créées à partir d'anciennes conférences en ligne authentiques. Pour donner plus de profondeur et de crédibilité à l'escroquerie, les auteurs ont eu recours à WhatsApp, au courrier électronique et à des vidéoconférences individuelles avec des membres du personnel de Hong Kong.

    « Je pense que le fraudeur a téléchargé des vidéos à l'avance et qu'il a ensuite utilisé l'intelligence artificielle pour ajouter de fausses voix à utiliser lors de la vidéoconférence », a déclaré le commissaire principal de la police de la ville, Baron Chan Shun-ching.

    Ce qui s'est passé exactement lors de l'appel fatidique n'est pas clair. Certains rapports suggèrent qu'un seul participant à l'appel était réel, tandis que d'autres suggèrent que plusieurs participants étaient humains. Tous s'accordent à dire que des humains générés par l'IA sont apparus et que, malheureusement, le professionnel de la finance anonyme a été dupé. La victime n'a découvert cette réalité qu'après avoir contacté le siège de l'entreprise (également anonyme).

    Le média local The Standard a déclaré que cet incident était la première escroquerie de type "deepfake" par vidéoconférence à Hong Kong.

    Nom : deep.png
Affichages : 9185
Taille : 204,3 Ko

    D'autres types de dégâts

    Les rapports montrent à quel point il est facile de tirer parti d'outils gratuits pour générer des images plus nuisibles. C'est ce qui s'est passé avec Taylor Swift, notamment avec la diffusion d'images pornographiques générées par IA de la star. Bien que l'on ne sache pas encore combien d'outils d'IA ont été utilisés pour générer le flot d'images nuisibles, 404 Media a confirmé que certains membres d'un groupe Telegram, par lequel les images sont venus, se sont servis du générateur d'IA texte-image gratuit de Microsoft, Designer.

    Selon 404 Media, les images n'ont pas été créées en entraînant un modèle d'IA sur les images de Taylor Swift, mais en piratant des outils tels que Designer pour contourner les mesures de protection conçues pour empêcher les outils de générer des images de célébrités. Les membres du groupe ont partagé des stratégies pour contourner ces protections en évitant les invites utilisant "Taylor Swift" et en utilisant à la place des mots-clés tels que "Taylor 'singer' Swift". Ils ont ensuite été en mesure de générer des images sexualisées en utilisant des mots-clés décrivant « des objets, des couleurs et des compositions qui ressemblent clairement à des actes sexuels », plutôt que d'essayer d'utiliser des termes sexuels, a rapporté 404 Media.

    Le PDG de Microsoft, Satya Nadella, a appelé l'industrie technologique à prendre des mesures après la diffusion de ces images explicites. « Oui, nous devons agir », a déclaré Nadella en réponse à une question sur les images truquées « alarmantes et terribles » de Swift.

    « Je dirais deux choses. D'une part, je reviens à la question de savoir quelle est notre responsabilité, et d'autre part, les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs. Il s'agit de tous les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs, et il y a beaucoup de choses à faire et à ne pas faire dans ce domaine », a-t-il déclaré.

    « Mais il s'agit d'une convergence mondiale et sociétale sur certaines normes, surtout lorsque la loi, les forces de l'ordre et les plates-formes technologiques peuvent s'unir », a-t-il poursuivi. « Je pense que nous pouvons gouverner beaucoup plus que nous ne le pensons ».

    « Je pense que nous avons tous intérêt à ce que le monde en ligne soit un monde sûr. Je pense donc que personne ne voudrait d'un monde en ligne qui n'est pas du tout sûr pour les créateurs de contenu et les consommateurs de contenu. C'est pourquoi je pense qu'il est de notre devoir d'agir rapidement dans ce domaine ».


    Deepfake et politique : un expert en IA « complètement terrifié » par les élections américaines de 2024

    Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.

    Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l'Université de Washington.

    « Je m'attends à un tsunami de désinformation », a-t-il déclaré. « Je ne peux pas le prouver. J'espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».

    « On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».

    Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récents élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.

    Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.

    Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.

    Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.

    Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.

    Conclusion

    Les autorités du monde entier sont de plus en plus préoccupées par la sophistication de la technologie du deepfake et les utilisations malveillantes qu’elle peut avoir. Le deepfake est une technique qui utilise l’intelligence artificielle pour créer des images, des vidéos ou des sons qui semblent réels mais qui sont en fait falsifiés. Le terme vient de la combinaison des mots anglais “deep learning” (apprentissage profond) et “fake” (faux).

    Le deepfake peut être utilisé à des fins ludiques, artistiques ou éducatives, mais aussi à des fins malhonnêtes, comme le chantage, la manipulation, la diffamation ou la désinformation. Le deepfake peut également porter atteinte à la vie privée, à la sécurité et à la réputation des personnes représentées, ainsi qu’à la confiance du public dans les sources d’information.

    Sources : RTHK, The Standard

    Et vous ?

    Que pensez-vous de l’utilisation du deepfake dans le cadre d’escroqueries financières ?
    Quelles sont les mesures que les entreprises et les individus devraient prendre pour se protéger contre le deepfake ?
    Quels sont les avantages et les inconvénients du deepfake pour la société ?
    Comment le deepfake affecte-t-il la crédibilité et la confiance dans les sources d’information ?
    Quels sont les défis (juridiques, éthique, etc.) que pose le deepfake ?

    Voir aussi :

    Un sénateur propose un projet de loi prohibant l'utilisation de la technologie deepfake si elle venait à servir des buts frauduleux
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre chevronné
    Homme Profil pro
    Urbaniste
    Inscrit en
    Août 2023
    Messages
    387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Urbaniste

    Informations forums :
    Inscription : Août 2023
    Messages : 387
    Par défaut
    Les pirates semblent avoir pu accéder aux mail, aux wechats, à l'outil de visio.
    On se demande presque pourquoi ils se sont enquiquinés à générer cette fausse visio
    vu l'étendu de l'intrusion.

    https://www.thestandard.com.hk/breaking-news/section/4/213122/HK's-first-deepfake-video-conference-scam-involving-HK$200-million
    Officers said the scammer even utilized WhatsApp, email, and "one-to-one" video conferences to communicate with Hong Kong staff members to add credibility to the scams.
    Il est affirmé,
    It was discovered that the speech of the "CFO" was only a virtual video generated by the scammer through deepfake.
    Sur la base de quoi ? On ne sait pas.

    et si c'était l'équipe dirigeante qui avait montée cela, en se faisant passé pour du deepfake, pour détourner l'argent ?

  3. #3
    Membre confirmé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    234
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 234
    Par défaut
    ça parait gros...
    Depuis quand il faut qu'une seule personne pour virer 25 millions d'euros vers des comptes à l'étranger ?

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 496
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 496
    Par défaut Le géant multinational Arup révèle avoir été victime d'une escroquerie "deepfake" de 25 millions de dollars
    Le géant multinational Arup révèle avoir été victime d'une escroquerie "deepfake" de 25 millions de dollars, un employé du département finance a été dupé en participant à un appel vidéo deepfake

    Une multinationale britannique de conception et d'ingénierie, à l'origine de bâtiments mondialement connus tels que l'Opéra de Sydney, a confirmé avoir été la cible d'une escroquerie de type « deepfake » qui a conduit l'un de ses employés de Hong Kong à verser 25 millions de dollars à des fraudeurs.

    Les deepfakes sont des médias synthétiques qui ont été manipulés numériquement pour remplacer de manière convaincante l'image d'une personne par celle d'une autre. Inventé en 2017 par un utilisateur de Reddit, le terme a été élargi pour inclure d'autres créations numériques telles que des images réalistes de sujets humains qui n'existent pas dans la vie réelle. Si la création de faux contenus n'est pas nouvelle, les deepfakes exploitent des outils et des techniques d'apprentissage automatique et d'intelligence artificielle, notamment des algorithmes de reconnaissance faciale et des réseaux neuronaux artificiels tels que les autoencodeurs variationnels (VAE) et les réseaux antagonistes génératifs (GAN). De son côté, le domaine de la criminalistique des images développe des techniques pour détecter les images manipulées.


    Un porte-parole de la société Arup, basée à Londres, a déclaré qu'elle avait informé la police de Hong Kong en janvier de l'incident de fraude et a confirmé que de fausses voix et de fausses images avaient été utilisées.

    « Malheureusement, nous ne pouvons pas entrer dans les détails à ce stade, car l'incident fait toujours l'objet d'une enquête. Toutefois, nous pouvons confirmer que des voix et des images truquées ont été utilisées », a déclaré le porte-parole dans un communiqué envoyé par courrier électronique.

    « Notre stabilité financière et nos activités commerciales n'ont pas été affectées et aucun de nos systèmes internes n'a été compromis », a-t-il ajouté.

    La police de Hong Kong a déclaré en février qu'au cours de cette escroquerie complexe, l'employé, qui travaillait dans le département finance, avait été amené à participer à un appel vidéo avec des personnes qu'il croyait être le directeur financier et d'autres membres du personnel, mais qui s'avéraient toutes être des recréations deepfake. Les autorités n'ont pas donné le nom de l'entreprise ou des parties impliquées à l'époque.

    Selon la police, le salarié a d'abord soupçonné qu'il avait reçu un courriel d'hameçonnage provenant du bureau britannique de l'entreprise, car il spécifiait la nécessité d'effectuer une transaction secrète. Cependant, l'employé a mis ses doutes de côté après l'appel vidéo, car d'autres personnes présentes ressemblaient à des collègues qu'il avait reconnus.

    Il a ensuite accepté d'envoyer un total de 200 millions de dollars de Hong Kong, soit environ 25,6 millions de dollars. Le montant a été envoyé en 15 transactions, a rapporté la chaîne publique de Hong Kong RTHK, citant la police.

    Le terme « Deepfake » désigne normalement les fausses vidéos créées à l'aide de l'intelligence artificielle (IA) et qui semblent extrêmement réalistes.

    Au début de l'année, des images pornographiques de la pop star Taylor Swift générées par l'IA se sont répandues sur les réseaux sociaux, soulignant le potentiel de nuisance de la technologie de l'IA.

    Source : Arup

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA, les anciennes conférences vidéos de ce directeur soupçonnées d'en être à l'origine

    72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 496
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 496
    Par défaut Les deepfakes sont désormais le deuxième incident de sécurité le plus fréquent, d'après ISMS.online
    Les deepfakes sont désormais le deuxième incident de sécurité le plus fréquent, les attaquants utilisent la technologie d'IA pour inciter les victimes à effectuer des transferts de fonds, d'après ISMS.online

    L'inquiétude autour des deepfakes grandit depuis un certain temps et une nouvelle étude publiée par ISMS.online montre que les deepfakes se classent désormais au deuxième rang des incidents de sécurité de l'information les plus courants pour les entreprises britanniques et que plus d'un tiers des organisations en ont fait l'expérience.

    Le rapport, basé sur une enquête menée auprès de plus de 500 professionnels de la sécurité de l'information au Royaume-Uni, montre que près de 32 % des entreprises britanniques ont été confrontées à un incident de sécurité de type « deepfake » au cours des 12 derniers mois.

    Nom : deepfake isms.online.PNG
Affichages : 6094
Taille : 151,2 Ko

    Le scénario le plus probable aujourd'hui pour les acteurs de la menace qui utilisent les deepfakes est celui des tentatives de compromission par courrier électronique des entreprises (BEC). Les attaquants utilisent la technologie de clonage vocal et vidéo alimentée par l'IA pour inciter les destinataires à effectuer des transferts de fonds. Il existe également des cas d'utilisation possibles pour le vol d'informations ou de références, l'atteinte à la réputation ou même pour essayer de contourner l'authentification par reconnaissance faciale et vocale.

    Parmi les autres résultats, 41 % déclarent que les données des partenaires ont été les plus compromises au cours de l'année écoulée, ce qui souligne les risques persistants posés par les fournisseurs.

    Nom : deepfake isms.online 2.PNG
Affichages : 1048
Taille : 98,0 Ko

    En outre, 79 % des entreprises ont été touchées par un incident de sécurité de l'information causé par un fournisseur tiers ou un partenaire de la chaîne d'approvisionnement, soit une augmentation de 22 % par rapport à l'étude de 2023.

    Pour lutter contre ces attaques de plus en plus avancées, il est essentiel d'améliorer la formation et la sensibilisation, tant au niveau de la chaîne d'approvisionnement qu'au niveau interne. Près de la moitié des personnes interrogées (47 %) mettent davantage l'accent sur les initiatives de formation et de sensibilisation des employés. En outre, 38 % d'entre eux affirment que les crédits alloués à la sécurisation de la chaîne d'approvisionnement et des relations avec les fournisseurs tiers devraient augmenter de 25 % au cours de l'année à venir. Bien que l'IA soit considérée comme une partie du problème, 72 % des personnes interrogées reconnaissent que l'IA et l'apprentissage automatique contribueront à améliorer les programmes de sécurité des données.


    Luke Dash, PDG de ISMS.online, déclare : « Il est très inquiétant de voir le nombre d'organisations menacées par les risques liés aux deepfakes et aux fournisseurs tiers. Pour faire face à ces menaces croissantes et plus sophistiquées, les organisations doivent continuer à construire des fondations solides et efficaces en matière de sécurité de l'information. Toutefois, il est encourageant de voir les entreprises investir dans la sécurisation de leurs chaînes d'approvisionnement et dans la sensibilisation et la formation de leurs employés.

    À propos d'ISMS.online

    ISMS.online travaille avec des entreprises du monde entier, les aidant à gérer leur sécurité de l'information afin qu'elles puissent se développer en toute confiance. La sécurité de l'information est l'un des secteurs à la croissance la plus rapide et elle évolue constamment. ISMS.online est fier de permettre à des milliers de clients dans le monde entier d'atteindre une conformité simple et durable des données qui évolue avec leur entreprise. Depuis son lancement en 2005, ISMS.online a élargi son équipe au niveau mondial, établi des bureaux satellites en Europe et dans la région APAC, et mis en place des centres de données au Royaume-Uni et dans l'Union européenne, aux États-Unis et en Australie. Sa croissance rapide, soutenue par un investissement important de la part d'ECI Partners, permet à ISMS.online d'aider chaque jour encore plus d'organisations dans leur gestion de la sécurité, de la confidentialité et de la conformité.

    Source : "The State of Information Security Report 2024" (ISMS.online)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude d'ISMS.online crédibles ou pertinentes ?

    Voir aussi :

    Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA, les anciennes conférences vidéos de ce directeur soupçonnées d'en être à l'origine

    72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 291
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 291
    Par défaut Deep-Live-Cam peut créer des deepfakes en temps réel lors d'un appel vidéo
    Deep-Live-Cam peut créer des deepfakes en temps réel en s'appuyant sur une seule photo source,
    permettant d'usurper l'identité de quiconque lors d'un appel vidéo

    Ces derniers jours, un logiciel appelé Deep-Live-Cam est devenu viral sur les médias sociaux parce qu'il est capable d'extraire le visage d'une personne à partir d'une seule photo et de l'appliquer à une source vidéo webcam en direct tout en suivant la pose, l'éclairage et les expressions de la personne sur la webcam. Bien que les résultats ne soient pas parfaits, le logiciel montre la rapidité avec laquelle la technologie se développe et comment la capacité de tromper les autres à distance devient de plus en plus facile au fil du temps.

    Les récentes avancées en matière d'IA ont entraîné des défis importants, en particulier avec la montée des deepfake. Le projet Deep Live Cam vient rajouter de la complexité à la situation puisqu'il permet de changer de visage en temps réel grâce à l'IA, une fonctionnalité qui peut être utilisée lors d'appels vidéo.

    Le projet de logiciel Deep-Live-Cam est en cours depuis la fin de l'année dernière, mais des vidéos d'exemple montrant une personne avec le visage d'Elon Musk et le candidat républicain à la vice-présidence J.D. Vance (entre autres) en temps réel ont fait le tour du web. L'avalanche d'attention a brièvement fait bondir le projet open source à la première place de la liste des dépôts en vogue de GitHub, où il peut être téléchargé gratuitement.

    « Il est étrange de constater que toutes les innovations majeures issues de la technologie ces derniers temps relèvent de l'arbre de compétences de la fraude », a écrit l'illustrateur Corey Brickley dans un fil de discussion X réagissant à un exemple de vidéo de Deep-Live-Cam en action. Dans un autre message, il a écrit : « N'oubliez pas d'établir des mots de code avec vos parents », faisant référence au potentiel d'utilisation d'outils similaires pour la tromperie à distance et au concept d'utilisation d'un mot sûr, partagé par les amis et la famille, pour établir votre véritable identité.

    La technologie d'échange de visages n'est pas nouvelle. Le terme « deepfake » lui-même est issu de la combinaison des termes « deep learning » et « fake ». À l'époque, la technologie était coûteuse et lente et ne fonctionnait pas en temps réel. Toutefois, grâce à des projets tels que Deep-Live-Cam, il est de plus en plus facile pour quiconque d'utiliser cette technologie à la maison avec un PC ordinaire et un logiciel gratuit.

    Les dangers des « deepfakes » ne sont pas nouveaux non plus.

    Nous pouvons citer le cas d'un employé du secteur financier qui a versé 25 millions de dollars à des escrocs qui se faisaient passer pour le directeur financier de son entreprise grâce à la technologie du deepfake lors d’un appel vidéo, selon la police de Hong Kong. L’arnaque élaborée a consisté à faire croire à l’employé qu’il participait à un appel vidéo avec plusieurs autres membres du personnel, mais tous étaient en fait des créations de deepfake, a déclaré la police de Hong Kong lors d’un briefing. « Dans la conférence vidéo à plusieurs personnes, il s’avère que tout le monde (qu’il a vu) était faux », a déclaré le surintendant principal Baron Chan Shun-ching à la radio publique RTHK.

    Nom : audio.png
Affichages : 7112
Taille : 334,7 Ko

    Avec les innovations dans le clonage de la voix, le cocktail pourrait être explosif

    Il y a quelques années, les voix synthétiques semblaient avoir atteint un plafond de verre.

    Reproduire une voix spécifique est encore plus difficile : non seulement l'outil devait avoir une voix humaine, mais cette voix devait également ressembler à la votre. Ces dernières années, cependant, les entreprises dans ces domaines ont commencé à bénéficier de plus d'argent, de plus de données (surtout des tonnes d'enregistrements vocaux en ligne) et de percées dans les logiciels sous-jacent utilisés pour générer la parole.

    En 2019, ces avancées ont porté leurs fruits : une société d'IA basée à Toronto, Dessa, a cloné la voix du podcasteur Joe Rogan. (À l'époque, Rogan a réagi avec « stupeur » sur Instagram, déclarant : « L'avenir va être vraiment extrêmement bizarre »). Mais Dessa a eu besoin de beaucoup d'argent et de centaines d'heures de la voix très disponible de Rogan pour fabriquer son produit. Leur succès a été ponctuel.

    En 2022, cependant, une société new-yorkaise appelée ElevenLabs a dévoilé un service qui produit rapidement des clones impressionnants de pratiquement n'importe quelle voix ; des sons respiratoires ont été incorporés et plus de deux douzaines de langues ont pu être clonées. La technologie d'ElevenLabs est désormais largement disponible. Il suffit de naviguer vers une application, de payer cinq dollars par mois, de lui donner quarante-cinq secondes de la voix de quelqu'un et de cloner cette voix. L'entreprise est aujourd'hui évaluée à plus d'un milliard de dollars, et le reste de la Big Tech la suit de près.

    Mais le plus souvent, la technologie semble être utilisée à des fins malveillantes, comme la fraude. Cela est devenu plus facile depuis que TikTok, YouTube et Instagram stockent d'innombrables vidéos de personnes ordinaires en train de parler. « C'est simple », explique Hany Farid, qui enseigne l'IA générative et la manipulation des médias à l'Université de Californie à Berkeley. Vous prenez trente ou soixante secondes de la voix d'un enfant et vous vous connectez à ElevenLabs, et très vite, grand-mère reçoit un appel avec la voix de son petit-fils qui dit : « Grand-mère, j'ai des problèmes, j'ai eu un accident ».

    Récemment, un couple de Brooklyn a vécu une expérience terrifiante lorsque des escrocs ont utilisé l’intelligence artificielle pour cloner la voix de leurs proches et simuler une situation de rançon. En pleine nuit, Robin, une femme dans la trentaine, a été réveillée par un appel de sa belle-mère, Mona, qui semblait être en détresse. La voix paniquée de Mona répétait sans cesse « Je ne peux pas le faire, je ne peux pas le faire ». Peu après, le mari de Robin, Steve, a pris l’appel et s’est retrouvé confronté à un homme affirmant détenir sa mère sous la menace d’une arme et exigeant de l’argent.

    On peut s'attendre à ce que les cas de fraude vidéo à distance se multiplient grâce à des logiciels de contrefaçon en temps réel facilement disponibles, et ce ne sont pas seulement les célébrités ou les hommes politiques qui pourraient être concernés.

    En utilisant un logiciel d'échange de visages, quelqu'un pourrait prendre une photo de vous sur les médias sociaux et se faire passer pour vous auprès d'une personne qui n'est pas totalement familiarisée avec votre apparence et votre comportement, compte tenu de la nécessité actuelle d'imiter des manières, une voix, des cheveux, des vêtements et une structure corporelle similaires. Des techniques de clonage de ces aspects de l'apparence et de la voix existent également et ce dernier aspect a fait un bon prodigieux en avant.


    Comment ça marche ?

    Comme de nombreux projets GitHub à code source ouvert, Deep-Live-Cam regroupe plusieurs logiciels existants sous une nouvelle interface (il s'agit lui-même d'une branche d'un projet antérieur appelé « roop »). Il détecte d'abord les visages dans les images source et cible (comme une image de vidéo en direct). Il utilise ensuite un modèle d'IA pré-entraîné appelé « inswapper » pour effectuer l'échange de visages et un autre modèle appelé GFPGAN pour améliorer la qualité des visages échangés en rehaussant les détails et en corrigeant les artefacts qui se produisent au cours du processus d'échange de visages.

    Le modèle inswapper, développé par un projet appelé InsightFace, peut deviner l'apparence d'une personne (sur une photo fournie) en utilisant différentes expressions et sous différents angles, car il a été entraîné sur un vaste ensemble de données contenant des millions d'images faciales de milliers de personnes capturées sous différents angles, dans différentes conditions d'éclairage et avec des expressions diverses.

    Au cours de l'entraînement, le réseau neuronal sous-jacent au modèle inswapper a développé une « compréhension » des structures faciales et de leur dynamique dans diverses conditions, notamment en apprenant à déduire la structure tridimensionnelle d'un visage à partir d'une image bidimensionnelle. Il est également devenu capable de séparer les caractéristiques propres à l'identité, qui restent constantes sur différentes images de la même personne, des caractéristiques propres à la pose, qui changent en fonction de l'angle et de l'expression. Cette séparation permet au modèle de générer de nouvelles images de visages qui combinent l'identité d'un visage avec la pose, l'expression et l'éclairage d'un autre.

    Deep-Live-Cam est loin d'être le seul projet de logiciel d'échange de visages

    Un autre projet GitHub, appelé facefusion, utilise le même modèle d'IA de substitution de visage avec une interface différente. La plupart d'entre eux s'appuient fortement sur un réseau imbriqué de bibliothèques Python et d'apprentissage profond comme PyTorch, de sorte que Deep-Live-Cam n'est pas encore aussi facile à installer qu'un simple clic. Mais il est probable que ce type de capacité d'échange de visages devienne encore plus facile à installer avec le temps et que sa qualité s'améliore au fur et à mesure que les gens itèrent et construisent sur le travail des autres dans l'espace de développement de l'IA open source.

    Conclusion

    Il est important de noter que la création d’un deepfake sans le consentement de la personne concernée est illégale et peut entraîner des sanctions sévères. Les deepfakes soulèvent des inquiétudes quant à leur potentiel de propagation de fausses informations et de scénarios trompeurs. L'utilisation de Deel-Live-Cam et d'autres applications de simulation d'IA en temps réel soulève donc de sérieuses inquiétudes en matière de protection de la vie privée et de sécurité. Imaginez qu'une photo de vous puisse être prise sur Internet et utilisée à des fins de fraude, de tromperie et d'autres activités malveillantes sans votre autorisation.

    Source : Deep Live Cam (1, 2)

    Et vous ?

    Que pensez-vous de Deep-Live-Cam ? Vous êtes-vous déjà servi de cet outil ou d'un outil similaire ? Dans quel but ? Qu'en avez-vous pensé ?
    Jusqu’où devrions-nous autoriser l’utilisation des deepfakes ? Devrions-nous les réglementer davantage ou les laisser se développer librement ?
    Quelles sont les implications des deepfakes ? Comment pouvons-nous protéger la vie privée des individus tout en permettant l’innovation technologique ?
    Les deepfakes peuvent-ils être utilisés à des fins positives ? Par exemple, dans l’industrie du divertissement ou pour la préservation de la mémoire historique ?
    Comment pouvons-nous éduquer le public sur la détection des deepfakes ? Quelles sont les meilleures pratiques pour éviter d’être trompé par des vidéos manipulées ?
    Quel rôle les entreprises technologiques devraient-elles jouer dans la lutte contre les deepfakes ? Devraient-elles investir davantage dans la recherche sur la détection ou adopter des politiques plus strictes ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #7
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 496
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 496
    Par défaut Arati Prabhakar, chef de la Tech à la Maison-Blanche, souhaite que l'IA ne soit pas utilisée pour le pire
    Arati Prabhakar, chef de la technologie à la Maison-Blanche, souhaite que l'IA ne soit pas utilisée pour le pire : « L'augmentation des deepfakes et des images d'abus sexuels issues de l'IA est horrible »

    Arati Prabhakar, responsable des technologies à la Maison-Blanche, a fait part de ses vives inquiétudes quant à l'utilisation abusive de l'intelligence artificielle (IA), soulignant le côté obscur d'une technologie en pleine évolution. Mme Prabhakar a mis l'accent sur le besoin urgent de s'attaquer à des problèmes alarmants tels que les « deepfakes », les images d'abus générées par l'IA et les arrestations injustifiées liées à la reconnaissance faciale. Dans une récente interview, elle a notamment exhorté les sociétés de traitement des paiements à intensifier leurs efforts contre les mauvais acteurs, tout en soulignant l'avantage stratégique des États-Unis par rapport à des rivaux tels que la Chine.

    Les préoccupations de Mme Arati Prabhakar soulignent les défis posés par les applications malveillantes de l'IA, dont l'essor des deepfakes. Selon une récente étude d'ISMS.online, les deepfakes se classent en effet désormais au deuxième rang des menaces de sécurité les plus fréquentes pour les entreprises, plus d'un tiers d'entre elles ayant signalé des incidents. Les attaquants exploitent de plus en plus la technologie d'IA pour tromper les victimes et les inciter à effectuer des transferts de fonds frauduleux. Ces résultats marquent le besoin pressant de contrôles et de garanties plus stricts à mesure que l'IA continue de progresser.

    Arati Prabhakar, directrice de l'Office of Science and Technology Policy de la Maison-Blanche, a joué un rôle clé dans les travaux de l'administration Biden sur l'IA. Un décret sur l'intelligence artificielle a été signé en 2023 pour encadrer les entreprises qui développent cette technologie et veiller à ce qu'elle soit plus sûre au fur et à mesure qu'elle se développe.

    La responsable de la technologie a été l'une des premières à montrer ChatGPT au président, mais elle a son propre point de vue sur la technologie. Bien que manifestement impressionnée par ses prouesses, Arati Prabhakar semble quelque peu troublée par la rapidité avec laquelle elle a été utilisée à des fins malveillantes.


    S'adressant à la MIT Technology Review, Arati Prabhakar a déclaré que l'augmentation des « deepfakes » et des images d'abus sexuels issues de l'IA est « horrible ». Si des efforts sont encore déployés pour limiter l'utilisation de l'IA, Mme Prabhakar estime que les responsables des sociétés de traitement des paiements (payment processors) pourraient faire beaucoup plus d'efforts.

    Alors que la technologie de génération d'images par l'IA s'améliore de mois en mois, Arati Prabhakar souhaite que des sociétés comme PayPal prennent davantage de mesures pour lutter contre les abus. Les paiements mensuels aux générateurs d'images sont généralement gérés par de grands processeurs de paiement, et il semble qu'il n'y ait pas assez de travail pour contrer les mauvais acteurs dans cet espace.

    Elle ajoute qu'il est temps que la technologie de reconnaissance faciale soit utilisée à des fins moins « horribles et inappropriées ». Par exemple, les arrestations injustifiées sont en augmentation. Un incident majeur, l'arrestation de Randal Reid en 2023, a vu l'homme emprisonné à tort alors qu'il n'avait jamais été dans l'État, après avoir été faussement identifié par reconnaissance faciale.

    Cependant, Arati Prabhakar voit un côté positif à la course à l'IA. Bien entendu, elle est une fervente partisane des États-Unis et affirme que ce pays dispose de plusieurs avantages par rapport à son rival « stratégique », la Chine.

    La chef de la technologie de la Maison-Blanche soutient la loi CHIPS, sous la houlette d'Intel

    Les avancées de la Chine en matière d'IA ont conduit les États-Unis à imposer des interdictions d'exportation sur certains matériels, notamment sur la carte graphique grand public de Nvidia, la RTX 4090. Nvidia a donc développé la 4090D pour contourner les nouvelles règles.

    La préoccupation est de savoir comment garder « une porte ouverte aux personnes qui viennent chercher les avantages de l'Amérique », tout en protégeant les « actifs critiques comme notre propriété intellectuelle », indique Arati Prabhakar.

    Une grande partie de ce succès semble aujourd'hui reposer sur la loi CHIPS. Introduite par l'administration Biden, cette loi alloue des fonds pour assurer l'avenir de la fabrication de puces en Amérique. Dans ce cadre, Intel a reçu 8 milliards de dollars pour construire de nouvelles installations et de nouveaux fabricants dans tout le pays.

    Nom : arati prabhakar.jpg
Affichages : 2740
Taille : 44,4 Ko

    Arati Prabhakar affirme que l'Amérique se trouve dans une position unique maintenant qu'elle est passée par là. En dehors d'Intel, Mme Prabhakar indique que « TSMC, Samsung, SK Hynix et Micron » prévoient tous de construire aux États-Unis. La présence de ces cinq entreprises constituerait un avantage indéniable pour les États-Unis, car TSMC, basé à Taïwan, est actuellement l'usine de fabrication la plus utilisée et la plus populaire au monde.

    TSMC fournit des installations à des sociétés telles que Nvidia et AMD pour la fabrication de composants essentiels à leur matériel. Des entreprises comme SK Hynix sont surtout connues pour leur production de mémoire vive, y compris la VRAM que l'on trouve dans les cartes graphiques.

    Le matériel devenant de plus en plus important dans la lutte de l'industrie de l'IA pour rester au sommet, les usines de fabrication deviendront une denrée de plus en plus recherchée aux États-Unis.

    Cependant, il est important de garder à l'esprit que l'utilisation de l'IA à mauvais escient n'est pas une menace lointaine et elle fait déjà des ravages. En Pennsylvanie, un scandale provoqué par des deepfakes sexuellement explicites générés par l'IA a entraîné la fermeture d'une école. Un élève de la Lancaster Country Day School a en effet utilisé l'IA pour créer des images sexuellement explicites d'environ 50 camarades de classe.

    La diffusion des photos et l'inaction présumée des responsables de l'école ont suscité l'indignation de la communauté et rendu les parents furieux, avec des poursuites en perspective. Le scandale a entraîné la démission du directeur de l'école et celle de la présidente du conseil scolaire, ainsi que l'annulation des cours et la fermeture temporaire de l'établissement. Cet exemple frappant souligne les mises en garde de Mme Arati Prabhakar.

    Source : Arati Prabhakar, responsable de la technologie à la Maison-Blanche

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que la position de Mme Prabhakar à l'égard l'IA est cohérente et pertinente ?

    Voir aussi :

    Joe Biden vient de protéger sa législation phare CHIPS Act contre Donald Trump grâce à un accord de 6,6 Mds $ avec TSMC pour la construction de trois usines de fabrication de puces de pointe en Arizona

    Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

    72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    Un élève de la Lancaster Country Day School a en effet utilisé l'IA pour créer des images sexuellement explicites d'environ 50 camarades de classe.
    Futur roi des troll ! ça va être très compliqué de gérer ça... Quand on regarde sur internet les 3/4 des jeux gérés par IA sont conçus autour de thématique plus ou moins sexuelle, que ce soit en dessins ou autres.

    Du reste on a vu a quelle vitesse l'industrie de la dépravation a adopté l'IA : petite copine virtuelle, génération de deepfake, de toute façon tout ce qui est tordu et faisable sera fait. C'est une loi d'internet.

    C'est un peu des bonnes paroles de dire que c'est pas bien alors qu'on sait tous que c'est d'ores et déjà un pan entier de l'industrie de l'IA qui a trouvé une rentabilité en exploitant les travers des gens mais aussi l'isolement global dans lequel les individus sont plongés.

    Et l'article le rappelle bien c'est la guerre économique et les USA veulent que des puces soient fabriqués chez eux. Peu importe à qui ils les vendent derrière, que ce soit des CEO de boite à cul ou du traitement d'image médicale...

    Enfin c'est un vrai problème, difficile de trouver une vraie solution : restreindre l'accès des mineurs comme le fait l'Australie soulève pleins de problématiques annexes et avouons le : on savait déjà dire qu'on était majeur il y a 20 ans alors les jeunes d'aujourdhui on déjà une longueur d'avance pour accéder à des choses qu'ils ne sont pas censés voir.

    C'est avant tout au parent de cadrer un peu les gosses et de pas les laisser trainer dans l'océan internet mais je pense qu'il doit y avoir des mécanismes à mettre en place.

    Parce que je vois mal la société se désexualiser dans la pub et autre instrument de communication de masse tellement c'est rentré dans les moeurs. M'enfin on voit jamais venir les puritains quand ils arrivent, j'en dirais pas plus ^^

  9. #9
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 076
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 076
    Par défaut Les tentatives de fraude par Deepfake ont augmenté de plus de 2 000 % au cours des trois dernières années
    Les tentatives de fraude par Deepfake ont augmenté de plus de 2 000 % au cours des trois dernières années, selon un rapport de Signicat

    Les tentatives de fraude par "deepfake" augmentent de plus de 2 000 pour cent, selon un rapport de Signicat. Le rapport révèle que 42,5 % des tentatives de fraude détectées dans le secteur financier sont désormais dues à l'IA. Mais malgré l'augmentation des tentatives de fraude basées sur l'IA, y compris les deepfakes, seulement 22 % des institutions financières ont mis en place des outils de prévention de la fraude basés sur l'IA.

    L'inquiétude autour des deepfakes grandit depuis un certain temps. Un rapport publiée par ISMS.online en mai 2024 montre que les deepfakes se classent au deuxième rang des incidents de sécurité de l'information les plus courants pour les entreprises britanniques en 2023 et que plus d'un tiers (32%) des organisations en ont fait l'expérience.

    Récemment, un rapport de Signicat révèle que les institutions financières sont confrontées à une augmentation significative des tentatives de fraude par deepfake, qui ont connu une croissance stupéfiante de 2 137 % au cours des trois dernières années. Le rapport révèle que 42,5 % des tentatives de fraude détectées dans le secteur financier sont désormais dues à l'IA.

    Les données de Signicat, basées sur les réponses de 1 200 personnes travaillant dans les secteurs de la finance et des paiements dans sept pays européens, dont le Royaume-Uni, montrent que l'usurpation de compte est le principal type de fraude auquel leurs clients sont exposés, suivi par la fraude aux paiements par carte et le hameçonnage.

    La fraude par Deepfake se divise en deux catégories d'attaques. Les attaques par présentation incluent des fraudeurs portant des masques et du maquillage pour usurper l'identité d'une autre personne, mais aussi lorsque la caméra filme un autre écran montrant un deepfake en temps réel, ciblant des activités telles que les reprises de compte ou les demandes de prêt frauduleuses.

    Les attaques par injection impliquent que des logiciels malveillants ou des données non fiables sont délibérément insérés dans un programme, compromettant son intégrité ou sa fonctionnalité, par exemple sous la forme de vidéos préenregistrées, souvent au cours des processus d'onboarding ou de KYC auxquels sont soumises les banques, les sociétés fintech ou les entreprises de télécommunications.


    Mais malgré l'augmentation des tentatives de fraude basées sur l'IA, y compris les deepfakes, seulement 22 % des institutions financières ont mis en place des outils de prévention de la fraude basés sur l'IA. Cette lacune laisse potentiellement de nombreuses entreprises vulnérables à des attaques plus sophistiquées.

    "Il y a trois ans, les attaques par deepfake ne représentaient que 0,1 % de toutes les tentatives de fraude que nous avons détectées, mais aujourd'hui, elles représentent environ 6,5 %, soit un cas sur 15. Cela représente une augmentation de 2 137 % au cours des trois dernières années, ce qui est alarmant. Les fraudeurs utilisent des techniques basées sur l'IA que les systèmes traditionnels ne peuvent plus détecter complètement. Les organisations devraient envisager des systèmes de détection avancés qui combinent l'IA, la biométrie et la vérification de l'identité pour se protéger contre ces menaces", déclare Pinar Alpay, directeur des produits et du marketing chez Signicat.

    Il ajoute : "Une configuration de détection multiple est cruciale. En combinant une évaluation précoce des risques, une vérification d'identité robuste et des méthodes d'authentification basées sur la biométrie faciale, ainsi qu'une surveillance continue, les entreprises peuvent mieux protéger à la fois leurs opérations et leurs clients. L'orchestration de ces outils dans une combinaison optimale est l'essence même d'une protection multicouche."

    Un rapport de Jumio en mai 2024 avait également dressé le même tableau. Le rapport montrait que 72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes". Cependant, les gens surestimaient leur capacité à repérer les "deepfakes" : 60 % d'entre eux pensent pouvoir détecter une deepfake, contre 52 % en 2023. Les hommes sont plus confiants dans leur capacité à repérer un "deepfake" (66 % contre 52 % en 2023) (66 % contre 55 % des femmes), les hommes âgés de 18 à 34 ans étant les plus confiants (75 %), tandis que les femmes âgées de 35 à 54 ans sont les moins confiantes (52 %).

    "The Battle Against AI-driven Identity Fraud"

    Source : Signicat

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : Sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind

    Les vidéos de deepfake deviennent étonnamment bonnes : l'IA chinoise OmniHuman-1 peut générer les vidéos de deepfake les plus réalistes à ce jour, parlant, chantant et bougeant, à partir d'une seule photo

    Un scandale provoqué par des deepfakes sexuellement explicites générés par l'IA entraîne la fermeture d'une école en Pennsylvanie. Les défis liés à la technologie deepfake exacerbés par l'IA générative
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 14/02/2022, 13h18
  2. Réponses: 1
    Dernier message: 30/04/2020, 19h43
  3. Réponses: 2
    Dernier message: 18/03/2019, 11h02
  4. Réponses: 0
    Dernier message: 17/08/2012, 12h34
  5. Réponses: 8
    Dernier message: 03/10/2009, 22h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo