IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut Un outil de détection d'Intel utilise le flux sanguin pour identifier les deepfakes avec une précision de 96 %
    Un outil de détection d'Intel utilise le flux sanguin pour identifier les deepfakes avec une précision de 96 %
    l'outil s'appuie sur des processeurs Xeon Scalable de 3e génération

    Intel a présenté lundi FakeCatcher, un détecteur de deepfakes, c'est-à-dire de médias synthétiques dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par la ressemblance d'une autre personne. La société estime que FakeCatcher est le premier détecteur en temps réel de deepfakes et affirme que le produit a un taux de précision de 96 %. Il fonctionne en analysant le "flux sanguin" subtil des pixels vidéo pour donner des résultats en quelques millisecondes. Intel affirme que son outil va rendre la détection de deepfakes plus rapide.

    Les deepfakes font partie de ces technologies qui, bien qu'impressionnantes, sont souvent utilisées à mauvais escient, et leur popularité n'a cessé de croître au cours de ces dernières années. Les deepfakes, qui consistent généralement à superposer le visage et la voix d'une personne sur une autre, ont commencé à attirer l'attention il y a quelques années lorsque les sites Web pour adultes ont commencé à bannir les vidéos où cette technique était utilisée pour ajouter le visage d'actrices célèbres au corps de stars du porno. Mais les techniques de deepfake sont devenues de plus en plus sophistiquées au fil des ans, rendant la détection plus difficile.

    Il existe désormais de nombreuses applications qui permettent aux utilisateurs d'insérer le visage de leurs amis dans des films, et l'on a vu le processus piloté par l'IA utilisé pour redonner vie à d'anciennes photos et faire apparaître à l'écran de jeunes versions d'acteurs. Les entreprises et les chercheurs travaillent depuis des années sur des moyens de distinguer une vidéo authentique d'une vidéo altérée, mais la nouvelle solution d'Intel semble être l'une des plus efficaces et innovantes. Ilke Demir, chercheuse principale au sein d'Intel Labs, a conçu FakeCatcher en collaboration avec Umur Ciftci de l'université d'État de New York à Binghamton.



    Le produit utilise du matériel et des logiciels Intel, fonctionne sur un serveur et s'interface via une plateforme Web. Des organisations, dont Facebook, le ministère américain de la Défense, Adobe et Google, ont créé des outils destinés à identifier les deepfakes. Ces outils se basent généralement sur l'apprentissage profond afin d'examiner les données brutes pour repérer l'inauthenticité. Mais Intel adopte une méthode différente. La plateforme d'Intel utilise l'apprentissage profond pour analyser les subtils changements de couleur du visage causés par le sang qui circule dans les veines, un processus appelé photopléthysmographie, ou PPG.

    La méthode permet de mesurer la quantité de lumière absorbée ou réfléchie par les vaisseaux sanguins dans les tissus vivants. Lorsque le cœur pompe le sang, celui-ci va dans les veines, qui changent de couleur. FakeCatcher observe le flux sanguin dans les pixels d'une image, ce que les deepfakes doivent encore perfectionner, et examine les signaux de plusieurs images. Il soumet ensuite les signatures à un classificateur. Ce dernier détermine si la vidéo en question est réelle ou fausse. Intel affirme que cette technique peut déterminer si une vidéo est réelle en quelques millisecondes et avec un taux de précision de 96 %.

    La société ajoute que la plateforme utilise des processeurs Xeon Scalable de 3e génération avec jusqu'à 72 flux de détection simultanés et fonctionne via une interface Web. Avec FakeCatcher, les signaux PPG sont collectés à 32 endroits du visage puis des cartes PPG sont créées à partir des composantes temporelles et spectrales. Une solution en temps réel avec un taux de précision aussi élevé pourrait faire une différence considérable dans la guerre en ligne contre la désinformation. Mais d'un autre côté, cette technologie pourrait aussi rendre les "deepfakes" encore plus réalistes, les créateurs essayant de tromper le système.

    « Vous ne pouvez pas le voir avec vos yeux, mais il est visible sur le plan informatique. Les signaux PPG sont connus, mais ils n'ont jamais été appliqués au problème du deepfake auparavant. Nous prenons ces cartes et entraînons un réseau neuronal convolutif au-dessus des cartes PPG pour les classer comme fausses et réelles. Et ensuite, grâce aux technologies Intel comme le framework Deep Learning Boost pour l'inférence et Advanced Vector Extensions 512, nous pouvons l'exécuter en temps réel et jusqu'à 72 flux de détection simultanés », a déclaré Demir. (Une détection de plus en plus importante face à des menaces croissantes).

    Selon un récent document de recherche d'Eric Horvitz, directeur scientifique de Microsoft, la détection de deepfake est devenue de plus en plus importante au cours de ces dernières années. Il s'agit notamment des deepfakes interactifs, donnant l'illusion de parler à une personne réelle, et des deepfakes de composition, où les mauvais acteurs créent de nombreux deepfakes pour compiler une "histoire synthétique". En 2020, Forrester Research a prédit que les coûts associés aux escroqueries par deepfake dépasseraient 250 millions de dollars. Plus récemment, les informations sur les deepfakes de célébrités ont proliféré.

    Nom : 145632.jpg
Affichages : 15590
Taille : 80,2 Ko

    D'un autre côté, il existe de nombreux cas d'utilisation responsable et autorisée des deepfakes. Des sociétés telles que Hour One et Synthesia proposent des deepfakes pour les entreprises - pour la formation des employés, l'éducation et le commerce électronique, par exemple. Les deepfakes peuvent également être créés par des utilisateurs tels que des célébrités et des chefs d'entreprise qui souhaitent profiter des médias synthétiques pour "sous-traiter" à un jumeau virtuel. Dans ces cas-là, on peut espérer qu'un moyen d'assurer une transparence et une provenance complètes des médias synthétiques verra le jour.

    Demir a déclaré qu'Intel mène des recherches, mais qu'elles n'en sont qu'à leurs débuts. « FakeCatcher fait partie d'une équipe de recherche plus importante chez Intel, appelée Trusted Media, qui travaille sur la détection des contenus manipulés, la génération responsable et la provenance des médias. À court terme, la détection est la solution aux deepfakes et nous développons plusieurs détecteurs différents basés sur différents indices d'authenticité, comme la détection du regard. L'étape suivante après cela sera la détection de la source, ou la recherche du modèle GAN qui se trouve derrière chaque deepfake », a-t-elle déclaré.

    « Le point d'or de ce que nous envisageons est d'avoir un ensemble de tous ces modèles d'IA, afin de pouvoir fournir un consensus algorithmique sur ce qui est faux et ce qui est vrai », a ajouté Demir. Bien que Demir et son équipe se montrent enthousiastes sur le sujet, il est important de noter que la détection des deepfakes s'avère difficile sur plusieurs fronts. Selon une étude menée en 2021 par l'Université de Californie du Sud, certains des ensembles de données utilisés pour former les systèmes de détection des "deepfakes" peuvent sous-représenter les personnes d'un certain sexe ou d'une certaine couleur de peau.

    Selon l'étude, ce biais peut être amplifié dans les détecteurs de deepfake, certains détecteurs montrant jusqu'à 10,7 % de différence dans le taux d'erreur en fonction du groupe racial. Et en 2020, des scientifiques de Google et de l'Université de Californie à Berkeley ont montré que même les meilleurs systèmes d'IA formés pour distinguer les contenus réels et synthétiques étaient sensibles aux attaques adverses qui les conduisaient à classer les fausses images comme réelles. À cela s'ajoute le jeu permanent du chat et de la souris entre les créateurs de deepfakes et les détecteurs.

    Mais Demir a déclaré qu'à l'heure actuelle, FakeCatcher d'Intel ne peut être déjoué. « L'extraction PPG que nous utilisons n'est pas différentiable, vous ne pouvez pas simplement la brancher sur la fonction de perte d'un réseau antagoniste, car cela ne fonctionne pas et vous ne pouvez pas rétrocéder si elle n'est pas différentiable. Si vous ne voulez pas apprendre l'extraction PPG exacte, mais que vous voulez l'approcher, vous avez besoin d'énormes ensembles de données PPG, qui n'existent pas pour le moment. Il y a [des ensembles de données de] 30-40 personnes qui ne sont pas généralisables à l'ensemble », a-t-elle déclaré.

    Source : Intel

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'outil de détection de deepfake d'Intel ?

    Voir aussi

    Des chercheurs développent une IA capable de détecter les vidéos deepfake avec une précision allant jusqu'à 99 %, cette méthode détecte les expressions faciales manipulées et les échanges d'identité

    Des cybercriminels ont utilisé la technologie deepfake pour voler 35 millions de dollars à une banque, en clonant la voix du directeur

    Facebook lance le Deepfake Detection Challenge, un concours avec plus de 10 millions de dollars à la clé, visant à faire avancer la recherche en matière de lutte contre les contenus manipulés

    Les arnaques de type deepfake et crypto ont augmenté durant le premier trimestre 2022, ils sont utilisés pour diffuser de la désinformation et accéder à des informations financières ou personnelles
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Modérateur
    Avatar de escartefigue
    Homme Profil pro
    bourreau
    Inscrit en
    Mars 2010
    Messages
    10 133
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : bourreau
    Secteur : Finance

    Informations forums :
    Inscription : Mars 2010
    Messages : 10 133
    Points : 38 556
    Points
    38 556
    Billets dans le blog
    9
    Par défaut
    Testé sur une allocution de Donald Trump, le dispositif a calculé 1000 % de fake, bug ?

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    901
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 901
    Points : 63 383
    Points
    63 383
    Par défaut FakeCatcher, le détecteur de "deepfake" d'Intel, a été testé sur de vraies et de fausses vidéos par la BBC
    FakeCatcher, le détecteur de "deepfake" d'Intel, a été testé sur de vraies et de fausses vidéos par la BBC.

    En mars de l'année dernière, une vidéo est apparue montrant le président Volodymyr Zelensky en train de dire au peuple ukrainien de déposer les armes et de se rendre à la Russie. Il s'agissait d'un deepfake assez évident. Mais comme les progrès de l'IA facilitent la production de deepfakes, il est d'autant plus important de les détecter rapidement.

    Le "deepfake" est un type de vidéo truquée qui utilise l'intelligence artificielle pour échanger des visages ou créer une version numérique d'une personne. Intel pense avoir une solution pour les détecter, et il s'agit d'une question de sang dans votre visage. La société a baptisé son système "FakeCatcher".

    Nom : 000000088872.jpg
Affichages : 1193
Taille : 135,2 Ko

    Dans les bureaux cossus, et pour la plupart vides, d'Intel dans la Silicon Valley, BBC a rencontré Ilke Demir, chercheuse scientifique aux Intel Labs, qui explique comment il fonctionne.

    "Nous nous demandons ce qu'il y a de vrai dans les vidéos authentiques. Qu'est-ce qui est vrai à propos de nous ? Quel est le filigrane de l'être humain ?", explique-t-elle. Le système repose sur une technique appelée photopléthysmographie (PPG), qui détecte les variations du flux sanguin. Les visages créés par les "deepfakes" n'émettent pas ces signaux, explique-t-elle.

    Le système analyse également le mouvement des yeux pour vérifier l'authenticité. "Normalement, lorsque les humains regardent un point, lorsque je vous regarde, c'est comme si je lançais des rayons de mes yeux vers vous. Mais pour les "deepfakes", c'est comme des yeux de googly, ils sont divergents", explique-t-elle.

    En examinant ces deux caractéristiques, Intel pense pouvoir faire la différence entre une vraie vidéo et une fausse en quelques secondes. La société affirme que FakeCatcher est précis à 96 %. BBC a donc demandé à tester le système, Intel ayant accepté. Ils ont utilisé une douzaine de clips de l'ancien président américain Donald Trump et du président Joe Biden. Certains étaient réels, d'autres étaient des "deepfakes" créés par le Massachusetts Institute of Technology (MIT).

    Pour ce qui est de trouver les deepfakes, le système s'est avéré assez bon. Ils ont surtout choisi des faux synchronisés avec les lèvres, c'est-à-dire des vidéos réelles dont la bouche et la voix avaient été modifiées. Le système a trouvé toutes les réponses, sauf une.

    Cependant, lorsqu'ils ont choisi de vraies vidéos authentiques, le système a commencé à avoir des problèmes. À plusieurs reprises, le système a déclaré qu'une vidéo était fausse, alors qu'elle était en fait réelle. Plus la vidéo est pixelisée, plus il est difficile de détecter le flux sanguin. Le système n'analyse pas non plus le son. Ainsi, certaines vidéos qui semblaient manifestement réelles à l'écoute de la voix ont été classées comme fausses.

    L'inquiétude est que si le programme dit qu'une vidéo est fausse, alors qu'elle est authentique, cela pourrait causer de réels problèmes. Lorsque ce point est soulevé auprès de madame Demir, elle répond que "vérifier que quelque chose est faux, par opposition à 'attention, ceci peut être faux', est pondéré différemment". Elle affirme que le système est trop prudent. Il vaut mieux attraper tous les faux et attraper aussi quelques vraies vidéos, que de rater des faux.

    Les "deepfakes" peuvent être incroyablement subtils : un clip de deux secondes dans une publicité pour une campagne politique, par exemple. Elles peuvent également être de mauvaise qualité. Il suffit de changer la voix pour réaliser une contrefaçon. À cet égard, la capacité de FakeCatcher à fonctionner "dans la nature", c'est-à-dire dans des contextes réels, a été remise en question.


    Matt Groh est professeur adjoint à l'université Northwestern, dans l'Illinois, et spécialiste des "deepfakes". "Je ne doute pas des statistiques qu'ils ont énumérées dans leur évaluation initiale", déclare-t-il. "Mais ce dont je doute, c'est de la pertinence de ces statistiques dans le monde réel."

    C'est là qu'il devient difficile d'évaluer la technologie de FakeCatcher. Les programmes tels que les systèmes de reconnaissance faciale donnent souvent des statistiques extrêmement généreuses sur leur précision. Cependant, lorsqu'ils sont testés dans le monde réel, ils peuvent s'avérer moins précis.

    En début d'année, la BBC a testé le système de reconnaissance faciale de Clearview AI en utilisant ses propres photos. Bien que la puissance de la technologie soit impressionnante, il était clair que plus la photo était pixelisée et plus le visage était de profil, plus le programme avait du mal à identifier quelqu'un. En fait, la précision dépend entièrement de la difficulté du test.

    Intel affirme que FakeCatcher a fait l'objet de tests rigoureux. Il s'agit notamment d'un test "sauvage", dans lequel l'entreprise a rassemblé 140 fausses vidéos et leurs équivalents réels. Lors de ce test, le système a obtenu un taux de réussite de 91 %, selon Intel.

    Cependant, Matt Groh et d'autres chercheurs souhaitent que le système fasse l'objet d'une analyse indépendante. Ils estiment qu'il n'est pas suffisant qu'Intel établisse un test pour elle-même. "J'aimerais beaucoup que ces systèmes soient évalués", déclare M. Groh. "Je pense que c'est très important lorsque nous concevons des audits et que nous essayons de comprendre à quel point quelque chose est précis dans un contexte réel", ajoute-t-il.

    Il est surprenant de constater à quel point il peut être difficile de distinguer une fausse vidéo d'une vraie. Cette technologie a certainement du potentiel, mais d'après les tests limités de BBC, elle a encore du chemin à parcourir.

    Source : BBC

    Et vous ?

    Pensez-vous que ces tests sont crédibles ou pertinents ?
    Quel est votre avis sur "FakeCatcher" et les outils de détection similaires ?

    Voir aussi :

    Un outil de détection d'Intel utilise le flux sanguin pour identifier les deepfakes avec une précision de 96 %,
    L'outil s'appuie sur des processeurs Xeon Scalable de 3e génération


    Des chercheurs développent une IA capable de détecter les vidéos deepfake avec une précision allant jusqu'à 99 %
    Cette méthode détecte les expressions faciales manipulées et les échanges d'identité


    Le nombre de contenus deepfake en ligne augmente à un rythme annuel de 900 %
    D'après le World Economic Forum
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Outils à utiliser pour réaliser un système avec une Base des données cloud
    Par Ergy Ngala dans le forum Solutions d'entreprise
    Réponses: 0
    Dernier message: 08/10/2019, 21h05
  2. Réponses: 1
    Dernier message: 14/09/2017, 13h09
  3. Utiliser un controle utilisateur pour afficher les éléments d'une liste
    Par MiniCesc dans le forum Windows Presentation Foundation
    Réponses: 12
    Dernier message: 05/10/2010, 15h13
  4. [C#] Utilisation d'un WebBrowser pour remplir les champs d'une page
    Par nicosaliagos dans le forum Windows Forms
    Réponses: 10
    Dernier message: 29/05/2010, 12h25
  5. Réponses: 4
    Dernier message: 04/05/2010, 13h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo