IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

L’IA peut être facilement induite en erreur par des attaques contradictoires

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mars 2017
    Messages
    1 177
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2017
    Messages : 1 177
    Points : 78 775
    Points
    78 775
    Par défaut L’IA peut être facilement induite en erreur par des attaques contradictoires
    L’IA peut être facilement induite en erreur par des attaques contradictoires
    Devrait-on s’en inquiéter ?

    L’intégration toujours plus poussée de l’intelligence artificielle (IA) dans de nombreux domaines de la vie quotidienne (santé, sécurité, multimédia, transport, alimentation…) laisse entrevoir un avenir radieux pour cette technologie qui pourrait à l’avenir se révéler incontournable. L’IA est présentée habituellement comme une technologie fiable qui, comparée à un opérateur humain, offrirait de meilleures garanties sur divers plans (sécurité, cheminement logique, efficacité, efficience, rapidité d’exécution, etc.).

    L’IA alimente de nombreux systèmes de sécurité ainsi qu’une grande variété de dispositifs militaires. Cette technologie est très utilisée pour la reconnaissance d’images et de sons ou encore la « vision » robotique. Elle permet notamment d’identifier avec une faible marge d’erreur le contenu d’un décor ou d’une image, mais également de transcrire assez fidèlement les mots et phrases prononcés par une personne. C’est d’ailleurs l’une des raisons qui expliquent son intégration avancée au sein des assistants virtuels intelligents qu’on retrouve sur de nombreux appareils.

    Toutefois, le fait que l’être humain se repose davantage sur cette technologie en tant qu’interface privilégiée entre lui et le monde réel augmente l’enjeu et les répercussions négatives découlant de chaque mauvaise analyse et résultat rendus par l’IA. Il ne serait probablement pas dramatique de se rendre compte que l’assistant virtuel intelligent d’un smartphone s’est trompé lorsqu’il fallait interpréter une commande vocale, mais pourrait-on en dire autant si dans un moment d’égarement l’IA d’un véhicule autonome ne parvenait pas détecter un danger pourtant bien réel qui se présente sur la route ?

    L’intelligence artificielle a beau offrir des garanties importantes sur le plan de la sécurité, elle n’en reste pas moins une technologie vulnérable. Elle serait d’ailleurs particulièrement sensible aux attaques dites « adversarial » (contradictoire) qui tirent parti de son fonctionnement basé sur le Deep Learning pour générer des perturbations de faible amplitude dans les données analysées et force l'IA à valider puis renvoyer un résultat incorrect.

    À ce propos, des études ont montré comment des modifications quasi imperceptibles à l’œil nu sur une image (celle d’un panda par exemple) pouvaient perturber une IA au point où cette dernière ne parvient plus à identifier la représentation exacte de l’image (l’IA reconnait un gibbon sur l’image en lieu et place du panda). De la même manière, on pourrait utiliser de simples autocollants (apposés par exemple sur des panneaux routiers) ou des lunettes comportant des motifs faits d’une multitude de lignes et de couleurs sur les verres pour tromper une IA.

    Nom : 00.jpg
Affichages : 3189
Taille : 48,3 Ko
    Nom : 0.jpg
Affichages : 2712
Taille : 52,3 Ko

    Des sons peuvent également servir de perturbateurs. En effet, d’autres études ont démontré que des commandes vocales inaudibles cachées dans une bande-son peuvent induire en erreur une IA. Cette dernière analysera cette superposition comme ayant un sens totalement différent de la bande son apparente, un sens que l’attaquant générant le bruit de fond peut fixer à sa guise.

    « On ne sait par contre pas exactement pourquoi ni comment ça marche », a confié le chercheur Jonathan Peck dans De Standaard avant d’ajouter : « On pense que cela détourne l’attention du système d’Intelligence artificielle à la manière d’un drapeau rouge pour un taureau. »

    Ce système de perturbateur peut aussi être utilisé pour la protection de contenu puisqu’il est possible de rendre des contenus (images par exemple) illisibles en exploitant ce même procédé. On investit énormément dans le développement de l’IA sans trop se soucier de la sécurité, alors qu’il serait aussi important de considérer dans le même temps les risques liés aux attaques adversarial.

    Source : Levif

    Et vous ?

    Qu’en pensez-vous ?

    Voir aussi

    Dix tendances technologiques qui pourraient marquer les entreprises en 2018 de l'intelligence artificielle à la réalité augmentée
    L'intelligence artificielle est-elle l'arme de la prochaine guerre froide ? Oui répond un chercheur en informatique
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Nouveau membre du Club
    Inscrit en
    Août 2005
    Messages
    11
    Détails du profil
    Informations forums :
    Inscription : Août 2005
    Messages : 11
    Points : 35
    Points
    35
    Par défaut Garde moi de mes amis, je me charge de mes ennemis
    Oui, on peut dire malveillant au lieu de "adversarial"

  3. #3
    Membre averti
    Profil pro
    Développeur Full Stack
    Inscrit en
    Janvier 2012
    Messages
    69
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Full Stack

    Informations forums :
    Inscription : Janvier 2012
    Messages : 69
    Points : 300
    Points
    300
    Par défaut
    L’intelligence artificielle a beau offrir des garanties importantes sur le plan de la sécurité
    Non, justement, l'IA n'est pas robuste du tout, en tout cas par design, et si on peut limiter les effets des attaques adversariales, c'est un travail supplémentaire par rapport a un entrainement simple.

    Maintenant, le problème des attaques adversarial est le même que dans la programmation algorithmique classique. Il faut savoir d'où viennent les données et les contre-mesures à mettre en place dépendent de la criticité de l'application pour laquelle on utilise le modèle.

  4. #4
    Membre averti
    Profil pro
    Développeur Full Stack
    Inscrit en
    Janvier 2012
    Messages
    69
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Full Stack

    Informations forums :
    Inscription : Janvier 2012
    Messages : 69
    Points : 300
    Points
    300
    Par défaut
    Sinon, adversarial est plutôt traduit par antagoniste au sens où on crée un modèle miroir (antagoniste) du modèle que l'on veut attaquer et on l'entraine pour voir les cas dans lesquels le modèle attaqué renvoie une réponse non cohérente. Ca se rapproche de la technique des GAN (generative adversarial network / reseau antagoniste generatif)

Discussions similaires

  1. Bill Gates estime que l’IA peut être « l’ami » de l’homme
    Par Victor Vincent dans le forum Actualités
    Réponses: 7
    Dernier message: 20/02/2018, 13h18
  2. Réponses: 4
    Dernier message: 18/10/2017, 14h10
  3. Réponses: 0
    Dernier message: 22/08/2016, 05h14
  4. Réponses: 0
    Dernier message: 12/12/2014, 13h49
  5. Réponses: 21
    Dernier message: 31/07/2011, 17h10

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo