IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Sécurité Discussion :

Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques


Sujet :

Sécurité

  1. #1
    Chroniqueur Actualités
    Avatar de Michael Guilloux
    Homme Profil pro
    Data Consultant
    Inscrit en
    Juillet 2013
    Messages
    2 888
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Data Consultant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2013
    Messages : 2 888
    Points : 87 206
    Points
    87 206
    Billets dans le blog
    2
    Par défaut Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques
    Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques
    par l’envoi de commandes vocales inaudibles

    Les systèmes de reconnaissance vocale comme Siri, Cortana ou Alexa sont de plus en plus répandus et pour certains analystes seront dans les années à venir au centre de l’interaction entre les consommateurs et leurs appareils et dispositifs électroniques. Un ingénieur de Microsoft a même prédit que les assistants personnels comme Cortana pourraient à terme remplacer les claviers. Mais comme toute technologie, il est difficile dans les débuts d’identifier tous les risques qui l’accompagnent ; lesquels sont toutefois mieux perçus au fil du temps.

    Dans une étude, des chercheurs de l’université du Zhejiang, en Chine, attirent l’attention des constructeurs sur une faille de sécurité qui affecterait tous les assistants vocaux du marché. Ils ont en effet montré qu’il est possible de transmettre des commandes vocales à des fins malveillantes à ces dispositifs à l’insu du propriétaire. Leur attaque, baptisée DolphinAttack, consiste à envoyer des commandes vocales ultrasoniques aux systèmes de reconnaissance vocale.

    Situées entre 20 kHz et 10 MHz, les fréquences des ultrasons sont trop élevées pour être perçues par l'oreille humaine. Si elles sont donc inaudibles pour les humains, elles sont parfaitement captées par les microphones des appareils électroniques, donc par les assistants vocaux. Le concept de l'attaque a été validé via des preuves de concept sur les systèmes populaires de reconnaissance vocale, y compris Siri, Google Now, Samsung S Voice, Huawei HiVoice, Cortana et Alexa. Les chercheurs ont par exemple été capables d'activer Siri pour lancer un appel FaceTime sur iPhone. Ils ont pu également activer Google Now pour basculer le téléphone en mode avion, et même manipuler le système de navigation dans une voiture de marque Audi.

    On pourrait penser que l'exploitation de cette attaque est d'une portée limitée, mais peut-être pas tellement si l'on prend en compte le fait que ces assistants vocaux sont très utilisés sur smartphones, et existent également sur ordinateurs : le cas de Windows 10 avec Cortana. La technique peut donc être utilisée pour faire ouvrir à un smartphone ou un ordinateur une page Web contenant un logiciel malveillant. Cela permet donc de mener une attaque sans avoir physiquement accès à l'appareil.

    En plus, ces commandes vocales ultrasoniques peuvent être cachées dans des médias et applications. En mai dernier, on rapportait déjà que des centaines d'applications Android utilisent de l'ultrason pour le suivi inter périphérique des utilisateurs. Les signaux ultrasons peuvent aussi être diffusés par le biais des annonces télévisées. En outre, les chercheurs notent que le procédé ne nécessite pas non plus de matériel hors de prix : juste quelques composants coûtant quelques euros suffisent pour émettre ces ultrasons.

    Pour protéger les systèmes à commande vocale de ce genre d'attaques, les chercheurs proposent des solutions de défense matérielle et logicielle. La première consiste à améliorer les microphones. Ils affirment que le problème se pose parce que les microphones peuvent détecter des sons acoustiques avec une fréquence supérieure à 20 kHz alors qu'un microphone idéal ne devrait pas. Ainsi, les microphones doivent être améliorés et conçus de sorte à filtrer tous les signaux acoustiques dont les fréquences sont dans la gamme des ultrasons.

    En ce qui concerne la solution logicielle, les chercheurs ont montré qu'il est possible de détecter DolphinAttack en faisant une classification des audios en utilisant les machines à vecteur de support (SVM), un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression.

    Source : Rapport de l’étude

    Et vous ?

    Qu’en pensez-vous ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Candidat au Club
    Homme Profil pro
    Technicien Help Desk
    Inscrit en
    Novembre 2016
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 27
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Technicien Help Desk

    Informations forums :
    Inscription : Novembre 2016
    Messages : 2
    Points : 3
    Points
    3
    Par défaut aha!
    c'était à prévoir ! xD

  3. #3
    Expert éminent
    Avatar de transgohan
    Homme Profil pro
    Développeur Temps réel Embarqué
    Inscrit en
    Janvier 2011
    Messages
    3 146
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Maine et Loire (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur Temps réel Embarqué

    Informations forums :
    Inscription : Janvier 2011
    Messages : 3 146
    Points : 9 386
    Points
    9 386
    Par défaut
    Le souci c'est le vocodeur qui interprète ces fréquences alors qu'il n'a aucune raison de le faire...
    Un bon filtre appliqué en entrée et on en parle plus...
    A quoi bon tenter de trouver quelque chose dans les parasites ? A moins que leurs micros soient si pourri que cela ?

    « Toujours se souvenir que la majorité des ennuis viennent de l'espace occupé entre la chaise et l'écran de l'ordinateur. »
    « Le watchdog aboie, les tests passent »

Discussions similaires

  1. Microsoft dévoile une faille de sécurité dans Internet Explorer
    Par Stéphane le calme dans le forum Sécurité
    Réponses: 13
    Dernier message: 06/05/2014, 17h27
  2. Réponses: 0
    Dernier message: 25/03/2014, 17h26
  3. Failles de sécurité dans les Gadgets
    Par Hinault Romaric dans le forum Sécurité
    Réponses: 11
    Dernier message: 13/07/2012, 09h52
  4. Facebook ignorerait une faille de sécurité dans ses API
    Par Doksuri dans le forum Actualités
    Réponses: 0
    Dernier message: 07/10/2011, 17h17
  5. Réponses: 3
    Dernier message: 25/10/2010, 11h20

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo