IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Sécurité Discussion :

Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques


Sujet :

Sécurité

  1. #1
    Chroniqueuse Actualités
    Avatar de Blondelle Mélina
    Femme Profil pro
    Ingénieur systèmes et réseaux
    Inscrit en
    Mars 2018
    Messages
    93
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 31
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Ingénieur systèmes et réseaux

    Informations forums :
    Inscription : Mars 2018
    Messages : 93
    Points : 2 292
    Points
    2 292
    Par défaut Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques
    Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques,
    par l'envoi d'instructions audio secrètes

    Beaucoup de gens se sont habitués à parler à leurs appareils intelligents, leur demandant de lire un texte, de jouer une chanson ou de déclencher une alarme. Mais quelqu'un d'autre pourrait aussi leur parler secrètement.

    Au cours des deux dernières années, des chercheurs en Chine et aux États-Unis ont commencé à démontrer qu'ils pouvaient envoyer des commandes cachées indétectables pour l'oreille humaines à Siri d'Apple, à Alexa d'Amazon et à Google Assistant. À l'intérieur des laboratoires universitaires, les chercheurs ont pu activer secrètement les systèmes d'intelligence artificielle sur les smartphones et les haut-parleurs intelligents, les faisant passer des appels ou ouvrir des sites web. Entre de mauvaises mains, la technologie pourrait être utilisée pour déverrouiller les portes, acheter des choses en ligne - simplement avec de la musique diffusée à la radio.

    Nom : hack.PNG
Affichages : 5270
Taille : 634,7 Ko

    Un groupe d'étudiants de l'Université de Californie, Berkeley et Georgetown University ont montré en 2016 qu'ils pouvaient dissimuler des commandes dans des bruits blancs diffusés par haut-parleurs et via des vidéos YouTube pour activer des appareils intelligents ou ouvrir un site Web. Certains de ces chercheurs de Berkeley ont publié un article de recherche qui allait plus loin, disant qu'ils pouvaient intégrer des commandes directement dans des enregistrements de musique ou de texte parlé. Ainsi, alors qu'un auditeur humain entend quelqu'un parler ou qu'un orchestre joue, le haut-parleur Echo d'Amazon peut entendre une instruction d'ajouter quelque chose à votre liste de courses. « Nous voulions voir si nous pouvions le rendre encore plus furtif », a déclaré Nicholas Carlini, un doctorat de cinquième année, étudiant en sécurité informatique à U.C. Berkeley. M. Carlini a ajouté que même s'il n'y avait aucune preuve que ces techniques avaient quitté le laboratoire, il se peut que ce ne soit qu'une question de temps avant que quelqu'un commence à les exploiter. « Mon hypothèse est que les personnes malveillantes emploient déjà des gens pour exécuter cette fonction de hacker via les ondes radio », a-t-il dit.

    Ces tromperies illustrent comment l'intelligence artificielle - même si elle fait de grands progrès - peut encore être trompée et manipulée. Les ordinateurs peuvent être trompés en identifiant un avion comme un chat en changeant quelques pixels d'une image numérique, tandis que les chercheurs peuvent faire dévier un véhicule ou accélérer simplement en collant de petits autocollants sur les panneaux de signalisation et en confondant le système de vision du véhicule. Avec les attaques audio, les chercheurs exploitent le fossé entre la reconnaissance vocale humaine et la reconnaissance vocale artificielle. Les systèmes de reconnaissance de la parole traduisent généralement chaque son en une lettre, éventuellement en les compilant en mots et en phrases. En apportant de légères modifications aux fichiers audio, les chercheurs ont pu annuler le son que le système de reconnaissance vocale était supposé entendre et le remplacer par un son qui serait transcrit différemment par les machines tout en étant pratiquement indétectable pour l'oreille humaine.

    La prolifération de gadgets activés par la voix amplifie les implications de ces astuces. Smartphones et haut-parleurs intelligents qui utilisent des assistants numériques tels que Amazon Alexa ou Siri d'Apple devraient dépasser le nombre de personnes d'ici 2021, selon le cabinet d'études Ovum. Et plus de la moitié de tous les ménages américains auront au moins une enceinte intelligente d'ici là, selon Juniper Research.

    Amazon a déclaré qu'il ne divulguait pas les mesures de sécurité spécifiques, mais il a pris des mesures pour s'assurer que son haut-parleur intelligent Echo soit sécurisé. Google a déclaré que la sécurité est un objectif permanent et que son assistant dispose de fonctionnalités pour atténuer les commandes audio indétectables. Les assistants des deux sociétés emploient la technologie de reconnaissance vocale pour empêcher les dispositifs d'agir sur certaines commandes à moins qu'ils ne reconnaissent la voix de l'utilisateur.


    Source : CNBC

    Et vous ?

    Qu'en pensez-vous ?
    Utilisez-vous si souvent ces assistants virtuels ? Si oui, pour quelle tâche en particulier ?
    Êtes-vous pour ou contre la présence de ces assistants vocaux dans les smartphones ?

    Voir aussi :

    Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques, par l'envoi de commandes vocales inaudibles
    L'assistant intelligent M fonctionne désormais exclusivement grâce à l'IA, Facebook ayant retiré la composante fonctionnelle humaine qui l'alimentait
    Palmarès des assistants vocaux : premier Google Assistant suivi de Cortana puis Alexa et en dernier Siri, selon les résultats d'un test
    Amazon et Apple accusés d'exploitation par Wikipédia, l'encyclopédie les encourage à participer financièrement
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre averti
    Homme Profil pro
    Ingénieur Développement Logiciel
    Inscrit en
    Septembre 2005
    Messages
    285
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Ingénieur Développement Logiciel
    Secteur : Service public

    Informations forums :
    Inscription : Septembre 2005
    Messages : 285
    Points : 421
    Points
    421
    Par défaut
    ça craint pour le futur! Les mastodontes devraient plutôt penser sécurité avant tout lancement mais bon, il faut rentabiliser d'abord. Avec l'IA le pire est à craindre, dans bien des domaines.

  3. #3
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 066
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 066
    Points : 2 569
    Points
    2 569
    Par défaut
    V'est hors propos, mais ça me fait penser aux disques, surtout de hard rock, qui avaient soit disant des messages cachés si on les jouait en arrière, des messages satiniques subliminaux,...
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  4. #4
    MikeRowSoft
    Invité(e)
    Par défaut
    Un ancien espion a déjà sorti un outil (coque de téléphone) pour éviter ou détecter les communications en protocoles réseau qui pourrait être "involontaire", il a encore une autre voie à explorer.

  5. #5
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 128
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 128
    Points : 2 237
    Points
    2 237
    Par défaut
    Quand Cortana m'a demandé mon autorisation pour reconnaître ma voix, je lui ai répondu "ta gueule !"

    C'est certes très impoli, mais d'une efficacité radicale contre le problème décrit ici.

  6. #6
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 128
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 128
    Points : 2 237
    Points
    2 237
    Par défaut
    Citation Envoyé par CoderInTheDark Voir le message
    YES WE CAN BLANCHE !!!

    Ah mais Blanche Gardin c'est la meilleure !

Discussions similaires

  1. Réponses: 2
    Dernier message: 12/09/2017, 19h01
  2. Réponses: 0
    Dernier message: 25/03/2014, 17h26
  3. Failles de sécurité dans les Gadgets
    Par Hinault Romaric dans le forum Sécurité
    Réponses: 11
    Dernier message: 13/07/2012, 09h52
  4. Facebook ignorerait une faille de sécurité dans ses API
    Par Doksuri dans le forum Actualités
    Réponses: 0
    Dernier message: 07/10/2011, 17h17
  5. Réponses: 3
    Dernier message: 25/10/2010, 11h20

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo