+ Répondre à la discussion Actualité déjà publiée
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    2 792
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 2 792
    Points : 60 842
    Points
    60 842

    Par défaut Lyrebird a développé une API capable d'imiter la voix après une minute d'écoute de l'originale

    Lyrebird indique être parvenu à créer un algorithme capable d'imiter la voix
    après une minute d'écoute de la voix originale

    La start-up canadienne Lyrebird a développé une API capable d’imiter la voix d’un individu. Elle a franchi une nouvelle étape dans le développement des technologies reposant sur l’intelligence artificielle en proposant aux entreprises et développeurs de nouveaux outils de synthèse de la parole. Les utilisateurs de Lyrebird pourront notamment générer des dialogues entiers dans une voix de leur choix ou synthétiser de nouvelles voix créées de toutes pièces.

    L'API de Lyrebird est conceptuellement similaire à la technologie Adobe VoCo d'Adobe, qui a été présentée l'année dernière, bien qu'il semble y avoir des différences notables. Par exemple, tandis que VoCo semble exiger des ressources système pour reproduire des voix, l'API de Lyrebird s'appuie sur des ressources cloud. « Nos clusters GPU génèrent 1000 phrases en moins d'une demi-seconde », affirme la start-up.

    VoCo doit également « écouter » au moins 20 minutes l'audio original pour synthétiser la voix, mais Lyrebird assure que, dès la première minute, son algorithme est en mesure de « comprimer l'ADN vocal en une clé unique [et] utiliser cette clé pour générer un élément audio avec la voix correspondante ».

    La société va plus loin et promet qu’elle va inclure la capacité de « contrôler l'émotion de la voix générée », en y infusant de la colère, de la sympathie, du stress et d'autres émotions pour rendre la voix plus naturelle.

    Lyrebird a publié de nombreux échantillons d'enregistrements audio synthétisés sur son site Web, mais a rappelé que l'API est encore en cours de développement et invite des bêta testeurs à faire partie de son programme. Sur son site, elle a par exemple synthétisé la voix de Barack Obama et Donald Trump : « Pour chaque orateur, nous avons eu moins d'une minute d'enregistrement audio original. Les échantillons générés sont des phrases qui n’ont jamais été prononcées par leur orateur respectif ».

    La start-up a évoqué de nombreux champs d’application dans lesquels son algorithme pourrait trouver un débouché : les assistants personnels, la lecture de livres audio, les objets connectés, la synthèse de voix pour des personnes en situation de handicap, la réalisation de films ou de jeux vidéo.

    Mais cette technologie pourrait être utilisée à d’autres fins bien moins honorables. D’ailleurs, couplé à une technologie comme Face2Face, un projet de chercheurs de l’université américaine de Stanford, en collaboration avec des équipes de l’université allemande d’Erlangen-Nuremberg et de l’institut Max Planck à Leipzig, qui consiste à modifier en temps réel les expressions d’un visage, l’ensemble pourrait avoir des conséquences désastreuses. Imaginez par exemple une vidéo falsifiée d’une figure populaire, qu’elle soit de la classe politique, technologique ou autres, et qui se lance dans une tirade. L’impact serait encore plus prononcé que celui des fausses actualités.

    Dans la vidéo ci-dessous, les expressions d’un acteur captées par une simple webcam sont appliquées sur le visage de George Bush, de Vladimir Poutine ou de Donald Trump dans des vidéos prises sur YouTube.


    Ce qui soulève donc certaines inquiétudes sur lesquelles Lyrebird n’a pas peur de s’exprimer. Sur sa page éthique, la start-up indique que « Notre technologie remet en question la validité de telles preuves, car elle permet de manipuler facilement des enregistrements audio. Cela pourrait avoir des conséquences dangereuses telles que de fausses déclarations de diplomates, la fraude et plus généralement tout autre problème causé en volant l'identité d’un individu.

    En lançant publiquement notre technologie et en la mettant à la disposition de tous, nous voulons nous assurer qu'il n'y aura pas de tels risques. Nous espérons que tout le monde sera bientôt conscient qu'une telle technologie existe et que la copie de la voix de quelqu'un d'autre est possible. Plus généralement, nous voulons attirer l'attention sur le manque de preuves que les enregistrements audio peuvent représenter dans un proche avenir ».

    Lyrebird s’appuie sur des modèles d’apprentissage profond développés au laboratoire du MILA de l’Université de Montréal, où ses trois fondateurs sont doctorants : Alexandre de Brébisson, Jose Sotelo et Kundan Kumar.

    démo Lyrebird

    Source : Lyrebird
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éclairé
    Avatar de Aurelien Plazzotta
    Homme Profil pro
    UML/SQL/Python/Knowledge Management
    Inscrit en
    juillet 2006
    Messages
    261
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 32
    Localisation : France

    Informations professionnelles :
    Activité : UML/SQL/Python/Knowledge Management

    Informations forums :
    Inscription : juillet 2006
    Messages : 261
    Points : 840
    Points
    840

    Par défaut

    nous voulons attirer l'attention sur le manque de preuves que les enregistrements audio peuvent représenter dans un proche avenir
    Il est là le drame.
    Le concept même de preuve deviendra bientôt caduque, c'est-à-dire dénué de valeur juridique et irrecevable lors d'un procès. Il devient impossible de prouver quoi que se soit puisque tout est désormais falsifiable.
    Ce genre de démarche renforce uniquement le pouvoir des puissants. Les citoyens et les entreprises nationales perdent maintenant leur capacité à défendre leurs créations intellectuelles en saisissant le ministère de la justice face à un vol ou un plagiat. Le juge du tribunal de commerce déclarera très fièrement : "Mais Monsieur, tout le monde peut fabriquer des enregistrements audiophoniques, qu'est-ce qui prouve que vous avez été lésé ? Vous vous rendez désormais passible de faux témoignagne et diffamation."

    Ce genre de technologie est uniquement dangereuse et ne représente nullement un progrès car chacun perd son individualité au profit d'une machine. Associée au clonage réservé au secrétariat d'état de la défense américaine, le duplicage de voix peut aujourd'hui manipuler entièrement et aisément qui que se soit en faisant croire qu'une entièté bio-mécanique est un humain que l'on croit connaître.

    En poussant le raisonnement plus loin, les enlèvements et vols d'identité deviennent également impossibles à prouver.



    L'humanité régresse lorsque les innovations sont acaparées par des êtres corrompus et avilis.
    Je porte l'épée brisée, et sépare les vrais rois des tyrans. Qui suis-je ?

  3. #3
    Membre averti Avatar de LapinGarou
    Homme Profil pro
    Lead developer R&D
    Inscrit en
    octobre 2005
    Messages
    309
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Lead developer R&D
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : octobre 2005
    Messages : 309
    Points : 385
    Points
    385

    Par défaut

    Imiter une voix ne veut pas dire que les 2 spectres soient parfaitement superposables.

Discussions similaires

  1. Réponses: 11
    Dernier message: 29/05/2015, 10h21
  2. Réponses: 2
    Dernier message: 12/12/2010, 21h09
  3. Réponses: 3
    Dernier message: 05/06/2009, 10h14
  4. Réponses: 13
    Dernier message: 03/05/2007, 21h16
  5. Réponses: 6
    Dernier message: 23/04/2007, 11h41

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo