Des chercheurs Chinois utilisent Kinect pour traduire le langage des signes en langage parlé et inversement
leur système effectue ces opérations en temps réel
Conçue à l’origine pour améliorer l’expérience des jeux sur la console de salon de Microsoft la Xbox 360, la caméra Kinect (de part sa fonctionnalité de reconnaissance de mouvement) a engendré de nombreux projets alternatifs qui n’ont rien en commun avec le jeu vidéo.
Selon Guobin Wu de Microsoft Asie, il y’aurait en Chine plus de 20 millions de personnes atteinte de surdité, et à une échelle mondiale l’estimation serait 360 millions.
Le projet de traduction des signes en langage parlé et inversement actuellement mené par une équipe de chercheurs Chinois dont fait partie le Professeur Xilin Chen de l’académie des sciences de Chine, pourrait être d’une grande aide pour ces personnes souvent marginalisés dans certaines régions du globe.
Baptisé « Kinect Sign Language Translator », le projet a fait intervenir de nombreux domaines d’expertises différents allant de la reconnaissance vocale à l’interprétation du langage des signes en passant par des domaines comme celui de la modélisation 3D.
Concrètement, la caméra Kinect capture la gestuelle du langage des signes et des algorithmes sophistiqués exécutés en arrière plan permettent leur conversion en langage parlé. Inversement, la voix est enregistrée puis analyser par des systèmes de reconnaissance vocale et des algorithmes permettent à un avatar à l’écran d’effectuer le langage des signes correspondant à ce qui a été dit, le tout en temps réel.
Et bien que le système soit encore à un stade expérimental, les premiers résultats sont encourageants et on évoque déjà du côté Chinois la possibilité d’intégration du langage des signes Américain au système.
[ame="http://www.youtube.com/watch?v=HnkQyUo3134"]Kinect Sign Language Translator[/ame]
Source: Blog Msdn
Et vous ?
Qu’en pensez-vous ?
Partager