TechDays 2012 : Kinect Fusion crée des modèles 3D en temps réel
Le projet de Microsoft Research étend les capacité du capteur de mouvements


A l’occasion des Techdays, Microsoft a mis ce matin à l’honneur les agents intelligents et la façon dont ils vont révolutionner demain notre vie quotidienne.

Lors de la session plénière de cette journée, Microsoft a présenté Kinect Fusion.

Kinect Fusion utilise un capteur Kinect mobile qui permet de capter des données de profondeur et de créer des modèles 3D de haute qualité, comme par exemple la modélisation d'une pièce et de son contenu. L'implémentation s’appuie sur le GPU pour le suivi de la caméra. Quant à la reconstruction de surfaces, elle fonctionne en interactif et en temps réel pour permettre la mise en œuvre d'applications en réalité augmentée ou l'interaction homme-machine.

« Nous effectuons la «fusion» des données provenant d'un capteur Kinect dans une représentation de la surface volumétrique qui imite de près la géométrie du monde réel », explique Microsoft. « Plutôt que de prendre une simple image de profondeur avec la Kinect, nous fusionnons en temps réel plusieurs mesures de profondeur obtenues à partir d‘un capteur Kinect en mouvement pour créer un modèle 3D complet ».

[ame="http://www.youtube.com/watch?v=quGhaggn3cQ"]Présentation Vidéo de Kinect Fusion[/ame]

Actuellement en phase d’expérimentation, cette technologie devrait avoir de multiples champs d’applications. C’est en tout cas ce qu’espère l’éditeur qui cite en exemple le secteur de l’ameublement : « l’utilisateur sera ainsi en mesure de numériser son environnement et d’y superposer des images 3D de meubles qu’il pourra directement visualiser dans son intérieur avant son achat ».

Rappelons qu’un SDK pour Kinect est gratuit pour les usages non commerciaux.

Et qu’une version pour PC (avec un hardware modifié) est sortie en janvier.

Source : TechDays 2012, plénière du 9 février

Et vous ?

Que pensez-vous de Kinect Fusion : technologie d’avenir ou déjà vue ?