Des chercheurs du célèbre Massachusetts Institute of Technology (MIT) ont développé et mis à disposition un nouvel algorithme nommé "Eulerian Video Magnification".

A partir d'une simple vidéo (un morceau de film, webcam, etc.), cet algorithme permet d'augmenter les variations (de couleurs et/ou de mouvements) imperceptibles à l'oeil nu.

Toute la difficulté de l'élaboration d'un tel algorithme, consiste à différencier ce qui est du bruit de ce qui est une variation "pertinente". En effet, toute personne ayant déjà eu à traiter une vidéo (même une HD provenant de la meilleure caméra qui soit) s'est aperçue de la présence de bruit (impulsionnel, gaussien, etc.) qui perturbe fortement l'analyse de la vidéo.

Cet algorithme utilise principalement les étapes suivantes :
  • Décomposition du signal en différentes fréquences
  • Application de filtres spatiaux (essentiellement une pyramide de gaussiennes) sur chaque fréquence
  • Amplification de chaque résultat par un facteur alpha.
  • Recomposition.

C'est le choix du filtre spatial et du coefficient d'amplification qui permet les différentes applications.

Ce « simple » algorithme comme ils aiment le dire, ouvre un très vaste champ d'applications en imagerie médicale et télésurveillance, comme on peut le voir sur ces vidéos. L'algorithme est par exemple capable :
  • D'amplifier les mouvements respiratoires d'un bébé (qui sont presque imperceptibles). Cela permettrait notamment d'éviter de monitorer les bébés dans les unités de soins pédiatriques ou plus simplement de prévenir la mort subite du nourrisson.
  • D'amplifier les variations de couleur de la peau afin de mesurer la fréquence cardiaque sans même à avoir à toucher le patient.

Le principal avantage est donc d'obtenir des informations à travers une simple vidéo alors que jusqu'à présent il fallait une intervention physique sur le sujet.

Sources le site web pour plus de détails (article, code source, vidéos et explications).