Bonjour,

J'essaye de programmer une transformée en ondelettes discrète sous LabView. Mais je n'y arrive pas...

Voici ce que j'ai fait :

- J'ai récupéré le signal à traiter.
- J'ai utilisé une SFFT pour déterminer sa fréquence maximum.
- Ensuite, j'ai appliqué un bancs de filtre passe-bas et passe-haut. Sur 5 niveaux, je récupère donc : Un signal "d'approximation" A5 et 5 signaux de détails D1,D2,D3,D4,D5.
- Je récupère ces signaux, et je les découpes maintenant dans le domaine temporel.
Arrivé ici, d'après ce que j'ai compris, j'obtiens le "pavage" Temps-Fréquence :



- J'ai aussi programmé l'ondelette mère de Morlet en gérant la possibilité de dilatation et de translation du signal.



Dont l'équation est :
Phi(x)=(1/racine(2*pi))*exp(-x²/2)*exp(-i*w0*x)

Et pour gérer la dilatation et le décalage :


Et c'est à ce moment là que je ne sais pas trop comment faire. D'après les lectures que j'ai faites sur le net, on doit choisir les coefficients a et b et faire les calculs de la transformée (calcul de l'intégrale sur le temps), mais comment ?

Apparemment, il faudrait que je fasse une transformée en ondelettes discrète avec : a= a0^m et b=n*b0*a0^m et a0=1 et b0=1 (appelé transformée dyadique). Mais tout ceci est assez flou...

Y aurait'il une personne ici pour m'aider à y voir plus clair ?

Merci d'avance !
Lame.