Bjr,
Voila mon probleme.
J'ai deux signaux A et B. et un modèle M à deux paramètres qui dit que A X M = B, avec X = produit de convolution.
Je cherche M
Note 1: A et B ne sont pas périodiques. Ce sont des pics.
Note 2: M est un modèle advection dispersion 1D. Plus précisément, M est la solution analytique, en fonction de la vitesse et de la dispersivité (mes deux paramètres), qui donne la transformée d'un Dirac.
A priori, déconvoluer B par A ne marche pas : trop de bruit dans A et B = produit de déconvolution inutilisable. Ceux qui voudraient m'aider à mieux explorer cette piste sont les bienvenus. Sinon, je la considère comme morte.
Donc ce que je fais : optimisation non linéaire des coefficients de M. Le critère d'optimisation est le coefficient de corrélation entre B et (A X M)
En faisant ça, je fais une utilisation massive de la FFT puisque, pour chaque évaluation de ma fonction critère, je FFT pour faire la convolution et je déFFT pour calculer le coefficient de corrélation.
Maintenant, je dois optimiser (pour embarquer mon petit modèle inverse dans un microcontroleur où ma puissance de calcul va être divisée par quelques ordres de grandeur). Mon idée est de calculer le coefficient de corrélation dans l'espace des fréquences. Ca m'économise un aller-retour de FFT à chaque évaluation de ma fonction critère.
D'ou ma question :
comment calculer le coefficient de corrélation entre deux signaux dans l'espace de Fourrier ?
Merci d'avoir lu, OL
Partager