Bonjour,

Dans le cadre d'une étude bibliographique que je dois réaliser, je me suis intéressé à ce papier : "C-A Deledalle, J. Salmon, A. S. Dalalyan, "Image denoising with patch based PCA: local versus global", BMVC 2011.

Il traite, comme le nom l'indique, d'un débruitage d'images par analyse en composantes principales. Je n'arrive pas à comprendre le principe et j'aurais aimé que quelqu'un m'éclaire pour la "base".

Dans l'introduction, les auteurs parlent de concepts que je n'arrive pas à comprendre : "overcomplete dictionaries" et "sparse learning techniques". Or, du peu que j'en saisi, j'ai l'impression que c'est antinomique dans le sens où si toutes les données d'une image sont connues, on a pas besoin de techniques "parcimonieuses" (sauf coût de calcul, j'imagine), sauf erreur de ma part...

Autre chose, je ne vois pas bien pourquoi ils décomposent les blocs d'une image en "axes" via des bases orthogonales ; si quelqu'un pouvait m'éclairer à ce sujet...

Et surtout, comment tout cela s'entrelace pour permettre un débruitage d'images (sauf erreur, le flou n'est pas une question de hautes-fréquences) ; j'ai l'impression de revoir comme une technique de compression à base d'ondelettes...

Pour voir autre chose que le papier dont je parle, voir ce lien : http://josephsalmon.eu/code/index_codes.php?page=GPPCA

Bref, merci pour toute réponse ou documentation que vous pourriez me faire suivre