Salut a tous,
je cherche a "normaliser" et homogeniser plusieurs images selon leur contraste, couleur, saturation, etc., sachant que ces images servent a la reconstruction d'un panorama: cela signifie qu'entre les images des informations concordantes sont sucesptibles d'etre presentes (un ciel bleu pour un panorama de ville, un fond quelconque pour un panorama pris dans un hall, etc.).
J'ai essaye la methode consistant a calculer un histogramme pour chaque canal de couleur de chaque image (R,G,B), puis je prends comme assumption que le plus haut pic pour chaque image relatif a un canal de couleur precis sers de point de repere pour normaliser les images entre elles. Cette methode fonctionne bien seulement si les images possede beaucoup de pixels concordants (ceux relatifs au fond de chaque image). Dans des cas particuliers ou sur un meme panorama on a une ville (pas mal de couleurs melangees entre Rouge,Vert et Bleu) et une foret (beaucoup de vert donc), on obtient des resultats peu convaincants.
J'aimerais donc connaitres quelques pistes pour ameliorer mon algorithme. Il faut aussi prendre en compte le fait que des images successives possedent une portion en commun, peut etre devrais je calculer un histogramme seulement pour la portion commune et ensuite normaliser l'image ... Je posterais apres plusieurs tests.
Bref en fait toute information susceptible d'etre interessante est la bienvenue
Edit : Je bosse sous matlab
Partager