Bonjour,
Malgré toutes mes lectures sur le sujet, je reste un peu dans le flou quand il faut passer à la pratique avec OpenCV. J'ai besoin de vos lumières sur les points suivants:
Pour le calcul de la matrice fondamentale, la fonction cvFindFundamentalMat à besoin en paramètres des coordonées images des points observés. Ces points sont ils juste les coordonnées en pixels des points sur l'image (x,y,1) ou faut il appliquer un certaine transformation avant (genre supprimer la distortion, les normaliser ça veut dire quoi concretement aussi ?)
Vu que mon besoin et de trouver les coordonées euclidiennes des 2 caméras, j'ai seulement besoin de trouver la matrice essentielle. Faut il que je multiplie tout mes points par la matrice de ma caméra (que je connais et j'utilise une seule caméra pour les 2 vues) et utilisé cvFindFundamentalMat qui va en fait me donner la matrice essentielle. J'ai bon ?. Dans ce cas les coordonées des points images seront du genre (x',y',f) avec f distance focale et x', y' les transforméés par la caméra ?
Pourriez vous me donner un exemple pour extraire les matrices R et T de la matrice essentielle ?
Merci
Partager