Bonjour tout le monde,

Mon projet et de trouver la distance d'un objet en comparent 2 photos.
Un réseau de neurones s'occupe dans un premier temps, d'identifier l'objet et me renvoie deux points (haut/gauche et bas/droite) pour situer cette objet sur cette photo.
D'un autre côté, je créé une position à mon téléphone grâce au gyroscope et à l’accéléromètre.
Ensuite, je créé un horizon arbitraire sur lequel je met ma photo et je me retrouve, lorsque j'ai deux photo, avec deux yeux et deux objets, donc, deux segments qui sont:
- œil_1 à objet_1
- œil_2 à objet_2

Dans un monde idéal je retrouverai l'emplacement de mon objet en calculant le point d'intersection des deux segments.
Mais il peut y avoir des imprécisions sur la localisation du smartphone et des points renvoyer par le réseau de neurones.

Dans cette situation, les segments ne se croisent pas et je ne peux pas retrouver la position de mon objet.
Comment puis-je m'y prendre pour obliger un résultat, quitte à en baisser la précision?

Merci de votre aide.