Bonjour à tous,
Actuellement, afin de visionner mes applications en relief, j'utilise deux écrans séparés. Ils reçoivent les images vues respectivement par l'œil droit et l'œil gauche. Du point de vue programmation, l’affichage se fait sur un seul écran physique (Fonctionnalités proposées par NVIDIA),les 2 écrans sont vus comme un seul de 1900 x2 pixels en largeur).Un système de miroirs encombrant est nécessaire pour la fusion des 2 images.
J’envisage l’utilisation d’un moniteur « 3d active »(avec lunette).
Ma question est de savoir comment se fait la programmation d’un tel moniteur : en clair, comment programme-t-on les 2 écrans physiques qui s’affichent alternativement à une cadence de 100 mhz environ ?
A grand peine j’ai trouvé quelques pistes…
citation: "Le fabricant vien de présenter Nexus, un environnement de développement supportant Cuda C, OpenCL, ou encore directcompute, et fonctionnant sous visual studio. Le développeur peut ainsi coder et débuguer le code du GPU de la meme facon et avec les meme outils que pour le CPU, rendant très simple l'intégration du GPU dans le code principal."
http://www.iz3d.com/api
http://www.nvidia.fr/object/directcompute_fr.html
C’est du chinois pour moi…quelqu’un pourrait-il m’éclairer ?
Merci pour votre aide.
Partager