Bonjour à tous,

Je cherche à maintenir une application existante utilisant OpenGl sur un OS basé sur Ubuntu. Le matériel utilisé est basé sur un chipset graphique intel 965.

Depuis une récente mise à jour des paquets de l'OS (edgy vers hardy), l'application présente des importantes fuites de mémoire (les sources de l'application n'ayant pas changées).
Dans un programme de test simpliste, j'ai pu déterminer que chaque appel à la fonction glVertex3f provoque des fuites de mémoire sous hardy. J'ai effectué le même test sous edgy ou sur un matériel différent (intel DG33 et nvidia) mais je n'ai constaté la fuite de mémoire qu'avec le chipset 965 sous Hardy (pas de chance, c'est dans ce cas précis qu'il faut que ca marche...). J'ai donc consulté les sources de mesa (OpenGl) afin de déterminer quels sont les différences apportées par Hardy et donc l'origine de cette fuite de mémoire.

Cependant les sources sont complexes et j'ai des difficultés à déterminer exactement les différences entre edgy et hardy lors de l'appel de la fonction glVertex3f.
En clair, je cherche à savoir ou se situe la différence de traitement de la fonction glVertex3f entre ces deux versions d'Ubuntu.

Merci par avance pour vos suggestions.

Note: je ne peux pas changer de matériel et je suis obligé de travailler sur un OS basé sur Ubuntu.