Bonjour,
je rencontre en ce moment un problème de taille... qui au bout de un mois de développement n'a pour moi toujours pas de solution.
je possède un terrain de 3500 m par 3500 m, dont la hauteur peut etre éditée tous à une résolution de.. 25 cm.
en ne stockant qu'un point tous les 100 metres (qui contient plus qu'une simple information de hauteur, disons 1 point = 32 octets), j'arrive vite à dépasser le giga de données en ram.
par ailleurs, cette solution m'oblige a effectuer une interpolation sur une surface de points gigantesque (bien sur pas tout le terrain entier) qui ne tient vraissemblablement pas le temps réel.
ma question est donc : comment représenter un tel volume de données, sachant que même si je ne charge qu'une partie en mémoire, le reste se trouvera sur disque (dans un fichier énorme) et dans lequel je devrai lire, donc perdre du temps et avec cela le temps réel ?
J'ai pensé à la chose suivante : ne sauvegarder que les points édités par l'utilisateur, et créer une triangulation non régulière, afin de pouvoir interpoler.
Dans ce cas, est-il possible (et rapide) d'effectuer un échantillonnage régulier à partir d'une triangulation ?
Ma question pourrait se résumer ainsi :
"une interpolation est-elle réellement plus efficace à partir d'un maillage régulier que d'une triangulation quelconque ? et que d'une triangulation de Delaunay ?"
J'avoue ne pas avoir d'autre solution et être un peu désespéré. Si quelqu'un a un jour été confronté à un problème ressemblant, je suis ouvert à toutes les conseils...
Merci,
Seb
Partager