Bonjour
Je met ce post ici, car je pense qu'il aura plus d'audience, mais il est AUSSI à destination du sous-forum IGN, et du forum externe GeoRezo.
J'ai eu l'occasion il y a peu de récupérer des données provenant de divers SIG, et mes observations ont rejoint certaines anciennes remaques que j'avais déjà eu l'occasion de formuler sur le forum Algorithmes à propos de la précision des données. Du coup je crée ce post pour attirer l'attention des programmeurs et fournisseurs d'outils, ainsi que des utilisateurs. Vous pouvez bien entendu partager ce post où et avec qui vous voulez.
- Tout d'abord concernant la précision des données GPS: je vois souvent sur le forum Algo des personnes postant avec des données ayant 12 ou 14 décimales. Il faut savoir que les GPS ne fournissent des données qu'au mètre près . Pour s'en convaincre, on peut se référer aux documents originaux : le document officiel du gouvernement américain sur le GPS :http://www.gps.gov/systems/gps/performance/accuracy/
On y lit :
EtReal-world data collected by the FAA show that some high-quality GPS SPS receivers currently provide better than 3 meter horizontal accuracy
En gros, tout ce qui est en dessous du mètre de manière générale et en dessous du mm si on bénéficie d'équipement/sources particulier(e)s n'a aucun sens : ça a bien une valeur numérique (parce que c'est un nombre flottant qui est envoyé), mais pas de valeur physique.. Les GPS publics sont en général à 10 mètres près, les militaires au mètre.Higher accuracy is available today by using GPS in combination with augmentation systems. These enable real-time positioning to within a few centimeters, and post-mission measurements at the millimeter level
Etant donné que grossièrement 1 degré = 100 km, alors une précision de 5 chiffres est au mètre. Donc un GPS ne donne pas plus que 5 chiffres significatifs après la virgule.
Cette remarque permet de diminuer la taille des Bases de Données d'environ 50%, et d'avoir des données qui ont du SENS....
- Si maintenant on regarde les outils/logiciels : les opérations arithmétiques se passant en coordonnées flottantes, beaucoup (tous ?) les logiciels style IGN, ESRI, ou autres, utilisent bien plus de décimales que celles initiales.. SAUF QUE LA PLUPART LES RESSORTENT SOUS CETTE FORME..... Ce qui est aberrant... Si on a une précision du mètre en entrant, on ne peut pas mathématiquement avoir une précision supérieure en sortant. Et c'est même le contraire : on diminue la précision à chaque opération...
Les logiciels ET les programmeurs d'outils ne devraient donc pas ressortir plus de décimales qu'ils n'en ont eu en entrée... Or les remarques que j'ai pu faire sur les données à ma disposition m'amenaient à des précisions de 10^-12 ou 10^-13... Soit au micron près, pour des bordures de parcelles de terrain !!!!!!! Ce qui entraîne des artefacts certains et gênants (auto-intersections par exemple), et un volume de données bien supérieur à ce que cela devrait être : par exemple lors de l'accrochage de portions de contour à une autre portion, cela crée des points supplémentaires situés à 10^-12 des précédents. Des mesures que j'ai pu faire, cela double environ le nombre de points initiaux. Tout simplement parce que bien que les valeurs numériques soient différentes en flottant, elles ne le sont pas à la précision des données initiales ..
Je tenais à vous faire partager cette réflexion, pour 3 raisons principales :
- d'une part en tant qu'utilisateurs vous diminueriez, avec les 2 effets cumulés, la taille de vos Bases de Données par 75%, et donc doubleriez les vitesses de calcul et/ou d'affichage, en ayant beaucoup moins de problèmes du style auto-intersections ou autres du même style.
- d'autre part parce qu'en tant que programmeur ou fournisseur de logiciels SIG, il est inconcevable de créer des données avec plus de précision que celle des données entrées. C'est aberrant mathématiquement. (et cela amène du coup à des complexifications des algos utilisés pour vérifier "une égalité" ou non, une pente, une linéarité, etc)
- enfin parce qu'il semble que de nos jours la notion d'ordre de grandeur ait fortement disparu, et que la logique d'un physicien que je suis par rapport aux ordres de grandeur est choquée par de telles pratiques, qui, outre leur manque profond de bon sens, justifient souvent le recours à des blbliothèques spécialisées "grands nombres" par exemple, alors que c'est parfaitement inutile.
Voilà.
J'espère que cela pourra vous servir, et sera diffusé largement, car cela m'apparaît comme un problème de fond (un peu comme le nombre de gens pensant, avec l'essor de GoogleMap et des outils connexes, qu'une distance entre 2 lat/lon est simplement une distance euclidienne)
Cordialement
Jean
Partager