Salut,
Je bosse sur un projet Unix, et j'utilise cygwin pour tester un peu chez moi. sauf que en gros j'ai une fonction qui fait :
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7 float a=0; ... while(1){ a=a+0.1; printf("%f",a); }
et printf m'affiche : 0 0.1 ... 1.5 1.6 1.69999 1.79999 ... 2.49998 ... bref, je comprend pas car il perd de la précision ! (ce qui est fou). Il y a une explication logique ?
Partager