Salut,


Je bosse sur un projet Unix, et j'utilise cygwin pour tester un peu chez moi. sauf que en gros j'ai une fonction qui fait :


Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
float a=0;
...
 
while(1){
a=a+0.1;
printf("%f",a);
}

et printf m'affiche : 0 0.1 ... 1.5 1.6 1.69999 1.79999 ... 2.49998 ... bref, je comprend pas car il perd de la précision ! (ce qui est fou). Il y a une explication logique ?