Bonjour,
je viens vers vous pour éclaircir un souci de notion de temps.

Voila j'analyse le temps d'exécution de plusieurs algo, et je vérifie le résultat en ms et en Ticks.

Sur la documentions microsoft, il est dit que 1 Ticks équivaut à 100 nanosecondes, donc 1ms = 10 000Ticks

Jusque la ok. Mais quand je regarde mes résultats, j'ai par exemple 2ms pour 8021 Ticks.

Savez vous d'où vient cette différence sachant que je convertit la même variable en ticks et ms ?