Alors voila je me pose des question à propos du "chronomètre" qui affiche le temps au tour dans un jeu de voiture.

Moi j'aimerais developper un petit logiciel 2D qui fasse rouler des voitures sur une piste (modélisé par une carte 2D).

Mon problème est le suivant : une voiture part ... elle fait son tour et au passage de la ligne d'arrivé je voudrais connaitre le temps du tour.

Ce que j'ai fait : je modélise une voiture et sa position (en kilomètre). Toute 1 milliseconde, j'incrémente un compteur et je fait avancé la voiture du nombre de mètres qui correspond( en fonction de sa vitesse).

Le problème c'est que le compteur m'affiche 3 seconde alors que le programme prends 6 seconde d'execution (la voiture ne fait qu'un tour de circuit et le programme s'arrète).

Bref je pense que ma solution n'est pas viable (surtout si on imagine que l'on veuille mettre plein de voitures sur le circuit) et prends beaucoup trop de cpu (et puis aussi comment faire si je veux faire passer la course a 130% du temps réél ?!)

Merci de vos propositions

Edit : je vais me faire linché !! J'ai trouvé différents tutoriel sur le forum Je pense que cette page va vachement me servir ...

Bon en fait ca ne résout qu'une partie de mon problème ...

En fait ma voiture fait des saut sur le circuit. En effet, comme je la fait avancer tout les milliseconde, il se peut que la voiture soit juste avant la ligne d'arrivée à un instant t et à un instant t+1 il se peut qu'elle soit juste après.
Comment je peux faire pour faire un chrono précis du tour à la milliseconde près. J'ai du mal à voir comment faire avancer ma voiture "linéairement" et non pas "discretement". Et puis calculer le temps "processeur" je trouve pas ça top parce que je souhaiterais que la voiture fasse un tour de circuit à la même vitesse sur un gros ou sur un petit ordi !

Merci ++