J'ai un timestamp en millisecondes 1064959200000 qui correspond a la date 01/10/2003 00:00:00.
Un jour correspond à 24*60*60*1000 = 86400000 millisecondes
Le mois d'octobre 2003 comporte 31 jours
31 jours font 31*86400000 = 2678400000 millisecondes
Logiquement si j'ajoute ces 31 jours a mon timestamp du 1er octobre 2003 je devrais obtenir le timestamp du 1er novembre 2003, non ?
Hors 1064959200000 + 2678400000 = 1067637600000, ce qui correspond a la date 31/10/2003 23:00:00
ça doit etre un truc tout con mais j'arrive pas a comprendre...
Partager