Bonjour à tous,
Je cherche à résoudre en temps réel un système d'équations différentielles en temps. Pour cela j'ai fait une boucle while dans laquelle je place une itération de mon algorithme de résolution. J'ai placé à l'intérieur de la boucle un "wait until next milisecond multiple". Je compare alors la sortie de ce noeud et i*dt, et la différence n'est plus constante pour dt en dessous de 23 ms. J'en ai déduit que mon algorithme tourne en 23 ms et que pour un dt inférieur, le timer attend le prochain multiple. J'ai donc simplifié mon algorithme jusqu'à m'apercevoir que c'était pareil en ne mettant rien dans la boucle (voir PJ)!!! En dessous de 23 ms, le temps incrémental i*dt prend du retard sur le temps donné par le timer, ce qui voudrait dire qu'une boucle while seule met 23 ms à s'exécuter!!!
Je ne comprend pas ce comportement de Labview, quelqu'un a-t-il une idée?
Partager