Salut à vous.
Tout d'abord je suis conscient de ne pas poser une question adaptée à cette catégorie du forum, mais j'ai beau faire le tour du forum je ne vois pas trop où poser ma question(Trop de catégories à mon goût) donc je la poste dans le forum du langage que j'utilise
Voila j'ai du mal à bien définir la notion du temps réel en informatique:
Je code actuellement sur un contrôleur en c chargé de contrôler des servomoteurs. Dans mon exemple j'ai une caméra montée sur ce servomoteur (mouvement de rotation) et je dois prendre des vues qui seront traitées par un ordinateur tout les X degrés.
J'ai donc du rajouter dans mon code une multitude de tests et je dois me baser sur les données odométrique fournies par le matériel pour m'assurer que ma prise de vue s'effectue bien après placement du servomoteur et pas pendant son déplacement (celui-ci n'effectue pas des déplacement instantannés).
J'ai donc par conséquence un code dont l'exécution dépend de paramètres physiques bien réels.
Peut-on parler d'un programme temps réel? Si oui de manière général on peut dont dire que l'asservissement de servomoteurs est plus ou moins lié à des contraintes temps réel?
Merci pour vos réponses
Partager