Bonjour à tous.
J'ai une question à laquelle je ne parvient pas à trouver une réponse concernant l'utilisation de #define pour la déclaration de constantes.
En fait dans certaines parties de code, je rencotre des instructions de ce type:
#define VAR 0xune-valeur-hexadecimale
ou
#define VAR un décalage de bits
En fait j'ai du mal à saisir ce qui motive le choix de l'utilisation soit d'une valeur hexadécimale, soit d'un décalage de bit pour donner une valeur à une constante. Est-ce relié à des optimisations de performances ?
Merci d'avance pour tout indice
Partager