Bonjour à tous.

J'ai une question à laquelle je ne parvient pas à trouver une réponse concernant l'utilisation de #define pour la déclaration de constantes.

En fait dans certaines parties de code, je rencotre des instructions de ce type:

#define VAR 0xune-valeur-hexadecimale

ou

#define VAR un décalage de bits

En fait j'ai du mal à saisir ce qui motive le choix de l'utilisation soit d'une valeur hexadécimale, soit d'un décalage de bit pour donner une valeur à une constante. Est-ce relié à des optimisations de performances ?

Merci d'avance pour tout indice