Bonjour à tous,
C'est presque une question de C, mais comme je programme en C++, me voilà.
Quand on fait un décalage de n bits, combien de temps celà prend t-il, en coup d'horloge CPU ? n ? Ou bien y a t-il une astuce ?
J'essaye de comparer les deux approches opposées : logique câblés (FPGA), et approche séquentielle (CPU).
Exemple :
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3 int mot = 0x55555555; int dec = (mot >> 7) & 0xFF; // quel impact ?
Partager