Citation:
Voilà à mon avis le fond du problème. Considérer des bits comme des chiffres... En unités décimales déjà on divise par 3, et en nombre encore une fois la signification d'une telle précision est absurde. Et de plus, encore une fois, à part pour écrire des bits pour du cryptage (et CRC en est une sorte) , qui se sert de ça ??? Je pense donc que le tout vient d'une profonde confusion entre nombre utilisable et représentation binaire d'un grand nombre... C'est ça que je ne comprend pas... Qu'on l'enseigne dans un cours pour les futurs cryptographistes, ou en maths avancées en théorie des grands nombres, soit.. Mais je ne comprend vraiment pas , mais alors pas du tout, que, au vu du nombre de posts sur le sujet (et au vu des questions et dialogues lors des posts, on n'a pas affaire à des spécialistes de maths avancées) cela soit enseigné quasi "de base" (voir la remarque de droggo "presque basique") à des débutants...
Parce que si ça n'a pas de sens pour un physicien, cela en a en revanche énormément pour un informaticien, car c'est (censé être) lui le garant de la machine à calculer à laquelle les physiciens se fient. Il est donc vital d'en connaître les subtilités techniques.