Question

Comment un ordinateur sait-il que (int x, y) x << y signifie passer sur les bits? Je ne veux pas dire la partie de changement. Je veux dire le y partie. L'ordinateur se déplace-t-il par un et en soustrait un de y jusqu'à y == 0? Sinon, comment l'ordinateur comprend-il la valeur de Y?

Si dire y = 10, alors la représentation binaire est 0b1010. L'ordinateur ne peut pas simplement prendre chaque morceau de 1010 et l'utiliser, n'est-ce pas?

J'essaie de le faire pour des tailles de bits supérieures à 8. Étant donné que les valeurs ne sont pas simplement stockées sous forme de tableaux d'entiers standard, le conteneur ne représente pas une valeur, donc surcharger les opérateurs << et >> est un peu plus difficile. Cependant, le comptage d'un nombre de 100 bits à 0 est quelque peu inefficace, donc j'essaie de trouver un moyen de faire en sorte que l'ordinateur comprenne un tableau un bit plus rapidement.

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top