Hi,
MfG AlexCode://bits unsigned char x=0b10011110; //hexa unsigned char x=0xAB; // ist aber nicht 10011110
Hi,
MfG AlexCode://bits unsigned char x=0b10011110; //hexa unsigned char x=0xAB; // ist aber nicht 10011110
@Alex
unsigned char x=0b10011110;
gibt bei mir compiler fehler,
invalid suffix "b10011110" on integer constant
Gruss
Henk
Genau,
bei deiner Variante
x=10011110
würde er es als Dezimalzahl
und bei
x="10011110"
als String übernehmen !
- Phantasie ist wichtiger als Wissen - - www.uni-soest.de -
Du kannst es natürlich nicht als char-Datentyp initialisieren, sondern als integer (int) Wert!
also
unsigned int x=0b10011110;
- Phantasie ist wichtiger als Wissen - - www.uni-soest.de -
Das hat nichts mit dem Typ der Variable zu Tun, also ob die Variable vom Typ "unsigned char" ist oder vom Typ "unsigned int".
"unsigned char" ist kein String sondern nur ein einziges Zeichen bzw. einfach ein Datenbyte, jenachdem wie man den Wert halt interpretiert.
Ich glaube das mit dem 0b10101010 funktioniert nicht bei jedem Compiler, also ich schreibe es immer mit "0x" (also im Hex Format), ein bisschen Kopfrechnen schadet außerdem keinen .
mfg
Hi,unsigned char x=0b10011110;
gibt bei mir compiler fehler,
invalid suffix "b10011110" on integer constant
Gruss
Henk
Also bei Gnu GCC bin ich mir nicht sicher, aber bei AvrGCC ist das möglich.
MfG Alex
Wie gesagt falscher Datentyp!
- Phantasie ist wichtiger als Wissen - - www.uni-soest.de -
Kannst Du diese Aussage begründen ?Wie gesagt falscher Datentyp!
Gruß Sebastian
Linus TorvaldSoftware is like s e x: its better when its free.
Nee Sorry,
hab falsch gedacht. Ich weise dann ja bei char halt nur das jeweilige ASCII-Zeichen zu, oder?
Also für 0b00110001 z.B. die 1
Richtig, oder denke ich gerade völlig falsch...
- Phantasie ist wichtiger als Wissen - - www.uni-soest.de -
Lesezeichen