cumi
13.04.2006, 12:33
Hallo Zusammen
Irgendwie kommt mir da was komisch vor.
Ich rechne mit 16Bit langen unsigned Integer.
Das funktioniert auch ganz gut, jedoch nicht mit allzu grossen. Mit 30'000 funktioniert alles was ich programmiert habe. Mit 31'600 klappt alles noch. Mit 31'700 aber schon nicht mehr. Dabei ist 2^16 doch 65536.
Mir ist das schon an einem anderen Ort aufgefallen. Aber diesesmal zerlege ich ein uint16 in zwei byte, übertrage ihn auf den pc und der setzt sie wieder zusammen. am pc liegts nicht, das habe ich ausprobiert.
An was könnte das liegen?
Vielen Dank für eure Hilfe!
Grüsse cumi
Irgendwie kommt mir da was komisch vor.
Ich rechne mit 16Bit langen unsigned Integer.
Das funktioniert auch ganz gut, jedoch nicht mit allzu grossen. Mit 30'000 funktioniert alles was ich programmiert habe. Mit 31'600 klappt alles noch. Mit 31'700 aber schon nicht mehr. Dabei ist 2^16 doch 65536.
Mir ist das schon an einem anderen Ort aufgefallen. Aber diesesmal zerlege ich ein uint16 in zwei byte, übertrage ihn auf den pc und der setzt sie wieder zusammen. am pc liegts nicht, das habe ich ausprobiert.
An was könnte das liegen?
Vielen Dank für eure Hilfe!
Grüsse cumi