yaro
29.05.2009, 19:47
Hallo Leute,
für einen Bot brauche ich einen Teil mit sehr "zeitintensiver" Programmierung (muss genau darauf achten, wieviel welcher Befehl zum Ausführen braucht).
Die Zeit Messe ich mit einem Timer.
Das Problem ist nun, dass mir der Preprozessor in meinem Testprogramm alle Rechnungen wegoptimiert, die er wegoptimieren kann, was zufolge hat, dass ich nicht die tatsächliche Zeit messen kann, die der Roboter später braucht (im Teasprogramm tippe ich die Werte einfach ein, später sollen sie aber gemessen werden).
Ich habe schon versucht, ihn zu überlisten, indem ich Zahlen mit einem Timer (und Wartezeiten) generiert habe, aber auch die hat er wegoptimiert!
Die Optimierung kann ich nicht abstellen, denn dann meckert der Compiler, dass delay (welches ich für die LCD-Ansteuerung brauche) nicht ohne Optimierung auskommt.
Hat jemad vielleicht einen Tipp? Kann man die Optimierung vielleicht nur teilweise abstellen?
Danke im Voraus, Yaro
für einen Bot brauche ich einen Teil mit sehr "zeitintensiver" Programmierung (muss genau darauf achten, wieviel welcher Befehl zum Ausführen braucht).
Die Zeit Messe ich mit einem Timer.
Das Problem ist nun, dass mir der Preprozessor in meinem Testprogramm alle Rechnungen wegoptimiert, die er wegoptimieren kann, was zufolge hat, dass ich nicht die tatsächliche Zeit messen kann, die der Roboter später braucht (im Teasprogramm tippe ich die Werte einfach ein, später sollen sie aber gemessen werden).
Ich habe schon versucht, ihn zu überlisten, indem ich Zahlen mit einem Timer (und Wartezeiten) generiert habe, aber auch die hat er wegoptimiert!
Die Optimierung kann ich nicht abstellen, denn dann meckert der Compiler, dass delay (welches ich für die LCD-Ansteuerung brauche) nicht ohne Optimierung auskommt.
Hat jemad vielleicht einen Tipp? Kann man die Optimierung vielleicht nur teilweise abstellen?
Danke im Voraus, Yaro