PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : delay hat ein Problem mit Optimierungsstufe 0



yaro
29.05.2009, 19:47
Hallo Leute,
für einen Bot brauche ich einen Teil mit sehr "zeitintensiver" Programmierung (muss genau darauf achten, wieviel welcher Befehl zum Ausführen braucht).
Die Zeit Messe ich mit einem Timer.
Das Problem ist nun, dass mir der Preprozessor in meinem Testprogramm alle Rechnungen wegoptimiert, die er wegoptimieren kann, was zufolge hat, dass ich nicht die tatsächliche Zeit messen kann, die der Roboter später braucht (im Teasprogramm tippe ich die Werte einfach ein, später sollen sie aber gemessen werden).
Ich habe schon versucht, ihn zu überlisten, indem ich Zahlen mit einem Timer (und Wartezeiten) generiert habe, aber auch die hat er wegoptimiert!
Die Optimierung kann ich nicht abstellen, denn dann meckert der Compiler, dass delay (welches ich für die LCD-Ansteuerung brauche) nicht ohne Optimierung auskommt.
Hat jemad vielleicht einen Tipp? Kann man die Optimierung vielleicht nur teilweise abstellen?

Danke im Voraus, Yaro

yaro
29.05.2009, 20:25
Mir ist gerade die Idee gekommen, dass man das doch mit "volatile" lösen könnte.
Ich werde es ausprobieren, und poste das Ergebiss dann hier rein.

yaro
29.05.2009, 20:31
Jap, so funktioniert es! =)
Gibt es noch andere gute Möglichkeiten, dieses Problem zu lösen?

SprinterSB
30.05.2009, 12:57
Ohne Not sollte man die Delay-Routinenn nicht verwenden.

Anlass zur Verwendung von delay-Zeug sind zB:

Es ist absolut nicht möglich, für das Timing einen Timer einzusetzen. Ein Timer kann oft auch für mehrere Aufgaben verwendet werden (Entrprellung, Infrarot-Empfang, Drehgeber-Auswertung, DCF, ...)
Es muss nur einige Ticks gewartet werden, zB wenn man irgendwo nach Zustandsänderung warten muss, bis sich Pegel geändert haben (zB aufgrund parasitärer Kapazitäten)
Quick & Dirty Programm oder man weiß es nicht besser. Delay-Routinen vertrödeln Zeit, sind ungenau und wenn IRQs aktive sind nochmal ungenauer. Das durch sie verursachte Blockieren führt schon bei kleineren Problemen zu unangenehmen konzeptionellen Problemen. Bei zeitkritischen Anwendungen hat man nix zu verschenken, aber gerade das tun Delay-Routinen. Überleg dir einfach, wie du eine LED im 1-Sekunden-Takt blinken lässt, und eine Zweite im Takt von 1.1 Sekunden.

thewulf00
30.05.2009, 15:16
Hey Sprinter: Er verwendet sicher ein Library, und damit kann er sich die Nutzung nicht aussuchen, da die Library für die Anzeige keinen Timer verbrauchen soll/will/darf, nimmt sie die Delay-Routinen, ist ja klar.

yaro
30.05.2009, 16:28
Die LCD-Routinen habe ich zu einem großen Teil von microcontroller.net, habe sie aber z.T. verändert. Delay verwende ich, weil ich öfters mit unterschiedlichen ATmegas arbeite, und es nicht jedes mal wieder neu einstellen will. Timer verwende ich sehr häufig, deswegen will ichs lieber nicht mit timern machen.
Wenn man ein LCD verwendet, ist es mit der Zeitintensivität meißtens sowieso hin... Den LCD verwende ich hier nur zu test und debug-Zwecken, die jeder für sich nicht besonders Zeitintensiv sind.

Gruß, Yaro