damit man die UART 0-er u. 1-er schön oder halbwegs in der Mitte erwischt, muss man nach der Start-Bit Flanke 1 1/2 mal die Bitbreite warten.
guckstu da:
http://www.rn-wissen.de/index.php/So...RT_mit_avr-gcc
Hi !
Ich versuche Krampfhaft einen Software UART zu Basteln...
Er soll erstmal nur Empfangen können.
Mein Ansatz ist nicht der beste, ich dachte irgendwie das müsste so funktionieren aber scheinbar habe ich einen mega falschen Ansatz....
ich verwende 16Mhz, habe meinen Timer auf 300Hz gestellt, da ich erst mal mit 300 Baud am testen binn...
wo ist hier der Fehler in Meinem Ansatz ?
Mir ist auch bewusst das ich momentan das Startbit mit einlese, ich sende mir eine 85(weil binär 01010101) bekomme aber immer eine 255.Code:#include <avr/io.h> #include <stdlib.h> #include <avr/interrupt.h> #include <util/delay.h> #include "init.h" #include "lcd.h" //SoftUART PINS #define RXPIN 2 #define RXINT INT0 #define UARTDDR DDRD #define UARTPIN PIND #define UARTPORT PORTD #define T0REL 152 char iOut[20]; unsigned char bitCnt = 0; unsigned char udr = 0; void cfgInt0(void) { MCUCR |= (1<<ISC01); //INT0 falling edge GICR |= (1<<INT0); //INT0 interrupt enable } void cfgTimer0(void) { TCNT0 = T0REL; TCCR0 |= (1<<CS02); //TIMSK |=(1<<TOIE0); } void cfgSoftUart(void) { UARTDDR &=~ (1<<RXPIN); //RX Pin als Input UARTPORT &=~ (1<<RXPIN); //RX Pin auf 0 cfgInt0(); //Software UART Interrupt cfgTimer0(); //Software UART Timer } int main(void) { cfgSoftUart(); cfgLcd(LCD_ON_CURSOR_OFF); lcdCls(); enableInterrupts(); _delay_ms(200); lcdPrint("Software Uart",1,1); while(1) { itoa(udr,iOut,10); lcdPrint(" ",1,3); lcdPrint(iOut,1,3); itoa(udr,iOut,2); lcdPrint(iOut,5,3); _delay_ms(1000); } return 0; } ISR(INT0_vect) { GICR &=~ (1<<INT0); TCNT0 = T0REL; TIMSK |=(1<<TOIE0); } ISR(TIMER0_OVF_vect) { TCNT0 = T0REL; if (!(PIND & (1 << PD2))) { udr &=~ (1<<bitCnt++); }else { udr |= (1<<bitCnt++); } if(bitCnt == 7) { bitCnt = 0; TIMSK &=~(1<<TOIE0); GIMSK |= (1<<INT0); } }
Ich währe hier für jede Hilfe Dankbar!
Mfg Fugitivus
damit man die UART 0-er u. 1-er schön oder halbwegs in der Mitte erwischt, muss man nach der Start-Bit Flanke 1 1/2 mal die Bitbreite warten.
guckstu da:
http://www.rn-wissen.de/index.php/So...RT_mit_avr-gcc
mfg robert
Wer glaubt zu wissen, muß wissen, er glaubt.
habs mit nem _delay_ms(5) inner int0 isr versucht... ich weiß das das nicht genau ist, hab auch 4 und 6 ausprobiert... das funktioniert auch nicht...
Bei welchem AVR soll denn die gezeigte Konfiguration 300 Interrupts pro Sekunde ergeben?
Und übrigens: hat dieser AVR kein CTC?
Keines dieser Delays entspricht einer halben Bitlänge. Das wäre _delay_ms(1.67). Warum überhaupt ein Delay? Warum nicht einfach dort den Timer mit einem anderen Wert vorladen?habs mit nem _delay_ms(5) inner int0 isr versucht... ich weiß das das nicht genau ist, hab auch 4 und 6 ausprobiert... das funktioniert auch nicht...
Und noch was: du ließt nur 7 Datenbits ein. Ist das Absicht?
MfG
Stefan
Hi !
Du hast recht, das ergibt 600Hz war was das probiren angeht war ich schon nen stück weiter, habe es aber irgendwie übersehen das ich den vorladewert schon verändert habe zur halben bitlänge, 5ms sind 1,5 bitlängen um das startbit zu überspringen..... 0-7 ist doch 8 ^^ oder ? ^^
hab es ja jetzt mit 600Hz und nem flag versucht sprich bei der isr des timers wird nur jeder 2.overflow ausgewertet(was man in dieser ver des programms nicht sieht da ich irgendwie zu blöd binn in ner antwort code einzufügen) aber die idee mit 600Hz und dem flag führt immer noch zum selben Ergebniss.... Was ist denn ein CTC ?
Du musst ja aber nur ein halbes Bit überbrücken, denn mit dem Timer überbrückst du ja dann ein komplettes weiteres Bit. Aber wie gesagt, mit _delay_ms ist das sowieso Murks. Lass einfach den ersten Timer-Interrupt nach 1,5 Bits kommen.5ms sind 1,5 bitlängen um das startbit zu überspringen
0-7 ist doch 8 ^^ oder ?Beim Einlesen von Bit 6 wird bitCnt auf 7 erhöht, und dann greift sofort das "bitCnt == 7", also ließt du nur 0-6.Code:udr |= (1<<bitCnt++); } if(bitCnt == 7)
Ein Timer-Mode, bei dem du nicht manuell den Timer vorladen musst, und damit sehr viel genauere Abstände zwischen den Interrupts hast.Was ist denn ein CTC ?
MfG
Stefan
Hi !
Erst mal Danke für deine Antworten....
Mist ich erhöhe ja wirklich nur bis 6 ^^(wo hab ich nur meinen Kopf)
Also Das mit dem CTC hört sich gut an, da muss ich mich gleich mal drüber schlau machen....
Hier Jetzt erst mal der versprochene Code, damit sollte es doch aber rein theoretisch bei 300Baud doch funktionieren oder ? (mit ausnahme davon das ich immer noch das startbit mit einlese....)
Also ich würde wirklich gerne erst mal versuchen dieses Beispiel irgendwie zum laufen zu Bringen, so rein für den Kopf und das Verständniss... Achso, der chip den ich verwende ist ein Mega8 bei 16MHz
So sollte ich doch eigendlich die halbe bitzeit erwischen oder nicht ? Leider funktioniert das so immer noch nicht.... aber für 300 Baud sollte das mit dem timer overflow doch eigendlich genau genug sein oder nicht ?!?Code:#include <avr/io.h> #include <stdlib.h> #include <avr/interrupt.h> #include <util/delay.h> #include "init.h" #include "lcd.h" //SoftUART PINS #define RXPIN 2 #define RXINT INT0 #define UARTDDR DDRD #define UARTPIN PIND #define UARTPORT PORTD #define T0REL 152 char iOut[20]; unsigned char bitFlag = 0; unsigned char bitCnt = 0; unsigned char udr = 0; void cfgInt0(void) { MCUCR |= (1<<ISC01); //INT0 falling edge GICR |= (1<<INT0); //INT0 interrupt enable } void cfgTimer0(void) { TCNT0 = T0REL; TCCR0 |= (1<<CS02); //TIMSK |=(1<<TOIE0); } void cfgSoftUart(void) { UARTDDR &=~ (1<<RXPIN); //RX Pin als Input UARTPORT &=~ (1<<RXPIN); //RX Pin auf 0 cfgInt0(); //Software UART Interrupt cfgTimer0(); //Software UART Timer } int main(void) { cfgPorts(); cfgSoftUart(); cfgLcd(LCD_ON_CURSOR_OFF); lcdCls(); enableInterrupts(); _delay_ms(200); lcdPrint("Software Uart",1,1); while(1) { itoa(udr,iOut,10); lcdPrint(" ",1,3); lcdPrint(iOut,1,3); itoa(udr,iOut,2); lcdPrint(iOut,5,3); _delay_ms(1000); } return 0; } ISR(INT0_vect) { GICR &=~ (1<<INT0); TCNT0 = T0REL; TIMSK |=(1<<TOIE0); } ISR(TIMER0_OVF_vect) { TCNT0 = T0REL; if(bitFlag == 0) { bitFlag = 1; }else { bitFlag = 0; if(!(PIND & (1 << PD2))) { udr &=~ (1<<bitCnt++); }else { udr |= (1<<bitCnt++); } if(bitCnt == 8) { bitCnt = 0; TIMSK &=~(1<<TOIE0); GIMSK |= (1<<INT0); } } }
Mfg Fugitivus
Du hast auch noch ein Problem mit deinen Interrupts. Auch wenn ein Interrupt gerade nicht enabled ist, setzt das entsprechende Ereignis doch das zugehörige Flag. Wenn der Interrupt dann enabled wird, kommt er sofort, weil das Flag ja schon gesetzt ist. Also musst du im INT0-Interrupt das Flag für den Overflow löschen, und im Overflow-Interrupt nach dem letzten Bit das Flag für INT0. Aber Achtung, schau erst im Datenblatt nach, wie man diese Flags löscht, ein "&=~" wäre da nämlich falsch.
PS: Benutze entweder die Bezeichnung GIMSK oder die Bezeichnung GICR. Beides zu benutzen verwirrt doch nur.
MfG
Stefan
das mit den flags werde ich gleich mal kontrollieren ! hört sich irgendwie genau nach meinem problem an !
Danke !
Mfg Fugitivus
Das war also das was ich nicht wusste, wieder was dazu Gelernt !
Herzlichen Dank ! Dann werd ich mich jetzt mal mit CTC auseinandersetzen....
Mfg Fugitivus
Lesezeichen