- Labornetzteil AliExpress         
Seite 5 von 9 ErsteErste ... 34567 ... LetzteLetzte
Ergebnis 41 bis 50 von 86

Thema: Kopfsache - und ein m1284, etliche Servos, viel Alu

  1. #41
    Erfahrener Benutzer Robotik Visionär Avatar von oberallgeier
    Registriert seit
    01.09.2007
    Ort
    Oberallgäu
    Beiträge
    8.678
    Anzeige

    Praxistest und DIY Projekte
    Zur Kommunikation von PC oder RasPi per WLAN oder Kabel mit meinen Platine/n.

    Primäres Merkmal: Die Telegramme können unterschiedliche Länge haben.
    Sekundär: Die Übertragung über interruptbasierte UART+FIFO geht störungsfrei, mittlerweil mit nem bescheidenen Sende-/Empfangspuffer von 32 Bytes; waren mal 128 Bytes.

    Kurz der Aufbau und ein paar Codeschnippsel als Skizze:

    Definition der einzelnen Telegramme, Beispiel:
    Code:
      #define   KOMMANDO_DATS       'd'     // (aktuelle) Daten der Motoren
      #define   KOMMANDO_DATS_LEN     1     // Kommandolänge
      #define   KOMMANDO_MOSTL      'M'     // Fahrbefehl Motoren Mnikkk. Mot1 = re
      #define   KOMMANDO_MOSTL_LEN    6     //   n = {1, 4, 5}, Motor 1re, 4li, 5beide
                                            //    i = { r, l } Drehrichtung
                                            //     kkk   Stellwert für MotorPWM
    Empfang initialisieren:
    Code:
       zeiger               = 0;
       telegrammlaenge      = 0;
    Empfang eines Telegramms abwarten:
    Code:
         if ( ! ukbhit0 () )
           continue;
    ...
         zeichen_aus_fifo = ugetchar0();

    ... und nun die Auswertung:
    Code:
         if (zeiger == telegrammlaenge)
         {
            zeiger          = 0;
            telegrammlaenge = 0;
           /*  Die Funktionen koennen nun gemuetlich das
             Telegramm auswerten.       */
    ...
    // - - - - - - - - - - - - - - - - - - - -
    //      Wurde "KOMMANDO_DATS" = "D" erkannt ?   DatenAusgabe
        if (mein_rx_buff [0] == KOMMANDO_DATS)      // Tastatur-Eingabe "D"
        {                                           //
          dat_aus ();                       // Motordaten ausgeben
        }        // Ende if (mein_rx_buff [0] == KOMMANDO_DATS)
    // - - - - - - - - - - - - - - - - - - - -
    //      KOMMANDO_MOSTL MOtoren STeLlen : Mnikkk, Motor n = {1, 4, 5} 1, 4, beide
            // i { +, 0, p, t, x }  Drehrichtung 0/+ => math. pos, - => math. neg
            //        p = aus, x = Schnellstop/Brems
                                    //   kkk   Stellwert für MotorPWM und Rampentimer
        if (mein_rx_buff [0] == KOMMANDO_MOSTL)     
        {                           // Motor 1=re/12 oder 4=li/34 oder 5=beide ?
          do_MOSTL2 (mein_rx_buff); // Motoren stellen/ansteuern                   r1n
        }        // Ende if (mein_rx_buff [0] == KOMMANDO_MOSTL)
    ...
    Das macht die Testerei wegen der einfachen Kommunikation PC<=>Platine wirklich leicht.
    Noch etwas Gutes ist dabei: Ich kann natürlich dem UART-Puffer ein I²C-Telegramm "unterschieben" - sprich: eine Funktion ist testbar per PC-basierter Kommunikation, sie läuft im praktischen (z.B. autonomen) Betrieb genau gleich über I²C-Telegramm ab.

    Dank an Sterntaler für Hilfen, Diskussionen, Korrekturen, Zusprachen.
    Ciao sagt der JoeamBerg

  2. #42
    Erfahrener Benutzer Robotik Visionär Avatar von oberallgeier
    Registriert seit
    01.09.2007
    Ort
    Oberallgäu
    Beiträge
    8.678
    Das Projekt Archie ist ein Stück vorangekommen. Anfangs hatte ich noch gepostet etwas wie "mal halber Durchblick bei I²C" - gefühlt war es weniger. Auch die ganze Koordination und Organisation der Controllerkommunikation war für mich ein sattes Stück Programmierarbeit, aber mittlerweile hat das Projektchen einen gewissen, präsentablen Grad erreicht.

    Und Archie "spricht", läuft und bewegt sich. Das Ganze so in einer Art Tasksteuerung per RC-5 in 1-Byte-Befehlen oder einem Dreierpaket. Aber Autonomie ist mir an sich kein Fremdwort und wenn erst die Funktionen selbst und die Kommunikation gut läuft, dann ist das Aufwerten mit autonomen Funktionen auch nicht mehr weit. Bis zur Maker Faire Hannover 2014 wirds nicht bis zum letzten i-Tüpfelchen reichen, aber ich bin mit dem aktuellen Baufortschritt doch zufrieden.

    Wer will kann mal einen kurzen Blick drauf werfen:

    Ciao sagt der JoeamBerg

  3. #43
    Erfahrener Benutzer Begeisterter Techniker Avatar von just4fun
    Registriert seit
    06.09.2004
    Ort
    Hannover
    Alter
    53
    Beiträge
    314
    Sehr sehr geil! Ich bin beeindruckt und auch etwas neidisch! Freue mich schon sehr darauf, ihn bald live zu sehen und dich über die ganze Technik auszufragen.

    Sehr gut gefällt mir die Armbewegung und vor allem die Sprachausgabe. Werden da Soundfiles abgespielt, oder wie geht das?
    www.robotiklabor.de - Der Podcast rund um Robotikthemen
    www.direcs.de - Meine Robotik-Seite mit Videos, Fotos, Screenshots, Source-Codes und mehr.

  4. #44
    Erfahrener Benutzer Robotik Visionär Avatar von oberallgeier
    Registriert seit
    01.09.2007
    Ort
    Oberallgäu
    Beiträge
    8.678
    ... über die ganze Technik auszufragen ... vor allem die Sprachausgabe ... Soundfiles abgespielt ...
    Sprachausgabe ist EINER der vielen sollteso-und-gehtebenanders Punkte. Eigentlich wollte ich ein text-to-speech über das raspi machen. Aber weil ich dazu noch keinen Einstieg gefunden habe musste eben das WTV020 herhalten. Das klappt überraschend gut und die Qualität ist auch nicht schlecht. Und es ist mehr Speicherplatz da als sinnvoll sein kann:
    ... Auf eine MikroSD mit 1GB gingen demnach satte 44tausend Sekunden ...
    Witzig ist meine aktuelle Ausgabe über einen Kopfhörer in einer Filmdose, ich war selbst verblüfft wie gut das geht. Schon fast ein minimalistischer kleiner Brüller, der mit der Elektronik noch bequem Platz im Kopf gefunden hatte. Aber ich stecke bis dahin vielleicht noch/auch mein X-mini dran. Leider größer, auffälliger - aber eben von beachtlicher Lautstärke, kommt schon eher an Deine Brüllwürfel ran, vielleicht sogar mehr *gg*

    ......Klicke auf die Grafik für eine größere Ansicht

Name:	Einbau-WTV020-im-Kopf_2443.jpg
Hits:	44
Größe:	63,0 KB
ID:	28358
    Legende (zum kleinen WTV020-Träger-Platinchen):
    oben - 5V-Anschluss,
    Links - Lautsprecher-Ausgang,
    Rechts: Busy, Clock und Data.
    Rechts unten der LDO 5V-3,3V, die Pegelanpassung von Atmel auf 3,3V sind Spannungsteiler auf der Rückseite.
    Hinter dem Platinchen die Filmbüchse bei der in einem Bodenausschnitt eine Kopfhörerpille sitzt.
    Geändert von oberallgeier (08.06.2014 um 17:36 Uhr)
    Ciao sagt der JoeamBerg

  5. #45
    Erfahrener Benutzer Robotik Visionär Avatar von oberallgeier
    Registriert seit
    01.09.2007
    Ort
    Oberallgäu
    Beiträge
    8.678
    ... Sehr gut gefällt mir die Armbewegung ...
    Danke, schön, dass Du die Bewegung positiv beurteilst.

    Es sieht hübsch aus und man empfindet es ja auch als gleichmässig, finde ich auch. Dabei ist das nur eine zeitliche Synchronisierung der Gelenkziele (jeder Teilbewegung) mit Stützpunktvorgaben im Periodentakt der Servos - bei mir rund 40 Hz. Das führt zu der glatten Bewegung aber leider zu keiner sauberen TCP-Spur.

    Ideales Ziel für mich wären humanoid-ähnliche Abläufe. Aufwändiger zu Programmieren, klar, aber das ist weniger das Problem - - wenn man mal weiß, wos lang geht *ggg*. Aber humanoid ist ein teils häufiger Wechsel des TCP: Finger- oder Daumenspitzen, Knöchel, Handgelenkwurzel oder gar TCP-Kombinationen wie Zeigefinger- und Daumenspitze oder Ellbogen und Handballen. Gravierender: wo bekomme ich den Mathe-CoProzessor her, der mir FP im Millisekundentakt - höchstens Millisekunden - transzendente Funktionen rauswirft?

    Zusätzlich könnte man z.B. die Überlegungen von Katja Mombaurs Gruppe zur Optimierung der Beinbewegung einfließen lassen - wenn man noch mehr Rechenaufwand möchte.

    Abschließend noch ein kleines Problemchen - bei den skizzierten aufwändigeren Bewegungsstrategien sind Servos egal welcher Preisklasse natürlich out. Da müssen Stellantriebe her denen man auch mal ne Beschleunigungsrampe überstülpen kann - - mit selbst und fallweise wählbaren Parametern - - -

    Es ist also noch ein bisschen Fortschrittsmöglichkeit für mich drin wenn mir eine Zwischenlösung einfällt. Ist aber ein Abschnitt fürs nächsten Kapitel oder danach.
    Geändert von oberallgeier (09.06.2014 um 13:41 Uhr) Grund: Schreibfehlerteufel
    Ciao sagt der JoeamBerg

  6. #46
    Erfahrener Benutzer Robotik Einstein Avatar von Rabenauge
    Registriert seit
    13.10.2007
    Ort
    Osterzgebirge
    Alter
    55
    Beiträge
    2.208
    Find das Ding auch enorm Klasse.

    Zu den Bewegungen: beim Arm fällt es mir auf: man hebt gewöhnlich nen ausgestreckten Arm _nicht_ an.
    Beobachte dich mal, selbst wenn du nach vorn zeigen willst, winkelst du den Arm zuerst etwas an und hebst ihn dann hoch-dann streckst ihn wieder.
    Der Grund dafür wird im Artikel über K.Mombaur genannt: Energieeinsparung. Nen gestreckten Arm anheben braucht mehr Kraft.
    Leider wird sich das zwar, aufgrund gewisser Überlegungen, simulieren lassen, aber ich glaub nicht, dass wir in unserer Liga es schaffen, Bewegungsabläuft im voraus so zu berechnen. Ums wirklich menschlich wirken zu lassen, kämen dann noch weitere Aspekte hinzu.

    Kennst du die Software Poser? Das ist ein Figuren-Animierprogramm, von dem es ab und zu ne kostenlose Version gab.
    Dort kann man virtuelle Puppen (Tiere auch) schon recht realistisch bewegen. Da das auch in Zeitlupe geht, ne gute Inspiration, wenn mans zumindest nachbilden will. Interessant sind die, relativ guten, vorgefertigten IK-Ketten in dem Programm. Schon, wenn man nen Arm ausstreckt, bewegt sich irgendwie fast alles..

    Auch Blender (Open Source) eignet sich: dort kann man virtuelle Skelette erstellen, und die dann nach allen möglichen Parametern (Bewegungen einschränken, aber auch komplette IK-Ketten bilden, unterschiedliche Gewichtungen einstellen usw.), dort kannst du im Grunde deinen Archie virtuell nachbilden, und dann mal studieren, wie sich was am "realistischsten" bewegen sollte.
    Grüssle, Sly
    ..dem Inschenör ist nix zu schwör..

  7. #47
    Erfahrener Benutzer Robotik Visionär Avatar von oberallgeier
    Registriert seit
    01.09.2007
    Ort
    Oberallgäu
    Beiträge
    8.678
    Vielen Dank für den Beifall und ich freu mich schon über weitere Diskussionen, Kritiken und Ratschläge!

    ... Zu den Bewegungen ... Der Grund dafür ... Energieeinsparung ... Poser ... Auch Blender ...
    Sly, das ist ja eine ganze Latte von Anregungen, danke. Ja, die Optimierungsgrundlage von Katja M ist schon ziemlich pfiffig/ausgefuchst! Übrigens, eines meiner Befehlstelegramme heißt auch Poser - Position Servo ;.-.)

    Der Gedanke an eine Simulation der Bewegungen ist mir noch garnicht gekommmen. Find ich ja richtig gut! Andererseits - es ist schon entspannend, befriedigend und motivierend das Dingelchen laufen zu lassen und die Bewegungen am laufenden Objekt einzuschätzen. Zumindest geht es mir so.

    Dass ich dabei auch so nebenbei an sagenhaft freundliche Lieferanten gerate (Encodermotor hat eine Signalphase immer auf high - der Lieferant liefert mir auf Garantie den Ersatz binnen zwei Tagen - und dann wars doch eine mikroskopische Kurzschlussbrücke) und Ähnliches - das macht doch auch noch Laune neben den ganzen ungeliebten Fehlersuchen. Das liefert die Simulation vielleicht nicht so sehr. Andererseits habe ich bei meinen Aerodynamikaktivitäten auch viel Freude an den virtuellen Versuchen gehabt.

    Ich werd mal den Anregungen nachgehen. Danke jedenfalls dafür.

    ... man hebt gewöhnlich nen ausgestreckten Arm _nicht_ an ...
    Völlig richtig - auch wenn ich lange Jahre genauso trainiert hatte (LuPi, FP, auch mal nen 6Zöller 357MAG).
    Ciao sagt der JoeamBerg

  8. #48
    Erfahrener Benutzer Robotik Einstein Avatar von Rabenauge
    Registriert seit
    13.10.2007
    Ort
    Osterzgebirge
    Alter
    55
    Beiträge
    2.208
    Kannst deine Lieferanten ja mal bei mir vorbei schicken-können mitbringen, was rumliegt, ich nehm alles.

    Was die Bewegungen bzw. das "natürliche" angeht: ich hab mir mal die Mühe (es _ist_ eine) gemacht, das richtig zu lernen. Virtuell meine ich. Das kriegt man _nur_ hin, wenn man mal mit offenen Augen rumläuft. Einfach mal irgendwas anheben (nich verkrampft, sondern so normal wie möglich), und sich dabei selber genau beobachten: wann bewegt sich was....und _dann_ überlegen, wieso eigentlich....

    Übrigens modellier ich mir auch schnell mal irgendwelche technischen Dinge, einfach, um zu gucken, ob dieses oder jenes, was in meinem Geiste herumschwirrt, so überhaupt funktionieren kann. Hat man früher mit Karton gemacht (tu ich heute auch noch ab und zu, manchmal gehts einfach schneller) aber in Blender kann ich dann auch gleich noch gucken, ob meine Wunsch-Chassis-Farbe wirklich zu den Sensoren passt.


    Aber im Ernst: dein Archie hat irgendwie nen Charakter, den ich Klasse finde. Richtig begeistert war ich dann von dem Satz: "Mein Antrieb is elektrisch!". Weiss selber nicht, wieso aber der passt soo zu dem Burschen, wie die Faust aufs Auge.
    Mach weiter mit dem Kerl. Und erzähl drüber...
    Grüssle, Sly
    ..dem Inschenör ist nix zu schwör..

  9. #49
    Erfahrener Benutzer Robotik Visionär Avatar von oberallgeier
    Registriert seit
    01.09.2007
    Ort
    Oberallgäu
    Beiträge
    8.678
    Zitat Zitat von Rabenauge Beitrag anzeigen
    ... Richtig begeistert war ich dann von dem Satz: "Mein Antrieb is elektrisch!" ... Und erzähl drüber...
    Danke für das Lob.

    Und mal ganz WICHTIG: danke allen, die mich hier motiviert und mit Problemlösungen/Ratschlägen unterstützt haben. So wars ein hübscher Erfolg und Archie (eigentlich RJ5-jr) - sogar auch das MiniD0 - kommt in den Berichten bzw. Bildreportagen zur Makerfaire häufig vor.

    Die anstrengede Arbeit kommt jetzt: Aufbau bzw. Ausbau der 50%-Lösung um einige zehn Prozentpunkte. Aber ich hab ja Zeit (obwohl sich am Horizont eine Jugend-forscht-Gruppe abzeichnet, die vielleicht ein bißchen Motivation braucht).
    Ciao sagt der JoeamBerg

  10. #50
    Erfahrener Benutzer Robotik Visionär Avatar von oberallgeier
    Registriert seit
    01.09.2007
    Ort
    Oberallgäu
    Beiträge
    8.678
    Nach längerer Ruhepause - für Archie und seine Peripherie - gibts also einen mikroskopischen Fortschritt in Teilprozentgröße. Der Hindernis-Erkennungsfeld-Sensor ist nach der Steckbretterprobung in einer ersten funktionierenden Version fertig.
    ......Bild hier  

    Damit kann ein bis zu DINA4-großer Bereich getestet werden. Die Platine ist schauderhaft, ich weiß, aber für einen Funktionsnachweis gehts ganz gut. Erste Messungen zeigen gute Ergebnisse, nach einer gewissen Justierung werden ausführliche Ergebnisse/Messdaten vorgestellt. Gesteuert wird das Ganze von einem mega328/babyorangutan. Die vier Sensorpaare sind mit 19mmx47mm auch nicht viel größer als ein einziger, zweiäugiger US-Sensor, allerdings ist die Funktion keine millimetergenaue Messung, aber im Zentimeterbereich relativ vertrauenswürdig.

    Zum Aufbau: innen das LED-Feld, 4xLD274-3, mit einem Elko für den Stromstoßhunger und gesteuert von einem BC337 links neben dem Elko, drumrum die blechgeschirmten 4 SFH5110.
    Ciao sagt der JoeamBerg

Seite 5 von 9 ErsteErste ... 34567 ... LetzteLetzte

Ähnliche Themen

  1. Gewinde schneiden in Alu, ein heikles Thema?
    Von hosti im Forum Mechanik
    Antworten: 35
    Letzter Beitrag: 14.07.2015, 07:49
  2. ziehen servos so viel strom???
    Von Roboman93 im Forum Elektronik
    Antworten: 7
    Letzter Beitrag: 17.09.2008, 20:13
  3. Antworten: 8
    Letzter Beitrag: 13.11.2007, 10:20
  4. wie viel Servos kann ich ansteuern
    Von Zeroeightfifteen im Forum Motoren
    Antworten: 23
    Letzter Beitrag: 08.07.2006, 21:10
  5. Antworten: 11
    Letzter Beitrag: 18.05.2006, 12:40

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

Labornetzteil AliExpress