- LiFePO4 Speicher Test         
Seite 2 von 3 ErsteErste 123 LetzteLetzte
Ergebnis 11 bis 20 von 23

Thema: Laser erkennen für Roboter-Fernsteuerung

  1. #11
    Gast
    Anzeige

    Praxistest und DIY Projekte
    ... hauptproblem beim Mega32 ... nur 2 Kbytes ... Für Bildbearbeitung ... 32 kBytes oder mehr an RAM haben ...
    Das stimmt so wohl nicht immer. Es gibt Primaner, die Ähnliches mit einem mega32 gemacht hatten - CowZ. Einfach in der Suchfunktion schauen nach "Entfernungsmesser - Optische Triangulation".

  2. #12
    Gast
    okay

    Und wenn man das ganze so macht:

    Die Kamera macht das Bild, und übermittelt es an den MC, welcher es zuerst einmal in eine SD-Karte speichert. Dann macht die Kamera das 2te Bild, welches auch in die SD-Karte kommt. Danach wandelt der MC die Bilder in HSV um und verrechnet sie, so das nur noch der Lasefleck übrigbleibt.

    Ich denke aber, das die Reaktionsgeschwindigkeit auf diese Weise sehr leiden würde...

    Gäbe es doch bloss eine andere Möglichkeit meine Anforderungen zu erfüllen als Bildauswertung...

  3. #13
    Erfahrener Benutzer Robotik Einstein Avatar von i_make_it
    Registriert seit
    29.07.2008
    Ort
    Raum DA
    Alter
    56
    Beiträge
    2.814
    Laser haben den Vorteil monocromatisch und polarisiert zu sein.
    Also Kamera, davor einen Farbfilter der nur die Laserfrequenz durchlässt.
    Und ein Polarisationsfilter der immer um 180° gedreht wird.

    Der Laser kann immer an sein.
    Der Farbfilter blockiert alles Fremdlicht mit Frequenzen ungleich der Laserfrequenz.

    Der Polarisationsfilter lässt nur in einem kleinen Winkelfenster das Laserlicht durch.
    Somit ist alles Fremdlicht eliminierbar.

    Da der Robby genauso von den Physikalischen gesetzen der Optik abhängt, wie z.B.: Lasergelenkte Waffen, ist die wirksame Leuchtfläche entscheident.
    Das heist wenn sich der Robby auf dem Boden befindet, und der "Ziellaser" ebenfalls den Boden beleuchtet, wird die Wirksame Fläche umso kleiner je flacher der Winkel wird unter dem der Robby die Markierung sieht.

    Deshalb macht in diesem Fall eine möglichst hoch angebrachte Kamera Sinn.
    Anstelle einer Kamera kann auch ein Sensor aus Fotodioden oder Forotransistoren verwendet werden, die ebenfalls mit Forsatzfiltern vor Fremdlicht geschützt werden.
    Jedes Sensorelement wird durch einen Tubus in seinem Sichtwinkel beschränkt. So wird eine Sensorzeile aufgebaut die in etwa einen Viertelkreis also 90° abdeckt.
    Die Sensorzeile wird rotiert so das ein halbkugelförmiger Raum überwacht wird.
    Die Signalführung muß allerdings per Schleifring erfolgen (wegen der Rotation). Eine Referenzmarke wie bei einem Diskettenlaufwerk gibt die null grad marke je Umdrehung an. So kann über die Zeit seit dem letzten Referenzimpuls im Verhältniss zur Zeit zwichen zwei Referenzimpulsen die Winkelstellung ermittelt werden.
    Luftabwehrraketen haben in den 70er Jahren genau so gearbeitet, nur das die Rotation von der Rakete selbst kam und IR Dioden verwendet wurden die die Triebwerksabwärme erfassten.

  4. #14
    Gast
    okay, das heisst die Kamera würde dann nur noch ausschliesslich den roten Punkt sehen, und sonst gar nichts mehr?!

    Wäre ja schonmal ein Fortschritt, doch immernoch müsste ich das Bild auswerten, und nach dem was ich inzwischen so gelesen hab, scheint das ohne CMU-Cam nur seeehr schwer realisierbar zu sein. Oder?

    Ich weiss, ich stelle viele Fragen, aber ist halt ein komplexes Thema

    Grüsse

  5. #15
    Erfahrener Benutzer Robotik Einstein Avatar von i_make_it
    Registriert seit
    29.07.2008
    Ort
    Raum DA
    Alter
    56
    Beiträge
    2.814
    Habe meinen letzten Post noch ergänzt um:
    Sensor aus Fotodioden / Fototransistoren.

    Bei einer Cam geht eine gute USB Cam durchaus auch.
    Am besten mal nach den HD Cams sehen und für welche es auch schon Linux Treiber gibt.

    Als Hardware für einen mobilen PC empfehle ich ein PC104 Low Power System.
    Ein echtzeit Linux wie z.B.:
    http://www.heise.de/open/meldung/Ech...en-873953.html
    einfach mal unter echtzeitlinux / realtime Linux googlen.
    Windoof ist leider nicht echtzeitfähig.
    Und als Softwarequelle für die Bildverarbeitung mal bei http://sourceforge.net/
    stöbern.
    Dazu halt einiges an fundiertem Wissen über Bildverarbeitung.
    HW-Kosten Cam und PC104 System ca. 400,-€
    OS und Software findet man kostenlos.
    Einige hundert Stunden programmieren und testen je nach Vorwissen.
    Wenn ich mich an Projekte wage die weit jenseits meiner Kenntnisse liegen, dann zerteile ich alles in Teilprobleme.
    Z.B.: Bei der Bildverarbeitung nutze ich die Platform die ich schon kenne um mich mit den Algorithmen vertraut zu machen.
    parallel kann man in einer VM-Ware oder auf einem alten Rechner schon mal das Echtzeit Linux hochziehen und mit verschiedenen Software Paketen experimentieren. Die Cam wird dabei einfach nur umgesteckt.
    Ein einfacher Testauchbau aus einem Kantholz auf einer Sperrholzplatte und ein frisierter Laserpointer der z.B. per Servo verschiedene Positionen beleuchten kann, ersetzen den Robby und den realen Raum.
    Unabhängig von dem Sensor kann dann auch schon der eigentliche Robby gebaut werden. so kannst du bei Frust immer schnell mal in ein anderes Teilprojekt wechseln und mal wieder ein Erfolgserlebniss haben.

  6. #16
    Danke vielmals für deine hilfsbereite Hilfe

    Aber wie wäre es wenn man in eine etwas andere Richtung geht, und zwar mit den Fototransistoren (für mich muss es nicht unbedingt mit Bilderkennung sein, eher im Gegenteil;p)

    Also wenn man 4 Fototransistoren nimmt (mal zum Anfangen) und auf jede Seite des Robis eine lötet, hat man schon mal eine rudimentäre Rundumsicht.

    Dann werden alle Fototransistoren so präpariert, dass sie nur noch das Licht des Lasers empfangen können.

    Wenn nun irgendwo der Laser auf den boden trifft, wird das vom Roby "gesehen" -> er fährt dort hin.

    Die einzige Frage die sich mir da stellt: Sind die Fototransistoren sensibel genug, sprich: Der Laser ist ja kein idrekter Strahl auf den Fototransistor, reicht es trotzdem aus, damit dieser schaltet? und vor allem: bis in welche entfernung würde das funktionieren...?

    Ich denke, dass das, wenn überhaupt, nur mit sehr sensibeln Fototransistoren möglich ist. Oder täusche ich mich und ein standard-Teil reicht aus? Oder geht es gar nicht und ich komm wirklich nicht um die Bilderkennung rum?

    Grüsse

  7. #17
    Erfahrener Benutzer Robotik Einstein Avatar von i_make_it
    Registriert seit
    29.07.2008
    Ort
    Raum DA
    Alter
    56
    Beiträge
    2.814
    Das Problem ist das mit der "rudimentären Rundumsicht" kein genaues Navigieren drinn ist. eine Auflösung von 90° seitlich und die Entfernungssicht von 10cm bis 2m mit einer Diode bringt ja nicht so viel, da der Robby im ungünstigsten Fall mit einem Winkelfehler von 89° schräg zum Zielpunkt fährt, bis der Zielpunkt in den Sensorbereich des nächsten Quadranten wandert. Wenn der Kurven Algorithmus falsch ist, kann der Robby so ewig den Zielpunkt umkreisen ohne jemals anzukommen.

    Wenn eine Sensorzeile aus 10 Dioden / Transistoren von 5° - 55° mit 5° Öffnungswinkel je Sensorelement besteht, und eine Winkelauflösung von 10°in der Horizontalen erreicht wird, dann sollte bei ca. 40cm Abstand Sensor zum Boden, eine Auflösung von 10x10cm erreichbar sein.
    Damnach sollte der Robby auch bis auf maximal 10cm Abweichung an den Zielpunkt rankommen.

  8. #18
    Ich habe mich leider nicht genug gut ausgedrückt, bzw hab den Satz nicht fertig geschrieben.

    Natürlich müsste ich beim fertigen Robi entweder mehrere Fototransis einsetzen, oder, am besten:

    Ich nehme 5 Fototransistoren, setze sie in einer senkrechten Zeile aufeinander und schränke deren seitlichen "Sichtbereich" enorm ein.
    Dieses Gebilde lasse ich dann drehen, bei jeder vollen Umdrehung wird ein Interrupt ausgelöst, dadurch kann dan der controller darauf schliessen, von wo das licht kam

    Aber eigentlich stimmen wir ja überein
    Das heisst ich brauche nur noch einen passenden Fototransistor und die Filter

    Kann ich irgend n'Transistor nehmen oder brauch ich eben n'speziellen typen? natürlich könnte man das Signal vom Transistor auch noch verstärken...

    und vo wo bekomm ich die ganzen Filtersachen?

    Grüsse

  9. #19
    Erfahrener Benutzer Robotik Einstein Avatar von i_make_it
    Registriert seit
    29.07.2008
    Ort
    Raum DA
    Alter
    56
    Beiträge
    2.814
    "Normale" Farbfilter und Polarisationsfilter gibts bei Hama als Fotozubehör.
    Polarisationsfilter gibt es auch bei Kinos die 3-D Filme zeigen.
    Da ist die Folie einmal waagerecht und einmal senkrecht polarisierend in die Brillen eingeklebt.
    Spezielle Laserfilter gibt es z.B. bei Laser 2000.

  10. #20
    Erfahrener Benutzer Roboter-Spezialist
    Registriert seit
    17.03.2004
    Alter
    75
    Beiträge
    487
    Ein Beispiel für eine Laserpointeranwendung wie sie i_make_it beschrieben hat, findest du hier:
    http://www.hsi.gatech.edu/hrl/projec...le_world.shtml
    mit Beschreibung:
    http://www.hsi.gatech.edu/hrl/pdf/iros08_clickable.pdf

    Gruß, Günter

Seite 2 von 3 ErsteErste 123 LetzteLetzte

Benutzer, die dieses Thema gelesen haben: 0

Derzeit gibt es keine Benutzer zum Anzeigen.

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

LiFePO4 Speicher Test