PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Spontan primitives 3D-Gittermodel erzeugen, damit sich der Roboter orientieren kann?



kiwi*blume
15.05.2012, 14:02
Hi.

Ich lese seit ein paar Tagen hier und hab mich nun endlich registriert. Ich bin blutiger Anfänger und lese mich zurzeit in die untersten der untersten Elektronikgrundlagen ein. Mich hat die Robotik gepackt, insbesondere fliegende Roboter. Angefangen hab ich mit der Arduino-Plattform und meine erste LED leuchtet auch bereits. Ich bin also weit davon entfernt, irgendetwas nennenswertes zu bauen. Aber irgendwo fängt man ja immer an. :)

Vorgestern sah ich jedenfalls dieses Video hier, in dem mehrere Quadcopter in einem Schwarm synchron agieren und die tollsten Manöver beherrschen. Realisiert wird das Ganze durch ein 3D-Modell der Umgebung auf dem über Funk angeschlossenen PC.


http://www.youtube.com/watch?v=YQIMGV5vtd4

Die Quadcopter nehmen ihre Umgebung also nicht direkt wahr, sondern bewegen sich nur innerhalb der 3D-Matrix des Computers. Sie könnten sich also vermutlich im Freien nicht auf diese Weise orientieren und bewegen.

Man müsste also spontan eine 3D-Matrix berechnen lassen und zwar am besten nur mit Hilfe des Microcontrollers.

Welche Möglichkeiten gibt es, das zu realisieren? Bewegliche Infrarotsensoren, die die Umgebung abtasten und daraus ein primitives 3D-Gittermodell erzeugen? Es geht insbesondere darum, Kollisionen zu vermeiden, aber auch darum, dass sich der Roboter generell in der Umgebung zurecht findet.

LG Dani

danimath
15.05.2012, 16:10
Hi.

Angefangen hab ich mit der Arduino-Plattform und meine erste LED leuchtet auch bereits. Ich bin also weit davon entfernt, irgendetwas nennenswertes zu bauen. Aber irgendwo fängt man ja immer an. :)



Lieber in kleinen Schritten und dann wirklich weiter kommen, als einen Riesenschritt planen und dann stecken bleiben. ;) Da gibt es hier im Forum genügend Beiträge nach dem Motto "ich weiß von nix, aber möchte gleich 'nen großen Roboter bauen, und das für 20€", von denen man nach ein paar Beiträgen nichts mehr hört.

Soweit das Wort zum Sonntag hihihi. Wie sieht es denn mit Deinen Englisch-Kenntnissen aus? Auf der Website der Leute gibt es ein paar Artikel als PDF zu Herunterladen: Main.Publications (https://fling.seas.upenn.edu/~dmel/wiki/index.php?n=Main.Publications), aber scheint schon harter Stoff zu sein. Wenn ich das beim Überfliegen richtig verstanden habe, dann sitzt die "Intelligenz" im PC, und die Copter selber machen nur relativ wenig außer der Steuerung (die bei der Präzision auch schon nicht einfach sein dürfte). BTW: das James-Bond-Theme-Video auf der Website ist ebenfalls beeindruckend.

viele Grüße
Andreas

oberallgeier
15.05.2012, 17:06
... Wenn ... richtig verstanden ... "Intelligenz" im PC, und die Copter selber machen nur relativ wenig ...Wenn ich das richtig verstanden habe, dann gibts eher wenige PCs. Aufwendige Bilderfassung, sprich s..teure Kameras, die schnell ausgewertet werden, Bildauswertung für die Positons- und Stellungs-(!!!)-erfassung, simultane Regelung der Flotte individueller Flieger, Pfadvorgabe und Pfadregelung. Wird vielleicht auch mit der übernächsten Generation von (Quanten-)PCs gehen . . . die Leute vom GRASP LAB haben da bessere Hardware als PCs. Abgesehen von den einigen (?) hundert Tausendern in der Bilderfassung.

@Dani:
Willkommen im Forum. Es ist sicher ein herrliches Projekt, als DIY in Heimarbeit aber eher eine Art Orientierung, aus der man sich (kleine) Brocken raussuchen kann. Die Realisierung hat personell einige zig Mannjahre benötigt (meine Schätzung). Die People in Pennsylvania haben immerhin fast zwanzig aktive Professoren, das lässt etwas von der Anzahl der Studenten, der Graduates und Postdocs ahnen. Zur Finanzierung die obige Schätzung. Und das LAB hat z.B. das Ziel: Perception, Planning, Mobility, and Interaction for Next Generation Robotics. NEXT Generation !

Dani, lass Dich bitte nicht von Deinem Elan abhalten. Immerhin bist Du (wie hier viele) Teil der next generation - nicht Teil der Robos , sondern deren Macher.

t0bias
02.07.2012, 14:37
An der ETH in Zürich haben Sie ein ähnliches Projekt realisiert...


http://www.youtube.com/watch?v=9BshzMOJKRg