Geiles Video. Kompliment, ich hätte mich das nicht getraut. So viele Stunden drauf und wenn ein kleiner Fehler passiert.
Geiles Video. Kompliment, ich hätte mich das nicht getraut. So viele Stunden drauf und wenn ein kleiner Fehler passiert.
Hi,
mir fehlen die Worte, drum sag ich nur:
gratuliere
grüsse,
Hannes
Ja, aber das deklarierte Endziel war autostabiler Flug und/oder "kunstflugtauglich". Von daher war ich quasi dazu gezwungen den Looping zu fliegen... Und erreicht habe ich nun endlich beide Ziele :-D (obwohl, bei dem autostabil geht noch was...) Je nach Gusto per Schalter umstellbar.So viele Stunden drauf und wenn ein kleiner Fehler passiert.
@Hannes: Schön, dass du so konstant mitfieberst :-D
Viele Grüße, William
-> http://william.thielicke.org/
richtig geil Respect... das kann meiner nicht allerdings verusch ich gerade auch eher den Schwebeflug zu verbessern als sowas....
Hast du dich schon mal mit Kalman beschäftigt?
Jetzt musst nur noch machen, dass er das autonom auf knopfdruck kann.
btw: http://www.engadget.com/2009/07/24/s...-despite-scob/
grüße
meine projekte: robotik.dyyyh
Eintrag ins Logbuch der Shrediquette (so habe ich meinen Copter aufgrund des Propellergeräusches und eines schönen Snowboardvideos getauft...):
Heute zum zweiten mal Loopings geflogen. Ich habe nun langsam den Dreh raus: Stark nach oben beschleunigen, voll ziehen und sehr kurz danach Gas fast komplett raus. Aber nicht ganz, dann dreht er langsamer... Nach 3/4 des Loops Gas fast voll rein. Wenn man das Timing gut hinbekommt, klappen die Loops etwas besser und mit wenig Höhenverlust.
Außerdem habe ich heute eine ganze geschlagene Minute lang (hab auf den Timer meiner Fernsteuerung geschaut) die Hände vom Sender genommen. Aufgrund der totalen Windstille bleibt der Copter in einem Quadrat von ca 10m*10m. Nach einer Minute wurde mir allerdings langweilig und ich habe weiter Loopings geprobt.
Also denn doch wieder die PCB layouten...
Achso, in einem anderen Thread zwar schon vorgestellt, hier nochmal meine 3D Lagevisualisierung:
Video: http://www.villalachouette.de/willia...er/matlab2.wmv
Bild hier
(das 3D Modell ist mittlerweile hübscher und bunter...)
Viele Grüße, William
-> http://william.thielicke.org/
WOW! Bin sprachlos. Echt wunderschöne Sachen hast du Dir gebaut und sehr Professionell. Einen Tricopter hatte ich noch nicht gesehen und dazu noch einen der Loopings fliegt... *Neidisch bin*
Deine Liesel Videos habe ich mir auch angesehen. Toll. Die Strandbeesten von Theo Jansen (und seinen Vortrag dazu) hatte ich mal in Hannover gesehen von daher bin ich auch begeistert von Deiner Liesel.
Hi Byteman,
danke für das Feedback! Jetzt will ich aber auch unbedingt so einen Zeichenroboter wie du haben..... Mal sehen wann ich Zeit dafür finde...
Viele Grüße, William
-> http://william.thielicke.org/
Ich habe eben mal ein "LED-Tracking" in Matlab programmiert. 5 LEDs werden verfolgt, die Positionen im Bild werden berechnet. Wenn das einigermaßen zuverlässig läuft, versuche ich mal damit meinen Tricopter auf einer Stelle zu halten. Ob das aber klappt weiß ich nicht...
Video:
http://www.villalachouette.de/willia...pter/track.wmv
Hatte hier nicht jemand so etwas ähnliches schon mal realisiert? Hannes, warst du das? Wie viele Frames/Sekunde schaffst du mit deiner Bildauswertung? Ich schaffe im Moment nur ca. 4 fps bei einer Bildauflösung von 640x480px. Bin mir nicht sicher ob das reichen könnte.... Wenn ich mit der Auflösung runter gehe (320x240), wird das auch nicht bedeutend schneller. Vielleicht 6fps...
Viele Grüße, William
-> http://william.thielicke.org/
Hi William,
das Video von der 3d Lagevisualisierung des Tricopter find ich sehr witzig. Er jault und wehrt sich, wen du ihn herumdrehst. Ist zwar genau das, was er tun soll, schaut aber lustig aus.
Ja Leds hab ich schon mal durch Bildanalyse auswerten lassen:
Bild hier
Zur Framerate kann ich nicht viel sagen, ich bin da recht pragmatisch vorgegangen, ohne die Zeiten zu erheben.
Wenns mir zu langsam war, dann habe ich:
1. die Algorithmen gestreamlined. Grad wenn ich so munter drauflosprobiere, entsteht oft ballastreicher Code.
2. geschaut, dass ich die Lage des Fahrzeugs gut voraussage. Dann Suche ich um die Vorausgesagte Lage jeder Led nur einen kleinen Bereich ab und schau, wo sie tatsächlich steht. Wenn eine Led 2x nicht gefunden wird, wird das Fahrzeug gebremst, und der Suchbereich vergrössert. Notfalls Stillstand und das Ganze Bild absuchen.
Eine ERfahrung hab ich auch noch gemacht: Im hellen Tageslicht sind Farbscheiben besser zu sehen als LEDs. Ohne Streuscheiben sind sie zwar hell, aber zu klein im Bild, um statistische Methoden sinnvoll anzuwenden. Mit grösseren Streuscheiben, lässt die Lichtstärke stark nach. Bunte Scheiben oder Kugeln im hellen Tageslicht, geben da mehr her.
Dein Video mit den LEDs schaut schon gut aus. Kannst du etwas dazu sagen? Ich find das sehr interessant. Ist das im Dunklen aufgenommen, oder ist das durch die Filterung schon so schwarz geworden?
Die Bildanalyse zur Orientierung an Leucht- oder Farbmarkierung halt ich für sehr Erfolgversprechend, genau und ökonomisch, sobald die Entfernungen aus der Reichweite von IR und US rausgehen und mehr Genauigkeit verlangt wird, als bezahlbare GPS Systeme bieten.
Ich find das ganz fein, wenn da jetzt mehr Kollegen dran arbeiten, und bin auf die Erkenntnisse und Ergebnisse schon sehr gespannt. Den Thread https://www.roboternetz.de/phpBB2/vi...c.php?p=453732 hast du sicher schon gesehen, da soll sich ein landwirtschaftliches automatisiertes Fahrzeug an einer Bodenrille orientieren.
grüsse,
Hannes
Stimmt, das kleine Biest... Als ich ihn um 90° drehe muss ich sogar meine zweite Hand dazu nehmen, sonst gewinnt der Copter fast im Armdrücken...Er jault und wehrt sich, wen du ihn herumdrehst. Ist zwar genau das, was er tun soll, schaut aber lustig aus.
Farbige Leds zu tracken ist wohl weniger Fehleranfällig, aber auch deutlich rechenintensiver. Schließlich muss ich die dreifach Menge an Bildmaterial verarbeiten. Oder gibts da Tricks? Evtl. das Grayscale nach Peaks absuchen und nur im Bereich der einzelnen Peaks die Farbinfo verarbeiten...? Leider erkenne ich mit meiner Kamera keine farbigen LEDs. die Punkte sind sehr hell, so dass man nur noch weisse Punkte sieht. Da müsste man wohl mit (Hardware) Lichtfiltern arbeiten. Das ist wieder Aufwand... Ausserdem liefert meine Kamera das YUY2 Farbformat, die Umwandlung zu RGB dauert auch ne Weile...
Mein Algorithmus läuft im Moment so...:
Das Bild wird unterhalb von Helligkeit=230 auf null gesetzt. Dann Suche ich nach zusammenhängenden, weissen Flecken größer als 3x3 Pixel. Die größten 5 Flecken werden weiterverarbeitet. Mit dem nächsten Bild wird das gleiche gemacht. Jetzt werden die Distanzen zwischen allen Flecken der Bildpaare berechnet, und jeweils die niedrigste Distanz als die wahrscheinlichste angenommen. Damit kann man die Punkte einander zuordnen und den Versatz berechnen. Natürlich wäre es schick wenn man nicht die ganzen Bilder nach den Peaks absucht, sondern nur kleine Bereiche. Aber das bedeutet deutlich mehr Programmieraufwand und braucht sicherlich auch etwas Rechenzeit. Mittlerweile bin ich bei 10fps bei 640x480 angekommen, das könnte evtl. schon reichen.
Hannes, kannst du deinen Algo evtl. auch in wenigen Sätzen beschreiben? --> Edit: Ne, brauchst du nicht nochmal zu machen, habe mir den Thread durchgelesen...
Gibt es evtl. irgendwo günstige Filter, die nur IR Licht durchlassen? Denn mein Led tracking funktioniert nur wenns relativ dunkel ist...
Edit: Habe gelesen, dass ein unbelichtetes, entwickeltes Dia sich als IRFilter eignet... Nur woher bekomme ich sowas...?
Viele Grüße, William
-> http://william.thielicke.org/
Lesezeichen