- 3D-Druck Einstieg und Tipps         
Seite 2 von 6 ErsteErste 1234 ... LetzteLetzte
Ergebnis 11 bis 20 von 55

Thema: ASURO mit Kamera ferngesteuert

  1. #11
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.05.2005
    Ort
    Issum
    Alter
    52
    Beiträge
    2.236
    Anzeige

    Praxistest und DIY Projekte
    Ich dachte immer, das sei der Fernseher, so wie kdetv.
    Ja mit xawtv kann man auch Fernsehen, aber woher es Das Bild bekommt, und wohin es veschickt wird bleibt Dir überlassen.
    leider habe ich momentan das Programm nicht drauf, um Dir ein paar Beispiele zu nennen, aber Google danach, oder installiere es und schau Dir die Manpages dazu "man xawvt" vielleicht lohnt es...

    Die RAMdisk einzurichten, ist ganz einfach:

    Erstelle Dir irgendein Verzeichnis z.B. /mnt/RAM, oder ~/meineRAMdisk oder was auch immer.
    Jetzt tipe als root:

    mount -t tmpfs -o size=20M tmpfs /mnt/RAM
    oder
    mount -t tmpfs -o size=20M tmpfs ~/meineRAMdisk

    oder wie Dein Verzeichnis auch immer heißen mag.

    Schon bist Du fertig, Du hast Dir eine RAMdisk mit 20MB größe eingerichtet!

    Daß Du mit size=.... die größe angeben kannst brauch ich wohl nicht zu sagen, oder

    mit
    df -h kannst Du prüfen, ob sie auch wirklich angelegt worden ist
    Das gute daran ist, es werden nicht wirklich 20MB "verbraucht" sondern die größe variert, je nachdem wieviele Dateien drin sind, dynamisch also.

    schreibe Deine Bilder einfach in Dieses Verzeichnis, ich hoffe, daß es hilft...

    Achso willst Du als user darin schreiben, muß ein Eintrag in /etc/fstab rein, ich hoffe, daß es auch klar ist...

    Gruß Sebastian

  2. #12
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    08.05.2005
    Ort
    Issum
    Alter
    52
    Beiträge
    2.236
    Hallo stochri,

    Ih hätte da noch eine Frage, und zwar, wie komunizierst Du mit dem Asuro ?

    Mit der "Onboard" IR-Lösung?
    Klappt das gut?

    Ich habe irgendwo ein Joystick ausgegraben, und möchte versuchen meinen
    Asuro damit zu steuern.
    Nur stellt sich die Frage, wie gut die IR Verbindung funktioniert, nicht das sie nach 20 cm abbricht.

    Klar könnte ich es selber probieren, nur netterweise hab ich mir die IR-Hindernisserkennung gebaut, und jetzt zeigt die Diode nach vorn, noch schön in einem Röhrchen versteckt .

    Gruß Sebastian

  3. #13
    Erfahrener Benutzer Roboter-Spezialist
    Registriert seit
    11.11.2005
    Beiträge
    321
    Du kannst das auch ohne Kamere machen.
    Du sendest einfach deine Pixeldaten vom PC-Programm (ich nehme Pure-Basic) einfach zum Robby und legst für jeden Pixel eine Wegstrecke und Drehpunkt fest.
    Mit einem anderen Pure-basic-Programm beobachtet die Kam vom Robby und sendet dir das Bild zum Pc.

    Castle

  4. #14
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    25.10.2005
    Alter
    71
    Beiträge
    157
    Hallo Storchi,

    nein, ich habe noch nie mit SCILAB gearbeitet.

    Den Trick mit Flächenschwerpunkt habe zuerst gar nicht so mitgekriegt. Ist aber eine feine und einfache Sache und macht das Leben ziemlich leicht.

    Ich habe 'mal ein wenig experimentiert. Als Basis habe ich dein ASURO-Foto genommen.

    Ich habe das Bild pixelweise abgearbeitet. Alle Punkte, die eine H-Wert zwischen 350 ... 360 ... 0 ... 10 haben (also rot) und eine Sättigung von min. 70%, habe ich in die Mittelwertberechnung einbezogen, alle anderen ignoriert. Verarbeitungszeit: 150 mSec bei einem 320 x 240 großen Bild (AMD +2800, Windows XP, Visual Basic .NET).

    Ich habe mir die Position des Schwerpunkts gemerkt und danach nur noch ein 50 Pixel x 50 Pixel großes Bild um den Schwerpunkt herum analysiert. Hat 3 mSec gedauert. Wenn man davon ausgeht, dass eine Webcam 30 fps liefert und 5-10 Messungen pro Sekunde bereits ein gutes Ergebnis liefern sollten, ist das schon so gut wie Echtzeit.

    Danach habe ich deinem ASURO einen grünen Punkt auf der Nase verpasst (zum Detektieren der Orientierung, s. Bild) und bei der Berechnung den "grünen" und den "roten Schwerpunkt" berechnet (Ergebnis s. 2.Bild).

    Das mit dem Grün hat nicht ganz so gut geklappt. Der ASURO hat da einige grüne Flächen "onboard". Man sollte also nur solche Flächen berücksichtigen, die eine min. Größe haben.

    Ingesamt finde ich das Resultat sehr ermutigend. Gleich morgen werde ich schauen, dass ich an eine Webcam herankomme.

    Gruß Red Baron
    Miniaturansichten angehängter Grafiken Miniaturansichten angehängter Grafiken roboter_orginal_gruen.jpeg   robot_705.jpg  

  5. #15
    Erfahrener Benutzer Roboter Genie
    Registriert seit
    12.06.2005
    Ort
    Südwestdeutschland
    Beiträge
    1.147
    Blog-Einträge
    3
    Hallo Sebastian,
    Ih hätte da noch eine Frage, und zwar, wie komunizierst Du mit dem Asuro ?
    Mit der "Onboard" IR-Lösung?
    Klappt das gut?
    Ich habe irgendwo ein Joystick ausgegraben, und möchte versuchen meinen
    Asuro damit zu steuern.
    Ich verwende den ASURO IR-mässig im Orginalzustand. Das mit der IR-Kommunikation ist immer ein wenig problematisch. Im Moment häng der Sender in etwa 1m Höhe über dem ASURO. Laut Datenblatt hat die IR-Dioden einen Öffnungswinkel von 17°. Das dürfte einen Lichtkegel von

    1m*sin(17°/180*pi)*2 = 58cm

    ergeben. Man sieht aber schon, dass der Aktionsradius relativ begrenzt ist. Die Verbindung klappt bis auf eine Entfernung von ca. 4m, damit könnt man also den 4fachen Aktionsradius erreichen, wenn man eine 4m hohe Decke hätte.

    Beim Avoider https://www.roboternetz.de/phpBB2/vi...=141576#141576 habe ich auch einen SFH300 wie beim ASURO als Empfänger verwendet. Den kann ich mit meiner normalen CD-Fernbedienung steuern. Ich erwähne das deshalb, weil Fernbedienungen im Vergleich zum ASURO Tranmitter mit Sendeströmen bis in den Amper-Bereich arbeiten und deshalb die Lichtstärke wesentlich größer ist.
    Wenn der Empfänger allerdings vom Sender wegdreht, verliert man auch da die Verbindung.

    Fazit:
    Eine direkte IR-Fernsteuerung für den ASURO ist problematisch. Das läßt sich nur dann vernünftig verwenden, wenn ein kleiner Aktionsradius wie für das Experiment in diesem Thread ausreicht, der Sender ortsfest in gnügendem Abstand über dem Roboter angebracht wird und der Empfänger Sichtverbindung zum Sender hat.

    Gruß,
    stochri

  6. #16
    Erfahrener Benutzer Roboter Experte
    Registriert seit
    20.01.2004
    Alter
    35
    Beiträge
    645
    Hi Leute

    könnt ihr das mir dem Farb/Flächenschwerpunkt mal genauer erklähren?
    Wäre ne große Hilfe, brauch sowas nämlich grad in Delphi...

    Danke!
    MfG Xtreme
    RP6 Test - alles zum Nachfolger des bekannten RP5 im neuen RP6 Forum!

  7. #17
    Erfahrener Benutzer Roboter Genie
    Registriert seit
    12.06.2005
    Ort
    Südwestdeutschland
    Beiträge
    1.147
    Blog-Einträge
    3
    Hallo Red Baron,

    nein, ich habe noch nie mit SCILAB gearbeitet.
    Habe ich bis letzte Woche auch nicht. Aber ich verwende schon seit einiger Zeit MATLAB. Im privaten Bereich möchte ich aber SCILAB einsetzen.
    Das sind eigentlich Mathematikprogramme, die für eine schnelle, interaktive Datenvisualisierung und das schnelle Ändern und Ausprobieren von Algorithmen geeignet sind.

    Für eine reale Steurung nimmt man diese Programme normalerweise nicht.
    Ich habe mit allerdings schon ein wenig mit dem Thema Bildverarbeitung befasst und wenn es um das Thema Neuentwicklung eines Algorithmus geht, glaube ich, dass man mit SCILAB schneller als mit BASIC oder C ans Ziel kommen. Aus diesem Grund sind große Matlab System ja auch in Entwicklung und Forschung im Automotive Bereich so weit verbreitet. Dort ist eben Zeit auch Geld.

    Bei der Bildverarbeitung besteht das Problem, dass die Bilder sehr stark von der Beleuchtungssituation abhängen. Aus diesem Grund ist es sehr nützlich, wenn man die Daten schnell visualisieren, analysieren und den Algorithmus anpassen kann.
    Etwas ungewohnt bei Scilab/Matlab ist, dass jede Varible als Matrix behandelt wird. Das Verfahren läst sich allerdings relativ rasch verstehen und dann ist der Syntax nur noch eine relativ einfache Scribt-Sprache. Falls es jemand in diesem Thread wünscht, kann ich mal ein kleines Tutorial machen, dann kann man das bestimmt schnell verstehen.

    Gruss,
    stochri
    [/quote]

  8. #18
    Erfahrener Benutzer Roboter Genie
    Registriert seit
    12.06.2005
    Ort
    Südwestdeutschland
    Beiträge
    1.147
    Blog-Einträge
    3
    Hallo Xtreme,
    könnt ihr das mir dem Farb/Flächenschwerpunkt mal genauer erklähren?
    Wäre ne große Hilfe, brauch sowas nämlich grad in Delphi...
    Der Algothmus für die Positionsbestimmung ist folgender:

    1. Alle Farbpunkte auf gleiche Helligkeit bringen
    2. Den Rot-Anteil nehmen mit einem Grenzwert vergleichen
    3. Die Punkte, die über dem Grenzwert liegen in ein binäres Schwarz/Weisbild übertragen
    4. Den Flächenschwerpunkt im Binärbild berechnen.

    Hier das SCILAB Scibt für die Berechnung des Schwerpunktes einer Matrix. Wenn Du weist, wie man Matrizen mit Vektoren multipliziert, sollte das kein Problem sein, in Delphi umzusetzen.
    Code:
    function [rowcp,columcp]=centroid(mat)
    //
    // calculate the centerof a matrix
    //
    //
    // $Revision: 1.0 $ $Date: 2006/04/01 
    
    
    nx=length(mat(:,1)); // nx=number of rows
    ny=length(mat(1,:)); // ny=number of colums
    gx=1:nx; // create vektor x=1,2,3..nx
    gy=1:ny; // create vektor x=1,2,3..ny
    summat=sum(mat); // calculate sum of all elements
    if summat==0, // if summat=0 then the result is not defined
    	columcp=0;
    	rowcp=0;	
    else
    	columcp=sum(mat*gy')/summat; // calculate colum center point
    	rowcp=sum(gx*mat)/summat; // calculate row center point
    end
    
    
    endfunction
    
    //
    // -------------------------------------------------------------------------
    // This file ist made for scilab the free mathematical toolbox 
    //
    // Copyright (C) 2006  stochri
    //
    // This program is free software; you can redistribute it and/or modify
    // it under the terms of the GNU General Public License as published by
    // the Free Software Foundation; either version 2 of the License, or
    // (at your option) any later version.
    //
    // This program is distributed in the hope that it will be useful,
    // but WITHOUT ANY WARRANTY; without even the implied warranty of
    // MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
    // GNU General Public License for more details.
    //
    // You should have received a copy of the GNU General Public License
    // along with this program; if not, write to the Free Software
    // Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
    // -------------------------------------------------------------------------
    //
    Gruss,
    stochri

  9. #19
    Erfahrener Benutzer Roboter Genie
    Registriert seit
    12.06.2005
    Ort
    Südwestdeutschland
    Beiträge
    1.147
    Blog-Einträge
    3
    Hallo Red Baron,
    Danach habe ich deinem ASURO einen grünen Punkt auf der Nase verpasst (zum Detektieren der Orientierung, s. Bild) und bei der Berechnung den "grünen" und den "roten Schwerpunkt" berechnet (Ergebnis s. 2.Bild).
    Sieht schön aus, der grüne Punkt.

    Das mit dem Grün hat nicht ganz so gut geklappt. Der ASURO hat da einige grüne Flächen "onboard". Man sollte also nur solche Flächen berücksichtigen, die eine min. Größe haben.
    Der Algorithmus wird eben stabiler, wenn man nur die Farbe rot vewendet. Wie schon mal weiter oben erwähnt, habe ich die Winkelbestimmung absichtlich über die Gerade zwischen 2 Wegpunkten berechnet. Das funktiniert wirklich sehr gut, weil ja nur der erste Punkte auf der ASURO Wegstrecke unbekannt ist. Sobald man ein kleines Stück gefahren ist, kennt man den Winkel für alle nachfolgenden Fahrten.
    Aber für den Lerneffekt ist es natürlich gut, auch mal mehrere Farben zu suchen.

    Gruss,
    stochri

  10. #20
    Erfahrener Benutzer Roboter Genie
    Registriert seit
    12.06.2005
    Ort
    Südwestdeutschland
    Beiträge
    1.147
    Blog-Einträge
    3
    Hallo Red Baron,
    wie wäre es mit der Analyse des folgenden Bildes ?
    Vieleicht wäre es praktischer, wenn man den Ball grün machen würde, wie im Beispiel von Dir oben. Aber ich glaube, irgendwann wird man wohl kaum drumrum kommen, mehrere Gegenstände gleicher Farbe im Bild zu finden Ich bin noch am Überlegen, wie man es schaffen könnte, die beiden roten Dinge auseinander zu halten ....

    Gruss,
    stochri
    Miniaturansichten angehängter Grafiken Miniaturansichten angehängter Grafiken asuroballtor.jpeg  

Seite 2 von 6 ErsteErste 1234 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

Labornetzteil AliExpress