- MultiPlus Wechselrichter Insel und Nulleinspeisung Conrad         
Seite 5 von 6 ErsteErste ... 3456 LetzteLetzte
Ergebnis 41 bis 50 von 55

Thema: Indoor Navigation- wie macht Ihr das?

  1. #41
    HaWe
    Gast
    Anzeige

    Praxistest und DIY Projekte
    ist das AVM- / Omnibot Ding autonom oder PC/host- gesteuert?

  2. #42
    Erfahrener Benutzer Fleißiges Mitglied Avatar von Robotniks
    Registriert seit
    13.10.2007
    Beiträge
    175
    Autonom aber mit einer Funkverbindung zum Host PC, darauf läuft die Computer Vision Software.
    In diesen Fall RoboRealm, immer gut für schnelle Versuche (Filter Test ect.) aber mittlerweile ist RoboRealm erwachsen und hat einige interessante Features wie den AVM Navigator.
    Im Robotic-Workbench habe ich die RoboRealm Schnittstelle mit eingebaut, so kann man statt meiner OpenCV Geschichte auch RoboRealm verwenden (nur bei der 64bit Version hapert es noch bei Steven und der API).

    Robotic-Workbench arbeitet auch mit den PC als Host und die µC-Hardware besitzt die low-Level Routinen (Kommunikaton mit den Sensoren und Aktuatoren sowie Servocontroller für 20 Servos, Motorsteuerung wie Stepper, DC, Odometrie ect. aber auch Laufalgorithmen für Quadro- Hexabots und vieles mehr).

    Für die Verbindung zwischen PC und µC stehen bereits Bluetooth, Zigbee, Easyradio und USB zur Verfügung.
    Vor ein paar tagen habe ich Robotic-Workbench auf einen kleine Odys Tablet mit einen Atom getestet und es läuft damit sehr gut :-D

    Grüße

  3. #43
    HaWe
    Gast
    also wenn mit Funkverbindung, dann ist es ntl nicht autonom. Etwas wirklich autonomes wäre eher auf meiner Wellenlänge. Auch da gibt es ja Cams mit Blob- Farbb- und Kantenerkennung (AVR Cam, RPI Cam).

  4. #44
    Erfahrener Benutzer Fleißiges Mitglied Avatar von Robotniks
    Registriert seit
    13.10.2007
    Beiträge
    175
    Der Rechner sitzt ja später im Roboter
    Autonom setzt ja nicht voraus das die Intelligenz direkt im Roboter verbaut ist

    Natürlich kannst du auch einen RasPi, CMU-CAM oder AVR Cam ect. verbauen aber die Leistungsfähigkeit und die Möglichkeiten sind damit schon sehr eingeschränkt.
    Wenn du ein kleines Tablet, Netbook, Intel NUC, IPC oder ein günstiges bzw. älteres Notebook verwendest und dies in den Roboter einbaust stehen Dir ganz andere Welten offen

    Aber bitte keine Philosophie-Beiträge jetzt, gell
    Hier muss jeder selber entscheiden was und wie er es machen will...

    Grüße

  5. #45
    HaWe
    Gast
    klar - aber der TOP heißt ja: "wie macht ihr das" , gell?
    autonome NXTs oder Arduinos lasse ich für mich gelten - PC Verbindung nicht 8-)

  6. #46
    Erfahrener Benutzer Fleißiges Mitglied Avatar von Robotniks
    Registriert seit
    13.10.2007
    Beiträge
    175
    Grundsätzlich geht es um Indoornavigation und welche Möglichkeiten man anwenden könnte oder bereits von euch mit Erfolg umgesetzt wurden.

  7. #47
    Erfahrener Benutzer Begeisterter Techniker Avatar von Andre_S
    Registriert seit
    26.06.2005
    Beiträge
    360
    Hallo,

    darf ich mal abschweifen... ?

    Die Frage die sich mir stellt ist eher, "was dann"?

    Aktuell kann mein Bot sich im unbekannten Raum bewegen um diesen zu erkunden und dabei z.B. günstige Positionen zur Überwachung der Räumlichkeiten zu finden. Dies funktioniert auch recht gut und so kann er auch zufällig die Überwachungsposition ändern.
    Kleine Spielchen, sich dem Bot unentdeckt nähern oder das dieser jemanden lokalisiert, kann man damit schon recht gut durchführen.

    Ich hatte im Vorfeld auch bereits versucht zielgerichtet Punkte "anzufahren", mal unabhängig dass dies nicht immer von Erfolg gekrönt war und der Bot diese teilweise nur sehr umständlich und zeitaufwendig erreichte, kommt nun mein eigentliches Problem.
    Was mache ich an diesem Punkt?

    Selbst wenn der geplante Manipulator schon verbaut wäre, kommt für mich jetzt erst der richtig schwierige Teil, nämlich Objekterkennung und greifen von Objekten, die sich aber leider im tägl. Leben kontinuierlich verändern.
    Um "nur" etwas zu transportieren um dann gezielt eine Person anzufahren benötige ich wiederum die Karte nicht, da ja auch Personen dynamisch sein sollten.

    Also überlege ich ernsthaft ob der mir aktuell fehlende Laserscanner wirklich Vorteile bringt, ausgenommen der besseren und schnelleren Navigation, sowie der genaueren Erfassung einer Ebene des Raumes.
    Wenn es jetzt ein Fußballroboter, Staubsauger etc. wäre,... aber so!?


    Gruß André

  8. #48
    Erfahrener Benutzer Fleißiges Mitglied Avatar von Robotniks
    Registriert seit
    13.10.2007
    Beiträge
    175
    Die Navigation muss ja nicht Punktgenau sein, reichen würde zum Großteil eine Genauigkeit von sagen wir 20cm Radius.

    Der Vorteil einer Karte ist natürlich so schnell und kostengünstig (Akku Laufzeit) von Punkt A zu Punkt B zu kommen.

    Anwendungen:
    - Raumübergreifen Navigieren
    - Telepräsenz, man klickt nur auf den Ort und der Roboter fährt da hin, statt ihn mühevoll zu steuern
    - Abfahren von Routen zur Überwachung der Wohnung
    - schnelles auffinden der Ladestation (Raumübergreifend)
    - Koordiniertes umherfahren zur Simulation von Selbstständigkeit (Lebensimulation)
    - Anfahren bestimmer Orte um dort Gegenstände aufzunehmen (natürlich mit Manipulator über CV -> nicht einfach und mühevoll *lach*)
    - da könnte man natürlich weitermachen...

    Grüße

    - - - Aktualisiert - - -

    PS: Andre_S: Wie fährt dein Roboter zur Zeit?
    Habe mir die Videos angeschaut, das kannst Du mit RWB auch schon machen

    Aber tolle Arbeit Andre!

  9. #49
    Erfahrener Benutzer Begeisterter Techniker Avatar von Andre_S
    Registriert seit
    26.06.2005
    Beiträge
    360
    Hallo

    erst mal besten Dank für Deine Aufzählungen!
    Auch für die Einschätzung meines Projektes, welche ich auch gern für deine Leistungen an Dich zurück geben möchte!

    Im großen und ganzen sind mir die Vorteile schon bewußt, allerdings wenn ich mal ganz subjektiv an die Sache gehe, also nur mit dem Möglichkeiten meines Bots sieht es dann in etwa so aus.

    Raumübergreifend navigieren

    - Geht auch ohne Karte, soweit dies nicht ausartet. Die Tür kann ich mit den aktuellen Sensoren ermitteln, (wenn Sie zu sind ist sowieso ende...) sowie Richtung und Überschreitung merken.
    Telepräsenz
    - macht Sinn, aber nicht für mich privat.
    Routen abfahren zur Überwachung
    - OK ist sinnvoll, allerdings bei meinem Bot eher nicht, da bei Bewegung die Erkennung außer mit Kinect (Person ident.) kaum möglich ist. Radar/Licht/PIR/TON alles schlechte Vorraussetzungen für Bewegung, deshalb vermeide ich dieses.
    schnelles auffinden der Ladestation
    - sehr guter Hinweis, fehlt aktuell völlig,... ich stecke noch per Hand an.
    Koordiniertes umherfahren zur Simulation von Selbstständigkeit (Lebensimulation)
    - geht erst mal auch ohne Karte.
    Anfahren bestimmer Orte um dort Gegenstände aufzunehmen (natürlich mit Manipulator über CV -> nicht einfach und mühevoll *lach*)
    - Oh je,... wird noch Jahre dauern oder realistisch nie werden,... jedenfalls nicht mit Eigendynamik der Objekte.

    Unabhängig davone denke ich schon, dass ich noch einen Scanner im Winter einbauen werde. Die Vorteile liegen schon auf der Hand...
    Die Homepage ist leider nicht mehr ganz aktuell, habe ich ein wenig vernachlässigt, (Der Bot ist ja inzwischen auch nicht mehr verkabelt...) ich hoffe im Winter mehr Zeit zu finden.

    Ich kann nicht Einschätzen ob RWB alles so könnte wie es im Augenblick möglich ist. Wenn alle Module/Sensoren frei konfigurierbar sind, dass heisst E/A Bedingungen komplett frei definiert werden können, die Module in unabhängigen Threads arbeiten, die erzeugten Informationen wiederum in allen Modulen aktiv verfügbar sind, ...ja klar warum nicht.
    Stelle ich mir aber nicht so einfach vor... Denke nur an ein Beispiel von meinem Bot -> ELV I²C Adapter mit 3 SRF08 und Kompass, wobei nicht nur die zyklischen Werte interessant sind sondern auch Konfig und Fehlerbehandlung, sowie Anpassung der Werte an Bot, also Position/Größe/Richtung.

    Was meinst Du mit:
    Wie fährt dein Roboter zur Zeit?


    Gruß André

  10. #50
    Erfahrener Benutzer Fleißiges Mitglied Avatar von Robotniks
    Registriert seit
    13.10.2007
    Beiträge
    175
    Hallo

    erst mal besten Dank für Deine Aufzählungen!
    Auch für die Einschätzung meines Projektes, welche ich auch gern für deine Leistungen an Dich zurück geben möchte!

    ---> Danke!

    Im großen und ganzen sind mir die Vorteile schon bewußt, allerdings wenn ich mal ganz subjektiv an die Sache gehe, also nur mit dem Möglichkeiten meines Bots sieht es dann in etwa so aus.

    Raumübergreifend navigieren
    - Geht auch ohne Karte, soweit dies nicht ausartet. Die Tür kann ich mit den aktuellen Sensoren ermitteln, (wenn Sie zu sind ist sowieso ende...) sowie Richtung und Überschreitung merken.

    ---> zu ist immer blöd da kann man dann aber per Sprachausgabe einen Hinweis geben, sofern jemand da ist

    Telepräsenz
    - macht Sinn, aber nicht für mich privat.

    ---> doch alleine wenn du von der Arbeit aus zuhause was nachschauen willst

    Routen abfahren zur Überwachung
    - OK ist sinnvoll, allerdings bei meinem Bot eher nicht, da bei Bewegung die Erkennung außer mit Kinect (Person ident.) kaum möglich ist. Radar/Licht/PIR/TON alles schlechte Vorraussetzungen für Bewegung, deshalb vermeide ich dieses.

    ---> aktive Ortung ist immer etwas schwierig aber man kann dazwichen kurz stehenbleiben oder mit Radar eine Ortung von Bewegungen durchführen (Robotergeschwindigkeit zur Objektänderung --> Differenz)

    schnelles auffinden der Ladestation
    - sehr guter Hinweis, fehlt aktuell völlig,... ich stecke noch per Hand an.

    ---> ein muss für die Objektüberwachung im Urlaub

    Koordiniertes umherfahren zur Simulation von Selbstständigkeit (Lebensimulation)
    - geht erst mal auch ohne Karte.

    ---> Sieht immer bissl unkoordiniert aus *lach* zumindest bei mir


    Anfahren bestimmer Orte um dort Gegenstände aufzunehmen (natürlich mit Manipulator über CV -> nicht einfach und mühevoll *lach*)
    - Oh je,... wird noch Jahre dauern oder realistisch nie werden,... jedenfalls nicht mit Eigendynamik der Objekte.

    ---> würde ich nicht sagen, eine kleine Datenbank mit bestimmten Objekten mit CV ist kein größeres Problem mehr... lernen von objekten und was und wie er es machen soll schon...

    Unabhängig davone denke ich schon, dass ich noch einen Scanner im Winter einbauen werde. Die Vorteile liegen schon auf der Hand...
    Die Homepage ist leider nicht mehr ganz aktuell, habe ich ein wenig vernachlässigt, (Der Bot ist ja inzwischen auch nicht mehr verkabelt...) ich hoffe im Winter mehr Zeit zu finden.

    ---> Scanner wie das RPLIDAR (glaub so heißt das von Seed) ist schon cool :-D bin gerade darüber die Seed Module für ein anderes Projekte einzupflegen und hoffe das ich bald so ein putziges LIDAR am Tisch habe :-D

    Ich kann nicht Einschätzen ob RWB alles so könnte wie es im Augenblick möglich ist. Wenn alle Module/Sensoren frei konfigurierbar sind, dass heisst E/A Bedingungen komplett frei definiert werden können, die Module in unabhängigen Threads arbeiten, die erzeugten Informationen wiederum in allen Modulen aktiv verfügbar sind, ...ja klar warum nicht.

    ---> Da ich nur von den Videos her sehe was er kann sollte das RWB schon können. Du kannst die Sensoren frei konfigurieren und die I/Os, ADCs, PWM ect. über die Graphische Visualisieren (HMI) und mit RoboScript automatisieren einfach gesagt.
    Richtiges Multithreading hatte ich schon im Kopf aber bringt bei RBW derzeit nicht so viel, zumindest nichts bei den µC Aktionen da eh vor der Verarbeitung die Daten erst eingelesen werden müssen. Computer Vision, GPS und andere Komponenten die
    nicht über die µC Hardware laufen Parallel, müssen aber je nach Programm auch auf Ereignisse und neue Werte von anderen Komponenten warten. Es bringt ja nichts die Operation 100x mit allten Werten auszuführen.


    Stelle ich mir aber nicht so einfach vor... Denke nur an ein Beispiel von meinem Bot -> ELV I²C Adapter mit 3 SRF08 und Kompass, wobei nicht nur die zyklischen Werte interessant sind sondern auch Konfig und Fehlerbehandlung, sowie Anpassung der Werte an Bot, also Position/Größe/Richtung.

    ---> Sowas kommt jetzt alles ins Navi-Modul. z.B. Odometrie: Der User gibt dann folgende Parameter an... Radabstand, Raddurchmesser, Impulse pro Umdrehung, IMU ja/nein, Kompass (CMPS03, 09, 10) ja/nein ect.) so sind auch die anderen Module aufgebaut.

    Was meinst Du mit:
    Wie fährt dein Roboter zur Zeit?

    ---> Der große derzeit nicht, habe zwei kleine Plattformen zum Softwareentwicklen am laufen. Bis Ende des Jahres sollte die Homepage fertig sein und ein paar Einsteiger Videos und die erste Release... hoffe ich :-D



    - - - Aktualisiert - - -

    PS: Mich freut es immer wieder wenn andere "Maker" auch so fleißig basteln, forschen und experimentieren

    Low-Level Robots gibts schon genug, es wird Zeit für größeres *lach*

Seite 5 von 6 ErsteErste ... 3456 LetzteLetzte

Ähnliche Themen

  1. Wie macht ihr Skalen auf Geräten?
    Von Björn im Forum Allgemeines zum Thema Roboter / Modellbau
    Antworten: 16
    Letzter Beitrag: 12.03.2009, 00:31
  2. Programmablauf skizzieren, wie macht Ihr das?
    Von Gock im Forum C - Programmierung (GCC u.a.)
    Antworten: 18
    Letzter Beitrag: 07.06.2008, 11:47
  3. Wie macht man das ordentlich?
    Von Biometriker im Forum Elektronik
    Antworten: 23
    Letzter Beitrag: 18.01.2008, 17:57
  4. gps datensätze auswerten wie macht ihr das
    Von yak im Forum Basic-Programmierung (Bascom-Compiler)
    Antworten: 13
    Letzter Beitrag: 02.10.2007, 21:29
  5. Debugging - Wie macht Ihr das??
    Von dl1akp im Forum Basic-Programmierung (Bascom-Compiler)
    Antworten: 3
    Letzter Beitrag: 29.09.2006, 19:52

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

Labornetzteil AliExpress