Ich habe schon fast zwei Hand voll HY-SRF05. An Wänden langhangeln - nicht wirklich. Er soll sich an Hindernissen generell orientieren. Im Grunde so, wie wir das auch tun. Wenn wir die offene Tür sehen, schwenken wir rechts oder links und bewegen uns hindurch. So ein ähnliches Prinzip, nur nicht mit komplexen Bildern, soll es werden. Den Roboter an die Hand nehmen, zu einem Punkt in der Wohnung führen, diesen speichern, dann zu einem andern Punkt in der Wohnung führen, diesen auch speichern. Danach soll er diese beiden Punkte wechselseitig aufsuchen. Können auch mehrere Punkte sein.der Roboter sich also nur an Wänden entlang hangelt, sollte ein schwenkbarer(-135...+45°) IR-Abstandssensor mit kurzer Reichweite (Sharp/VL53L0X/VL53L1X) für die Wegfindung reichen
MfG
![]()
Wenn Du ein wenig Geld ausgeben willst, kannst Du es mit UWB-Baken
versuchen:
https://www.decawave.com/product/dwm1000-module/
Hier gibt's eine Auswertung:
https://www.ardumower.de/index.php/d...echnologie-uwb
Spiking Neurons, the next step: https://www.roboternetz.de/community...en-Intelligenz
Also, es würde mich wundern, wenn es dazu nicht massenweise Literatur gäbe. Ergebnis einer kurzen Google-Bemühung:
Grundlegendes aus Wiki. ...und hier.
Hier ist was Grundlegendes.
Hier gehts nochmal etwas genauer zur Sache.
Oder hier... noch etwas spezieller.
Oder hier.
Guten Morgen,
Beschreibungen zu Verfahren und Ansätzen der Fusion, von Sensordaten, wurden hier im Forum auch schon oft besprochen. Ich habe im Wesentlichen dieselben Links im Netz gefunden. Möglich wäre es, mehrere Sensoren zu verwenden, dann müssen die Daten zusammengebracht werden. Das habe ich im Wesentlichen nicht, sondern für jede Richtung einen Sensor, der mindestens eine relative Entfernungsmessung erlaubt. Aus den Sensordaten versucht man die Position des Roboters im Raum zu bestimmen. Einer Positionsbestimmung muss irgendein System zugrunde liegen, eben landläufig eine Karte. Anhand einer Karte kann ein Weg zum Ziel bestimmt werden. Hier sind dem Erfindungsreichtum eigentlich kaum Grenzen gesetzt. Ich Suche vor allem Möglichkeiten, ohne dies auszukommen.
Jeder von uns kann seine Wohnung aus dem Kopf skizzieren. Aber keine maßstabsgetreue Zeichnung anfertigen. Es sei denn, er hat die Wohnung vorher vermessen und sich die Maße gemerkt. Also gibt es Orientierungsverfahren in Räumlichkeiten, die wir intuitiv anwenden. Und dazu merken wir uns dann bestimmte Eigenschaften oder relative Gegebenheiten, die wir aus dem Gesehenen entnehmen, um uns zu orientieren. Auch wenn wir einen Raum nicht vermessen haben, können wir doch einen bestimmten Punkt in ihm wiederfinden, an dem wir zuvor schon einmal waren. Waren wir öfter dort, haben den Punkt öfter gefunden, gelingt das Wiederfinden besser. Gelingen tut uns das vor allem über Bilder, die wir erfassen und auswerten. Wenn wir, wie im Dunkel, nicht sehen können, wird es weitaus schwieriger. Je mehr Details wir erkennen können, je besser gelingt uns der Vorgang der relativen Orientierung. Allerdings ist mir bisher unklar, welche Detailgenauigkeit dafür notwendig ist. Größere Entfernungen müssen nur geschätzt werden, wie: "ich bin weit weg" oder "ich bin nah dran". Bin ich nah an einer Wand oder sonstigem Hindernis, dann genügt ebenfalls eine Schätzung zur Kollisionserkennung, wie: "ich bin ca. 10cm entfernt" oder "gleich stoße ich an". Ich kann meine genaue Position in der Regel nicht bestimmen, eine relative Position, die zur Orientierung genügt, aus dem Gedächtnis heraus, aber schon, wenn ich meine Position in einer Karte eintragen sollte. Wir zeichnen aber in der Regel keine Karte, wenn wir uns durch Räume bewegen. So Verfahren, wie sich an einer Wand entlang zu hangeln, sind da schon ganz gut und zielen in die Richtung, der Orientierung ohne vorliegende Karte und genaue Positionsbestimmung.
MfG
![]()
Ergänzend, zur räumlichen Orientierung, ein Link.
Zur Systematik:
a) Sensoren mit internen Referenzen (z.B. Odometrie, Gyro, Accelerometer)
b) Sensoren für relative externe Referenzen (US, IR, LIDAR)
c) Sensoren für absolute externe Referenzen (Kompass, GPS, Baken)
1.) wenn der Raum exakt (!!) bekannt ist, kann man die Position über a) und b) mit einer gewissen Wahrscheinlichkeit per Monte-Carlo-Filter (=Partikelfilter) berechnen (Kompass allerdings hilfreich)
https://www.youtube.com/watch?v=Rj7s...layer_embedded
2.) wenn der Raum unbekannt ist oder viele zufällige Hindernisse enthält (SLAM), braucht man zu a) und b) auch zusätzlich c)
Um mehrere Sensoren entsprechend ihrer unterschiedlichen Spezifität und Sensitivität zusammenzufassen, verwendet man statistische Methoden zur Sensor-Fusion (z.B. den Extended Kalman Flter).
Für Baken in mehreren Räumen mit Wänden dazwischen haben sich z.B. Dezimeterwellen mit 4-8 Baken (anchors) bewährt, s. pozyx
https://www.pozyx.io/?gclid=EAIaIQob...SAAEgJTNvD_BwE
https://www.pozyx.io/shop/product/creator-kit-lite-67
Geändert von HaWe (08.12.2019 um 10:24 Uhr)
Der Link für die Auswertung funktioniert nicht mehr. Ich habe bisher nichts gefunden. Die Arduino-Bibliothek schon. Bloß, ich muss mir das erst mal bildlich vorstellen können. Dafür frage ich mich gerade, welche Daten man von so einer Bake bekommt.
In einem Video habe ich gerade gesehen, dass man da offenbar die Entfernung und die Signalstärke bekommt. Mehr muss ich erst mal nicht wissen.
MfG
Geändert von Moppi (14.11.2020 um 17:18 Uhr)
Lesezeichen