Ein paar Anmerkungen:
- Du kannst die 3D-Kamera auch für den LegDetector benutzen. Dafür wird ein Laserscanner "simuliert" indem vom Tiefenbild nur n horizontale Zeiten (z.B. nur die mittlere) verwendet werden.
- Bei der Verwendung von ROS kannst du dir die direkte Programmierung für die RealSense sparen, da ROS einen Treiber mitbringt.
- Ich hab zwar auch eine ältere RealSense, bisher allerdings wenig verwendet. Ich verwende immer noch die Asus Xtion. Meine Erfahrung ist aber bisher, dass sich beide Techniken bei direktem Sonnenlicht ähnlich verhalten: Ein Totalausfall.
- Ich habe auch 3D-Kamera und Sonarsensoren an meinem Roboter. Zur "Sensor Fusion" verwende ich aber eine einfache OR-Verküpfung. Das dazu passende Standardwerkzeug unter ROS ist die layered costmap.
Lesezeichen