Ne, das verstehst Du falsch. Ich gebe zu, dass da das Beispielbild ein bisschen ungluecklich ist und leider habe ich das Ding demontiert und kann deshalb keine weiteren Szenerien aufnehmen, die mal ein komplexeres Setting zeigten.
Der Algorithmus sollte in der Hinsicht nicht taeuschbar sein und hat allein bei manchen Settings Probleme mit Abschattungen, die aber auch nicht zu Fehlern sondern nur zu Regionen ohne Daten fuehren sollten.
Deine Ideen zur Taeuschung hoeren sich so an, als verwende der Algorithmus den Horizont und die Hoehe im Bild als Clue fuer Entfernung. (Genau so funktionierte unser erster Roboter, der nur mit der Kamera ausgestattet war. Es schraenkt den Einsatz aber doch sehr deutlich auf "Laborumgebungen" ein.)
Tatsaechlich ist es aber mehr eine aktive Triangulation. Der Laser strahlt in einem gewissen Winkel ab, die Kamera nimmt diesen Strich an bestimmten Bildpunkten wahr. Aus Kenntnis der Geometrie von Laser und Kamera kann man dann auf die Distanz der Bildpunkte schliessen (und wie man im Bild sieht, wurde dazwischen konstant interpoliert). Damit das robust funktioniert ist es wichtig, eine gewisse Distanz zwischen Laser und Kamera zu haben. (Deswegen die exponierte Montage es Lasers)
Gruss, Joern