@Frank: Also die Darstellung besteht in meinem Proggy aus den Schwarz gestreiften Rechtecken. Das Programm zeichnet in einer virtuellen Bitmap einen schwarzen Kreis, wenn der Sensor einen Impuls abgibt. Da werden also die Sensorimpulse 1 zu 1 übertragen. Dann wird daraus ein Bild mit niedriger Auflösung.Das ist die Karte, wie sie die K.I. "sieht". Wie du siehst, ist die Auflösung mit 32x20 sehr niedrig. Aber genau darin liegt die Stärke des ganzen. Selbst wenn der Sensor z.B. ein 5cm breites Stück in der Wand nicht als Hindernis erkennt, wird der Roboter nicht versuchen durch die Wand zu fahren. Diese Löcher werden also gestopft. Das gilt auch für Objekte, in denen wirklich Löcher sind. Wenn jetzt der Weg total versperrt ist, weil die Auflösung so niedrig gewählt wurde, dass nahe beieinanderliegende Objekte als eines angesehen werden, dann wird die Wegplanung über A* abgeschaltet. Dann sind nur noch die "Reflexe" des Roboters aktiv, die ihn da raus manövrieren. Am besten ist es denke ich, wenn man zwischen verschiedenen Leveln unterscheidet. Das ist ja beim Menschen auch so. Wir planen eine Bewegung, aber plötzlich kommt ein Reflex dazwischen und die Bewegung wird abgebrochen und eine neue eingeleitet.
Ach ja, das Proggy hab ich mal geupdatet. Jetzt sollte es ein paar weniger Laufzeitfehler etc. geben. Ich denke die PRoblematik kann man sich ganz gut klarmachen, wenn man mit den Werten etwas rumspielt (Rasterauflösung etc.).

@wizzard: dann bin ich ja beruhigt*g* Ich bin mir allerdings nicht sicher, ob eine 3D-Erkennung mit zwei Kamerabildern nicht leichter wäre. Da hat man nämlich noch Farbwerte, die man vergleichen kann.