Die Idee mit dem Neuronalen Netzwerk sollte besser nochmal durchdacht werden
Ein Neuronales Netz ist kein universaler Problemloeser, dem ich einfach zwei Bilder reinstopfe und dann kommt hinten die Entfernung raus ...

Hauptproblem des ganzen Stereosehens ist doch immer, die zusammengehoerigen Punkte in den beiden Bildern zu finden. Sprich: Ein Punkt aus der 3D-Welt erscheint einmal im linken und einmal im rechten Bild. Unter bestimmten (normalerweise gegebenen) Umstaenden (beide Bildebenen liegen in einer Ebene, kein vertikaler Versatz, ...) sind die beiden y-Koordinaten in beiden Bildern in etwa gleich. Nur die x-Koordinaten unterscheiden sich. Anhand der Differenz der x-Koordinaten kann man per Triangulation die Entfernung des Punktes berechnen (Abstand der Kameras zueinander ist bekannt, ...)
Natuerlich werden die y-Werte nicht wirklich gleich sein (das ist der Idealfall) sondern einige wenige Pixel auseinander liegen.

Hauptproblem ist also die zusammengehoerigen Punkte zu finden.

Uebrigens gibt es kommerzielle Software, die bei Bildern der Groesse 160x120 Frameraten von 100 Hz und mehr erreichen. Allerdings verwenden die dann auch patentierte Algorithmen Obige Zahlen sind vom SRI Small Vision System, auf einem Pentium III 500 MHz.