Grügott und Hallo,

ich hab nach einiger Recherche eine vielleicht etwas verrückte Idee. Ich möchte meinem geplanten Roboter eine Stereo-Vision verpassen, wo die Bilder zweier Kameras ausgewertet und daraus eine Depthmap erstellt wird. Nun sind die aktuellen Algorithmen zwar nicht "schlecht" bei der Erkennung der Daten, aber sie verlangen nach ordentlich Power. Und da man normalerweise auf einen mobilen Bot keinen 3Ghz Pentium sitzen hat, um rund 10 Bilder/sek zu bekommen, Suche ich nach einer anderen Lösung.
Im Web bin ich heute auf einigen Papers gekommen, wo ein solches System in FPGAs oder mittels DSPs (von TI) implementiert wurde, wobei die Daten direkt von den Kameras angeliefert werden und mit bis zu 100 Bildern/sek (bei 640x480px) ausgewertet werden. Und das ganze bei erheblich weniger Saftverbrauch als eine CPU.

Nun meine Frage: Ist so ein System für einen bastler (oder eine Community von bastlern ) überhaupt machbar? Ich meinerseits kann zwar recht gut programmieren, wie ich allerdings so ein FPGA z.B. mit einen ARM oder AVR-COntrollerboard sinnvoll ergänzen soll (oder umgekehrt) wüsste ich nicht. Auch die "beste" Lösung (FPGA oder DSP oder ...?) könnte ich jetzt nicht wirklich ausmachen. Toll wäre, wenn man als Community so ein Projekt unter der GPL entwickeln und die fertige Hardware + drauf laufender Software verkaufen könnte....

Kommentare?

Servus

Lukas