Danke schön, das sind gute Einstiege. Wenn auch tiefer als ich es befürchtet hätte. Jetzt brauche ich nur noch die Zeit, mich da einzuarbeiten.

Vielleicht frage ich mal anders herum: Was brauche ich denn an Sensorik, wenn ich z.B. einen Roboter bauen will, der bei mir im Garten auf der Wiese herumfährt und Löwenzahnblüten (gelb auf grünem Hintergrund) zerhäckselt. Ich weiß, das ist jetzt ein blödes Beispiel. Aber mir geht es im ersten Anlauf nicht um Objekterkennung, sondern Erkennung von Farbflecken. Im obigen Beispiel stelle ich mir eine Kamera mit geringer Auflösung vor, die mir ein grobes Bild liefert, in dem die Software die Koordinaten der gelben Haufen erkennen kann.

Wenn ein Roboter eine leicht nach unten gerichtete Kamera angebaut hat, dann wäre der Metacode doch nicht viel komplexer als so:

(Die Punkte mußten sein, weil führende Freizeichen von der Foren-Software wohl wegoptimiert werden.)

----------------------------------------
While (kein gelb zu finden)
{
..Fahre geradeaus
..If(nur noch unten grün)
..{
....um z.B. 100° drehen
..}
}

While (gelb noch nicht im Fadenkreuz (d.h. Mitte unten auf der Bildmatrix))
{
..Wenn gelb im Bild zu weit links, dann drehe nach links
..Wenn gelb im Bild zu weit rechts, dann drehe nach rechts
..Wenn gelb im Bild zu weit oben, fahre vorwärts
}

Starte Häcksler und tu das Notwendige
-----------------------------------------

Nochmal die Frage: Was für eine optische Sensorik wäre dafür denn geeignet? Ich hätte eigentlich gerne bis zum Sommer meinen Cocktailtomaten-Ernter fertig.

Viele Grüße, Dayzz