Was in der bisherigen Diskussion der Inttelligenzimplementation fehlt ist WACHSTUM !

Ein Säugetier kommt unerfahren, mit kleinem Kopf auf die Welt. Während dem Aufwachsen sammelt es Erfahrung. Die Anzahl seiner Gehirnneuronen vermehren sich und werden aufgrund der Erfahrungen verschaltet.

Wie im anderen Thread ( https://www.roboternetz.de/phpBB2/vi...c.php?p=216627 ) am Beispiel der Affen sehr gut verdeutlicht, lernt ein Säugetier aus der Wiederholung von Umgebungsereignissen.
In der frühen Entwicklungsphase eines Säugetieres wiederholen sich einfache Ereignisse z.B. Wechsel von Hell/Dunkel, Kantenstrukturen wiederholen sich. Diese einfachen Ereignisse bilden bestimmte einfache Neuronenstrukuren aus. In späteren Lernschritten werden die einfachen Strukturen wiederekannt und hierarchisch in Übergeordnete Lernvorgänge mit eingebunden.

Die Diskussion über Roboteralgorithmen nimmt oft den gleichen Verlauf: Es wird eine Problem diskutiert, man denkt über einen Algorithmus nach und setzt diesen dann um. Im etwas erweiterten Fall implementiert man eine adaptive Regelung, sodass sich die Gewichte in einem Lernvorgang an eine vorgebenes Optimierungsziel anhand der vorhandenen Sensor/Aktor Gegebenheiten angepasst werden.

Was dieser Art von Algortihmus aber fehlt, ist die Möglichkeit, über die vorgebenen Ablaufstrukur hinauszuwachsen und eine hierachisch wachende Erkenntnisstruktur aufzubaunen.