Hey, das hab ich auf anhieb verstanden !!!
Das mit einem Netzwerk, das ständig weiterlernt ist ja so ne Sache.
Bei mir gehe ich erstmal von einem Netzwerk, das nur einmalig trainiert wird aus,um die Sache zu vereinfachen.
Wenn das Netzwerk jedoch ständig weiterlernt, muss ja irgendwoher der Feedback kommen ob der Output richtig oder falsch ist. Das funktioniert beim Menschen ja auch nicht anders. Ohne Feedback kein Lernen.
Um das Netzwerk selbstlernend zu machen muss ich ihm die nötige Sensorik geben, anhand derer er seine Ergebnisse überprüfen kann.
Dazu bedarf es einer Art Wissensbasis die im vermittelt welche Sensorischen Informationen gut oder schlecht sind. Diese Sensorischen Richtwerte sind eher statischer Natur (damit beziehe ich mich auch so etwas wie einen Schmerz-Sinn).
Desweiteren benötigt so ein Netz natürlich auch gewisse Zielsetzungen die es erfüllen muss (vgl. menschliche Triebe und Bedürftnisse).
Wenn man da weiter ausschweift würde ich den Begriff der Diversifikation einwerfen. Ein einzelnes ist zwar schön und gut, mehrere Netze können jedoch bessere Ergebnisse erzielen. Und da beziehe ich mich auf eine Art natürliche Auslese. Ein Netz muss nicht nur lernen können, es muss auch sterben können. Das ist so wie wenn man mehrere Netze testet (mit Verschiedenen Einstellungen) und am Ende die behält, die die besten Ergebnisse gebracht haben.
Dieses ist natürlich streng Zielorientiert. Unser Ziel ist (lowlevel) überleben.
----
Sich selber fortpflanzende Netze (Reproduktion) die aussterben wenn Ihre Anpassungsfähigkeit umgebungsbedingt nicht ausreichend sind.
Umgebungsbedingt in dem Sinne, das verschiedene Netzmodelle für verschiedene Aufgaben besser geeignet sind und für andere wiederum nicht.
----
So das reicht fürs erste. Das Thema läßt sich ja ewig fortführen.
(degeneriert dieses Forum zu einem Techno-Philosophischem Forum ???)
Lesezeichen