Du kannst dir ja mal das FANN-Projekt anschauen. Das ist eine bereits ziemlich unfangreiche Bibliothek für künstliche neuronale Netze. Man kann beliebe Netzgrößen anlegen, trainieren, speichern, laden, Aktivierungsfunktionen wechseln usw.
Und wenn das Ausführen zu langsam wird, kann man es sogar im Fixpunktformat berechnen.
Ich hab die Lib für den CortexM4 cross-compaliert und bin sehr zufrieden mit der Geschwindigkeit und dem Funktionsumfang!
Was mit FANN leider nicht möglich ist sind LSTMs. Aber die können auch nicht mehr ohne weiteres mit backpro. trainiert werden und brauchen noch mal mehr Rechenpower, um einen akzeptablen Gradientabstieg zu berechnen...
Der Gedanke die Ausgänge rückzukoppeln ist okay, jedoch erreicht man meiner Meinung nach bessere Ergebnisse, wenn man eine kleine Eingangshistory in die Inputs gibt. Also Position gerade und Position bei der letzten Iteration. Googles Deep Mind nimmt z.B. beim Atari spielen die letzten 4 Bilder als Eingang.
Insgesamt schön das sich noch andere Leute für das Thema interessieren... Weiter so
Lesezeichen