PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Analog Neuron



stochri
25.11.2019, 05:07
Kenn hier schon jemand das Neuronenrätsel oder hat es gar schon jemand gelöst?

https://www.elektronik-labor.de/Notizen/Neuronen.html

Searcher
26.11.2019, 17:56
Kenn hier schon jemand das Neuronenrätsel oder hat es gar schon jemand gelöst?

https://www.elektronik-labor.de/Notizen/Neuronen.html

Kannte ich noch nicht. In LT-Spice läuft schon "etwas" bei mir. Lauflicht mit ungleichen Abständen zwischen den LEDs aber gleichmäßigen Wiederholungen. Braucht eine Anlaufzeit von etwa 1,2 Sekunden.

Der Taktgenerator nach elektronik-labor liefert ca 900µs lange Pulse mit etwa 51Hz. 3 Neuronen mit 6 invertierenden Schmitt-Triggern plus 2 invertierende Schmitt-Trigger für den Pulsgenerator.

Ob das als Lösung durchgeht?:
34535

Gruß
Searcher

Moppi
26.11.2019, 18:14
Hi searcher,

tolles Tool, kannte ich noch nicht. Gerade das erste Mal installiert. Bin mal neugierig; wenn es gut zu handhaben ist, kann ich ein paar Sachen ausprobieren.



MfG

stochri
27.11.2019, 04:26
Searcher:

Ob das als Lösung durchgeht?:
Das sieht schon mal gut aus. So weit ich weiß, kann man auch einen gleichmäßigen Abstand erreichen.
Ich habe mir schon überlegt, ob man nicht die Kondensatoren größer machen sollte, damit das Ganze langsamer läuft und man das Blinken auch gut sieht.

Moppi:

tolles Tool, kannte ich noch nicht. Gerade das erste Mal installiert. Bin mal neugierig; wenn es gut zu handhaben ist, kann ich ein paar Sachen ausprobieren.
LtSpice ist ziemlich genial: Einfach zu bedienen, die Simulation funktionieren unglaublich gut. Man kann es sogar unter Linux verwenden, wenn man "wine" installiert.

Ich frage mich, ob es irgendwo einen Platz gibt, wo die ganzen Lösungen geposted werden können, damit man die genialen Lösungen vergleichen kann.

Moppi
27.11.2019, 07:20
stochri, zurzeit blicke ich nur bei der genauen Funktion noch nicht durch. Wobei sicher erwähnenswert ist, dass ich das Programm auch erst ein Mal gestartet habe, um mir einen Eindruck zu verschaffen. Mir fehlt aber jetzt eine Anlernphase, mal sehen...


Ich frage mich, ob es irgendwo einen Platz gibt, wo die ganzen Lösungen geposted werden können, damit man die genialen Lösungen vergleichen kann.
Hier?
Du hast doch das Thema erstellt. Wenn ein User seine Lösung hier in einem Beitrag mitteilt, dann kopiere das und füge das in Deinem ersten Beitrag unter Lösungen ein.
Wäre eine Möglichkeit.

MfG

Searcher
27.11.2019, 13:06
...So weit ich weiß, kann man auch einen gleichmäßigen Abstand erreichen.
Ich habe mir schon überlegt, ob man nicht die Kondensatoren größer machen sollte, damit das Ganze langsamer läuft und man das Blinken auch gut sieht.
Die drei LEDs leuchten bei mir nacheinander auf. Wenn alle drei einmal geblitzt haben, gibt es eine längere Pause und es beginnt die Serie von vorn. Also 1, 2, 3, Pause, 1, 2, 3, Pause. Also nicht 1, 2, 3, Pause 3, 2, 1, Pause. ..

Durch verändern der Stärke der "hemmenden Synapsen", die in meinem Entwurf das ungewollte Blitzen der anderen beiden LEDs unterdrücken, krieg ich jetzt fast gleich lange Unterbrechungen zwischen den LEDs hin. Mit Potis, später, vielleicht heute Abend, im realen Aufbau hoffe ich keinen Unterschied mehr zu sehen. Im elektronik-labor wurden keine hemmenden Synapsen gezeigt. Bin gespannt, wie die dort realisiert sind.

Verlängerung der Leuchtzeiten: bin kein Elektronikguru. Deshalb hab ich einfach im LT-Spice ausprobiert, ob man durch Änderung der Kondensatoren zu längeren Blitzdauer kommt. Danach mußte ich auch viele Widerstandswerte verändern um wieder ein adäquates Ergebnis zu bekommen - zumindest in meinem Entwurf. Statt dessen habe ich an die Ausgänge der Neuronen, zB an U7 eine Pulsverlängerungsschaltung mit der Diode, Widerstand/Kondensator und einem weiteren Schmitt-Trigger angehangen. Blitz ist damit etwa 35ms lang. Das letzte Gatter U9 invertiert. LED müßte also zwischen Ausgang und Vcc geschaltet werden und nicht mehr Ausgang und GND. Mal sehen, wie das dann in der realen Schaltung aussieht.

34536



Ich frage mich, ob es irgendwo einen Platz gibt, wo die ganzen Lösungen geposted werden können, damit man die genialen Lösungen vergleichen kann.

Ich denke auch, daß man die Lösungsvorschläge hier im thread als 7-zip Datei hinterlassen könnte. Wird die Datei mit Paßwort verschlüsselt, eröffnet das anderen Rätselfreunden auch unbeeinflußte Knobelstunden. Das Paßwort kann dann nach Verabredung veröffentlicht werden oder vorab dem TO, also Dir stochri, mit privater Nachricht gemailt werden.


Hi Moppi ;),
LT-Spice hat mich auch einige Einarbeitungszeit gekostet und stehe gefühlt immer noch am Anfang. Man findet aber im Internet viele Quellen, die sich damit beschäftigen. Ich nehme für digitale Simulationen auch lieber etwas einfacheres. Hier, wo es auf analoges Verhalten ankommt, komme ich leider nicht drumrum. Was Besseres mit der Verbreitung hab ich noch nicht gefunden.

Gruß
Searcher

Searcher
28.11.2019, 13:14
Das Lauflicht läuft auf dem Steckbrett. https://youtu.be/gkzTE2bam1I \\:D/ Um das Licht halbwegs sichtbar zu machen, habe ich den Taktgenerator auf 540µs Pulslänge bei etwa 27Hz gebracht. Die "Pulsverlängerungsschaltung (PVS)" bringt die Leds auf eine Leuchtdauer von 25ms.

Die Stärke zweier hemmender Synapsen ist über je einen Trimmer einstellbar.

Und ... das Vernachlässigen der Abblockkondensatoren an den drei 74HC14 (einer für Taktgenerator, einer für die 3 Neuronen und einer als PVS) möchte ich nicht nochmal machen. Das hat mich zu Beginn viel Zeit für die Fehlersuche am realen Aufbau gekostet. Und auch wie immer ist die Simulation sowieso nicht ganz so wie die Realität :)

Gruß
Searcher

stochri
28.11.2019, 17:34
Hey, cool, Du hast es geschafft =D> . Danke für das Video.
Was für Kondensatoren hast Du genommen? Die 100nF? Man könnte das ganze langsamer kriegen, wenn man einfach die 100nF durch 1uF ersetzt.

Searcher
29.11.2019, 05:42
... Was für Kondensatoren hast Du genommen? Die 100nF? Man könnte das ganze langsamer kriegen, wenn man einfach die 100nF durch 1uF ersetzt.

Grundaufbau für das Video wie im elektronik-labor mit 100nF Kondensatoren für die Neuronen. In der Simulation hatte ich schon mal 1µF versucht und mußte dann die Schaltung neu abstimmen. Jetzt habe ich das real auch nochmal mit 1µF probiert. Mit und ohne Veränderung des Pulsgenerators. Es wird langsamer aber die Blinkreihenfolge der LEDs für das Lauflicht kommt durcheinander und die Trimmer müssen neu eingstellt werden. Das ist zumindest in meiner Schaltung diffizil, erfordert durch die langsamere Frequenz mehr Geduld :-) , scheint aber möglich.

Nettes Rätsel. Hat Spaß gemacht. Bin gespannt, wie die KI Diskussion weitergeht. Mir fehlt ein praktischer, ganz einacher Testfall, in dem man ein minimales neuronales Netz gleich welcher Art real und anschaulich ausprobieren kann. In der Art, daß ein mechanischer Arm verschiedenfarbige Gewichte zu heben versucht und bei einer Farbe immer scheitert und sich später gar nicht mehr daran versucht. Ist mir in der Verwirklichung noch zu zu aufwendig aber so ähnlich halt.

Gruß
Searcher

Moppi
29.11.2019, 10:13
Mir fehlt ein praktischer, ganz einacher Testfall, in dem man ein minimales neuronales Netz gleich welcher Art real und anschaulich ausprobieren kann.

Das ist genau das, was ich, hier im Forum, versuchte auf den Weg zu bringen.

Es ist schon mal schön, dass es in diese Richtung geht, auch wenn es jetzt Umwege nimmt.
Mal schauen, vielleicht geht es ja doch noch in die richtige Richtung.




MfG

HaWe
29.11.2019, 12:40
Mir fehlt ein praktischer, ganz einacher Testfall, in dem man ein minimales neuronales Netz gleich welcher Art real und anschaulich ausprobieren kann. In der Art, daß ein mechanischer Arm verschiedenfarbige Gewichte zu heben versucht und bei einer Farbe immer scheitert und sich später gar nicht mehr daran versucht.
das ist kein einfaches Beispiel, sondern bereits ein vergleichsweise extrem komplexes.
Mit 5-10 Neuronen wirst du es nur schaffen, einfache Muster in der Art von AND, NAND, OR, NOR, NOT und (vielleicht) XOR und deren Verknüpfungen für sehr wenige digitale Inputs hinzukriegen (vlt bis zu einem Dutzend).
Mit etwa 100-150 Neuronen wirst du einfachste Mustererkennungen trainieren und erkennen können (z.B. verschieden platzierte Zeichensymbole auf einer 10x10 Punktematrix als Input-Array).
Erst mit weitaus größeren Netze könnten komplexe Verhaltenmuster trainiert werden.
Und die Trainingszeit wächst exponentiell von Minuten zu Stunden zu Wochen oder Monaten, je nach cpu.

stochri
29.11.2019, 13:20
Ich kann mich noch an eine Zeit erinnern, als in den Elektronikzeitschriften noch Schaltungen mit der 74xx Logik gezeigt wurden. Damals hat man die ganzen Lauflichter und Ähnliches mit diesen Bausteinen gebaut. Man war da noch näher an der eigentlichen Rechenlogik. Bis zur künstlichen Intelligenz auf den Computern der heutigen Zeit war es ein weiter Weg und vermutlich hat keiner am Anfang versucht, den Schaltungen aus Logikgattern irgendwie Intelligenz einzuflösen.
Jetzt haben wir in diesem Thread gesehen, wie man aus den Pulsneuronen ein Lauflicht bauen kann. Dieses Lauflicht funktioniert vollständig anders als die Lauflichter mit der 74xer Reihe. Entscheidend ist der Transistorcount: Im SNN-Pulsneuronenbuch wird gezeigt, dass man ein Neuron aus 4 Transistonen bauen kann ( so meine ich mich zu erinnern, ohne jetzt nachschlagen zu wollen ). Wieviel mehr Transistoren braucht man wohl für das Bit eines gewöhnliches Schieberegisters?
Das dürften deutlich mehr sein, sehr viel mehr. Und das Neuron kann noch ein paar Zustände mehr represäntieren.
Es stellt sich als die Frage, um wie viel diese Maschine hier kleiner würde, wenn man sie aus neuronaler Logik aufbauten würde:
https://hackaday.com/2016/07/06/42300-transistor-megaprocessor-is-complete/

Moppi
29.11.2019, 13:51
Hallo stochri,


Im SNN-Pulsneuronenbuch wird gezeigt, dass man ein Neuron aus 4 Transistonen bauen kann ( so meine ich mich zu erinnern, ohne jetzt nachschlagen zu wollen ). Wieviel mehr Transistoren braucht man wohl für das Bit eines gewöhnliches Schieberegisters?
Das dürften deutlich mehr sein, sehr viel mehr.

Deine Formulierung ist sehr ungenau, finde ich.

Eine Antwort auf die Frage findest Du u.A. bei Wikipedia unter FlipFlop. Es representiert vom Prinzip eine Speicherstelle in Form eines Bit. Es kann gesetzt werden und hält den Zustand, bis es zurückgesetzt wird.


Folgend nur ein Hinweis:



Und das Neuron kann noch ein paar Zustände mehr represäntieren.

Hier lohnt es sich, sich mit dem Thema Quantencomputer auseinanderzusetzen. Bei dieser Materie geht es genau um solche Sachverhalte, der Speicherung mehrerer Zustände.



MfG

stochri
30.11.2019, 12:51
Deine Formulierung ist sehr ungenau, finde ich.
Wieso ungenau? Die Aufgabe ist ganz einfach: Baue ein Lauflicht mit Transistoren. Eines nach klassischer Logik und eines mit neuronaler Schaltungstechnik. Wenn Du mit der neuronalen Schaltungstechnik weniger brauchst, hat sie gewonnen.


Hier lohnt es sich, sich mit dem Thema Quantencomputer auseinanderzusetzen. Bei dieser Materie geht es genau um solche Sachverhalte, der Speicherung mehrerer Zustände.
Quantencomputer haben nichts mit den Pulsneuronen zu tun ( und deshalb vermutlich ebensowenig wie mit der Funktion unseres Gehirns ).
Wenn ich von mehreren Zuständen spreche, dann meine ich die Zustandsvariable: Beim binären Flip/Flop hat sie zwei Zustände und beim SNN-Neuron ist es die Spannung am Integrationskondensator. Die ist kontinuierlich und unter der Annahme, sie wäre unendlich genau bräuchte man für die Darstellung auch unendlich viele binäre Zustände. Das ist praktisch natürlich nicht der Fall ( aufgrund von Schaltungstoleranzen und anderem ), so dass man beim gezeigten Neuron wahrscheinlich mit 3Bit auskommt.

Moppi
30.11.2019, 13:26
Wieso ungenau?

Gut, ich dachte jetzt, Du erkennst, was gemeint war.

Ich erkläre es ganz genau:


Im SNN-Pulsneuronenbuch wird gezeigt, dass man ein Neuron aus 4 Transistonen bauen kann ( so meine ich mich zu erinnern, ohne jetzt nachschlagen zu wollen ). Wieviel mehr Transistoren braucht man wohl für das Bit eines gewöhnliches Schieberegisters? Das dürften deutlich mehr sein, sehr viel mehr.

Das stimmt nicht und ist daher falsch. Es sei denn, Du meintest das anders. Die Antwort lautet: nicht mehr, sondern weniger Transistoren werden benötigt, um ein Bit abzubilden.
Was Du mit Bit eines Schieberegisters meinst, ist mir daher nicht klar. Deshalb schrieb ich: Deine Formulierung ist sehr ungenau.



MfG

- - - Aktualisiert - - -

Für den Fall, dass ein Schieberegister aus D-Flip-Flops aufgebaut ist, würdest Du mit "Bit" ein D-Flip-Flop meinen.
Ein D-Flip-Flop kann man aus 4 NAND-Gattern aufbauen.
Ein NAND-Gatter besteht aus 2 Transistoren.
Ergo wäre die Antwort: für ein "Bit" eines Schieberegisters bräuchte man 2 mal 4, also 8 Transistoren.


Die Aussage
Das dürften deutlich mehr sein, sehr viel mehr
Ist hier sehr relativ (ungenau). Nach der obigen Betrachtung sind es mal gerade doppelt so viele Transistoren, wenn Du, bei Deiner andern Sache, 4 Transistoren benötigst.
Dazu kommen aber noch Widerstände und Kondensatoren. Vielleicht sollte man die Größe der Schaltung / der Schaltkreise und Gesamtzahl an diskreten Bauelementen in eine solche Betrachtung einbeziehen.


MfG

stochri
30.11.2019, 13:59
Für den Fall, dass ein Schieberegister aus D-Flip-Flops aufgebaut ist, würdest Du mit "Bit" ein D-Flip-Flop meinen.

Nur leider kannst Du kein Schieberegister mit D-FlipFlops aufbauen, Du brauchst flankengetriggerte FlipFlops.
Ein Flankengetriggertes FlipFlop ( das gerne 2 D-FlipFlops beinhalten kann ), braucht deutlich mehr Transistoren.

HaWe
30.11.2019, 18:56
der wesentliche Punkt wäre, dass es lernfähig = auf verschiedene Input- und Reaktionsmuster flexibel trainierbar ist, denn sonst macht ein NN IMO keinen Sinn - und dafür dürfte es gern ein paar Transistoren mehr besitzen...

Moppi
30.11.2019, 19:19
Der Dreh an der Sache ist doch der: ein biologisches Gehirn kennt keine Digitaltechnik, es funktioniert analog und zwar ausschließlich. Das kann man elektronisch analog nachbauen, oder man greift auf Digitaltechnik zurück. Wodurch es eben möglich wird, extrem viel Platz einzusparen. Auch wenn im Vergleich evtl. mehr Bauteile benötigt werden. Der Kostenaufwand beim diskret analogen Aufbau wäre ungleich viel höher. Auch der Materialeinsatz steigt nicht unbeträchtlich. Dieses hat man doch bei der Erfindung des Computers durchgemacht. Deswegen dürfen wir stolz sein, dass wir heute Milliarden Transistoren auf 1cm² unterbringen können. Lehrreich ist ein analoger Aufbau, zum Verständnis, aber allemal und super geeignet.




MfG

HaWe
30.11.2019, 21:25
analog oder digital mit float oder double (die ja auch analoge Werte nachbilden) - völlig egal, Hauptsache: lernfähig, und je leistungsfähiger, desto besser.

Ist denn diese analoge Schaltung nun lernfähig und trainierbar auf Muster oder Umweltreize?

Außerdem funktoniert ein biologisches Gehirn nicht analog, sondern reagiert auf abzählbare Neurotransmitter-Molekülzahlzahlen an Rezeptoren, bis zu Schwellenwerten, in Ganzzahl-Schritten, worauf hin dann ab dem Schwellenwert die Polarisation nach "alles-oder-nichts"-Gesetz erfolgt, also quasi 0 auf 1 (Depolarisation), anschließend wieder zurück auf 0 (Repolarisation), demnach ist die Auslösung des Nervenzellimpulses ein getriggertes digitales Ereignis.

PS: Strengenommen beruht aber ja auch "analog"-Technik auf einer abzählbaren ganzzahligen Schritt-Anzahl von Überträgern, nämlich Elektronen (nur dass die Schritte hier noch deutlich kleiner sind als die (schrittweise) rund 0 bis 1010 Neurotransmitter-Moleküle im synaptischen Spalt von nat. Nervenzellen)

stochri
01.12.2019, 04:06
Der Dreh an der Sache ist doch der: ein biologisches Gehirn kennt keine Digitaltechnik, es funktioniert analog und zwar ausschließlich.

Nein, es funktioniert gemischt: Sowohl analog als auch digital. Im vereinfachten Modell entspricht die Spannung am Kondensator dem Zellpotential und das ist analog. Der Puls ( oder im Fachjargon "das Aktionspotential" ) ist digital. Er ist entweder da oder er ist nicht da.


der wesentliche Punkt wäre, dass es lernfähig = auf verschiedene Input- und Reaktionsmuster flexibel trainierbar ist, denn sonst macht ein NN IMO keinen Sinn - und dafür dürfte es gern ein paar Transistoren mehr besitzen...

Da Du Dich ja mit der KI ein wenig auskennst: Bei den meisten praktischen Anwendungen wird zwischen "Training" und "Inferenz" unterschieden. Normalerweise ist das Training auf leistungsstarken Computern mit großen Trainingsdatensätzen durchgeführt. Die spätere Anwendung kann z.B. auf einem relativ schwachbrüstigen Mikrocontroller ( von mir aus mit KI-Beschleuniger wie der Kendryte K210 ) durchgeführt werden.
Die trainierten Modelle kann man z.B. für Tensorfloor fertig herunter laden. Das resultierende System ist starr, wurde aber vorher durch lernen erzeugt, ist aber selbst nicht mehr lernfähig.

Moppi
01.12.2019, 07:19
Außerdem funktoniert ein biologisches Gehirn nicht analog, sondern reagiert auf abzählbare Neurotransmitter-Molekülzahlzahlen an Rezeptoren, bis zu Schwellenwerten, in Ganzzahl-Schritten, worauf hin dann ab dem Schwellenwert die Polarisation nach "alles-oder-nichts"-Gesetz erfolgt, also quasi 0 auf 1 (Depolarisation), anschließend wieder zurück auf 0 (Repolarisation), demnach ist die Auslösung des Nervenzellimpulses ein getriggertes digitales Ereignis.


Das das nun mehr oder weniger Unsinn ist, wenn man sich betrachtet, wie Analaogtechnik funktioniert...



PS: Strengenommen beruht aber ja auch "analog"-Technik auf einer abzählbaren ganzzahligen Schritt-Anzahl von Überträgern, nämlich Elektronen (nur dass die Schritte hier noch deutlich kleiner sind als die (schrittweise) rund 0 bis 1010 Neurotransmitter-Moleküle im synaptischen Spalt von nat. Nervenzellen)

... das hast Du dann ja auch schon selbst bemerkt.


Analog

zu Analog schreibt der Duden: kontinuierlich, stufenlos
Beispiel Physik: analoges Signal (Analogsignal)


Auch wenn analoge Vorgänge auf digitaler Ebene beschrieben werden können, ändert das nichts daran, was sie sind.



Im vereinfachten Modell entspricht die Spannung am Kondensator dem Zellpotential und das ist analog. Der Puls ( oder im Fachjargon "das Aktionspotential" ) ist digital. Er ist entweder da oder er ist nicht da.

"Er ist entweder da oder er ist nicht da." ist eine Betrachtungsweise.

Zum Beispiel: ein Auto auf der Straße ist auch da oder nicht da. Je nachdem, wann ich hinschaue. Deswegen ist seine Bewegung nicht digital.



Da es im biologischen Gehirn sprunghafte Anstiege gibt, plötzliche Entladungen, und die Funktion im Wesentlich auch darauf beruht, will ich mir hier gar nicht gegen einzelne Betrachtungen stellen.





MfG

HaWe
01.12.2019, 09:18
Das das nun mehr oder weniger Unsinn ist, wenn man sich betrachtet, wie Analaogtechnik funktioniert
...
"Er ist entweder da oder er ist nicht da." ist eine Betrachtungsweise.
Zum Beispiel: ein Auto auf der Straße ist auch da oder nicht da. Je nachdem, wann ich hinschaue.
naja Moppi, wie es sich anhört bist du ja ein Fachmann auf dem Gebiet der analogen und digitalen, lernfähigen neuronalen Netze, der Physiologie und Anatomie der tierischen und menschlichen Neurone sowie der Informationstheorie...

- - - Aktualisiert - - -


Nein, es funktioniert gemischt: Sowohl analog als auch digital.
...
Bei den meisten praktischen Anwendungen wird zwischen "Training" und "Inferenz" unterschieden. Normalerweise ist das Training auf leistungsstarken Computern mit großen Trainingsdatensätzen durchgeführt. Die spätere Anwendung kann z.B. auf einem relativ schwachbrüstigen Mikrocontroller ( von mir aus mit KI-Beschleuniger wie der Kendryte K210 ) durchgeführt werden.
Das Zellpotential ist eine elektrische Spannung, hervorgerufen durch einen K/Na-Gradienten, ja: hier liegt etwas vor wie eine elektrische Spannung bei Kondensatoren.

Was aber zur Auslösung eines Impulses führt und auch auf trainiertem/gelerntem Verhalten beruht, das hat damit nichts unmittelbares zu tun, denn das läuft NICHT über eine "analoge" elektrische Spannung:
es sind vergleichsweise viel kleinere Zahlen von Molekülen in der Synapse: diese steigen schrittweise von Null auf 5-10 Milliarden an (in zählbaren Portions-Schritten, sowie sie aus einzelnen Vesikeln ausgeschüttet werden), und bei einem bestimmten Zwischenwert (quasi eine Integer-Zahl) dazwischen, bei dem sie an Rezeptoren andocken, wird ein kritischer Grenzwert erreicht. Das ist nicht mehr analog, sondern eben ein digitaler Integer-Zahlenwert: und dies ist das, was die Lernfunktion der Zelle ausmacht.

Sobald diese bestimmte abzählbare Anzahl an Rezeptoren einen Bindungspartner hat, depolarisiert das Neuron kurzfristig komplett, das ist das (digitale) Aktivierungsereignis: beschreibbar als 0 oder 1.

So betrachtet muss man die (analoge) Zellspannung funktionell trennen von den Mechanismen, wie das Neuron lernt und wie es auslöst, und das kann man durch rein digitale Prozesse beschreiben.


Was du über lernfähige Netze schreibst, ist genau das, was lernfähige natürliche Neuronen oder elektronische Perzeptronen ausmachen:
Es ist ein und dieselbe Struktur, die sowohl lernen kann, als auch gelerntes ausführen kann, als auch dann wieder umlernen oder dazu lernen kann, und dann wieder das neu gelernte verbessert oder erweitert wiedergeben kann, und auch dann wieder weiter lernen kann, und genau das macht ein intelligentes System ja aus.
Ein Gerät, welches nur dieses fertige gelernte Wissen wiedergeben kann, ist hingegen nicht intelligenter als eine Schallplatte.

Mir ist nicht klar, inwieweit das analoge Schaltungsbeispiel aus dem TOP zum Lernen fähig ist.

Manf
01.12.2019, 10:04
Die Diskussion hier geht um zwei Punkte, die Unterscheidung zwischen analog und digital und die Definition von neuronalen Netzen bezüglich ihrer Lernfähigkeit.

Interessanterweise sind es nur Begriffe die unterschiedlich zugeordnet werden, die Sachverhalte werden werden dabei nicht unterschiedlich beurteilt.

Ein passendes Beispiel für analog und digital ist sicher der Eingang eines Arduino, ein sogenannter analoger Eingang unterscheidet auch nur zwischen vielen diskreten Spannungswerten. Man könnte also auch dort nach anderen Bezeichnungen suchen, die Bezeichung ist nur eben weit verbreitet.

Auch bei den neuronalen Netzen kann man nach Beispielen suchen. Wenn das Netz nicht mehr intelligenter ist als eine Schallplatte weil es aufgehört hat zu lernen, wie wird es dann genannt? Ist die Beschreibung neuronales Netz wirklich nicht mehr angebracht? Welche andere Bezeichnung gibt es dann für ein solches Gebilde?

HaWe
01.12.2019, 10:56
Auch bei den neuronalen Netzen kann man nach Beispielen suchen. Wenn das Netz nicht mehr intelligenter ist als eine Schallplatte weil es aufgehört hat zu lernen, wie wird es dann genannt? Ist die Beschreibung neuronales Netz wirklich nicht mehr angebracht? Welche andere Bezeichnung gibt es dann für ein solches Gebilde?
Vorraussetzung für die Netze, die nur wiedergeben, ist, dass es lernfähige Netze gibt, mit denen man Daten trainieren kann und sie den anderen dann "überspielt".
Das eine sind dann eben intelligente lernfähige Netze ("KI"), das andere sind statische, nicht lernfähige Netze, pointiert ausgedrückt: das eine ist das Orchester, das andere der Plattenspieler.

Perzeptronen wie in Feed-Forward-, Backpropagation, Jordan-, Elman- oder Hopfield-Netzen oder auch SOMs sind lernfähig ("KI") und können sellbstverständlich auch zusätzlich das Gelernte wiedergeben, umlernen oder dazu lernen.

Meine Frage ist, inwiefern eine analoge Schaltung wie im TOP bezüglich ihrer Reaktionsmuster (vergleichbar) lernfähig ist oder sein kann, oder wie dann eine lernfähige analoge Zelle aussieht und alleine und im Verbund (Netz) funktioniert.

stochri
01.12.2019, 18:57
Meine Frage ist, inwiefern eine analoge Schaltung wie im TOP bezüglich ihrer Reaktionsmuster (vergleichbar) lernfähig ist oder sein kann, oder wie dann eine lernfähige analoge Zelle aussieht und alleine und im Verbund (Netz) funktioniert.

Und als Antwort habe ich Dir einen kleinen Hinweis auf den Unterschied zwischen Training und Inferenz gegeben. ( In der Hoffnung, dass das zu etwas tieferem Nachdenken anregt ).

Moppi
02.12.2019, 08:30
Hallo zusammen,

erstaunlich, welcher Fluß ausgelöst wird, wo es doch nur um die etwas ungenaue Aussage "Bit eines Schiebereisters" ging. Die Sache war die, dass ich noch in Gedanken bei Schiebergistern mit Latch-Ausgängen war, mit denen ich mich zuvor beschäftigte. Also war die Frage: was zur Hölle ist mit "Bit" bei einem Schieberegister gemeint? Dort gibt es nun die verschiedenen Möglichkeiten: ist nur der Ausgang gemeint oder eine Stufe? Und dann die Formulierung mehr, mit einer nachgeschobenen Steigerung: deutlich mehr, sehr viel mehr. Da war die nächste Frage: was ist deutlich mehr - 1, 2, 10 - und was ist denn sehr viel mehr - das 10fache, das 100fache?



MfG

HaWe
02.12.2019, 08:55
Vorraussetzung für die Netze, die nur wiedergeben, ist, dass es lernfähige Netze gibt, mit denen man Daten trainieren kann und sie den anderen dann "überspielt".
Das eine sind dann eben intelligente lernfähige Netze ("KI"), das andere sind statische, nicht lernfähige Netze, pointiert ausgedrückt: das eine ist das Orchester, das andere der Plattenspieler.
Perzeptronen wie in Feed-Forward-, Backpropagation, Jordan-, Elman- oder Hopfield-Netzen oder auch SOMs sind lernfähig ("KI") und können sellbstverständlich auch zusätzlich das Gelernte wiedergeben, umlernen oder dazu lernen.

Meine Frage ist, inwiefern eine analoge Schaltung wie im TOP bezüglich ihrer Reaktionsmuster (vergleichbar) lernfähig ist oder sein kann, oder wie dann eine lernfähige analoge Zelle aussieht und alleine und im Verbund (Netz) funktioniert.

Und als Antwort habe ich Dir einen kleinen Hinweis auf den Unterschied zwischen Training und Inferenz gegeben. ( In der Hoffnung, dass das zu etwas tieferem Nachdenken anregt ).

"Interferenz" interessiert mich nicht - das wären die Schallplattenspieler.
Mich interessieren die lernfähigen Netze (die Orchester, die sowohl neue Stücke lernen als sie auch dann spielen können), daher habe ich nach lernfähigen analogen Zellen und Netzen gefragt.

Moppi
02.12.2019, 09:08
naja Moppi, wie es sich anhört bist du ja ein Fachmann auf dem Gebiet der analogen und digitalen, lernfähigen neuronalen Netze, der Physiologie und Anatomie der tierischen und menschlichen Neurone sowie der Informationstheorie...


Na wenn Du das so siehst, erbitte ich mir auch die notwendige Hochachtung von Dir! Oder bist Du der Fachmann dafür? - Dann bau doch erst mal was, bis jetzt sieht man ja nichts. Wenn es darum geht, dass darum gebeten wird, jemand, der was davon versteht, möge mit der Gemeinschaft und für die Gemeinschaft künstliche, neuronale Netze erarbeiten, wäre es für Dich doch ein Klacks, HaWe. Mit Deinem Wissen kannst Du die ganze Welt, samt Universum revolutionieren. Mach doch erst mal so einen Workshop. Daraus lässt sich doch dann versuchen, eine Intelligenz zu entwickeln, die Denken, so wie wir Menschen das können und verstehen, möglich macht. Aber hierzu machst Du keinen Anfang, in der Beziehung lieferst Du nicht!


Stochris Thema ist nicht schlecht. Vielleicht kommen wir so zu einfachsten künstlichen, neuronalen Netzen. Aber in einem neuen Thema.






MfG

HaWe
02.12.2019, 09:42
Ich habe bereits welche gebaut und veröffentlicht, sie können "hard-coded" trainiert werden, nur fehlt für Arduinos eine Möglichkeit, sie "during runtime" zusätzlich auch per Userinterface zu trainieren, du erinnerst dich?
Deine Fragen und Anmerkungen allerdings zeugen eher noch von einigem Unverständnis.
Und ja, immerhin waren Neuroanatomie und-Physiologie Teile meiner Ausbildung.

an dieser Stelle ist allerdings zum Topic immer noch die Frage offen:
https://www.roboternetz.de/community/threads/74270-Analog-Neuron?p=657022&viewfull=1#post657022

Meine Frage ist, inwiefern eine analoge Schaltung wie im TOP bezüglich ihrer Reaktionsmuster (vergleichbar) lernfähig ist oder sein kann, oder wie dann eine lernfähige analoge Zelle aussieht und alleine und im Verbund (Netz) funktioniert.

Moppi
02.12.2019, 10:53
Zuerst muss man ein Ziel definieren, sich klar werden, was man umsetzen will. Dann erkennt man, was dazu nötig ist - womit man sich auseinandersetzen muss.


MfG
:Weihnacht

HaWe
02.12.2019, 11:14
Zuerst muss man ein Ziel definieren, sich klar werden, was man umsetzen will. Dann erkennt man, was dazu nötig ist - womit man sich auseinandersetzen muss.


dazu muss als allererstes gezeigt werden, quasi als kleinste Einheit,

...inwiefern eine analoge Schaltung wie im TOP bezüglich ihrer Reaktionsmuster (vergleichbar) lernfähig ist oder sein kann, oder wie dann eine lernfähige analoge Zelle aussieht und alleine und im Verbund (Netz) funktioniert.

Moppi
02.12.2019, 11:53
Wenn das gesucht ist? - Stochri?

So weit ich weiß, nach meinem Kenntnisstand, ging es darum dies Rätsel zu lösen, um zu sehen, was damit möglich ist.
Ich würde ein neues Thema anlegen.



MfG
:Weihnacht

Manf
02.12.2019, 14:06
Es geht wieder um Begriffe, nach analog und neuronalem Netz nun um das Lernen oder die Lernfähigkeit von Strukturen.

Das Beispiel ist beschrieben, kann man es lernen nennen? wer definiert in welchem Umfang und wie nachhaltig gelernt wird? Ist es nur Inferenz, oder geht es auch um "Interferenz"?

Interferenz bei der Kopplung in Systemen zum Austausch von Frequenz und Phase wird hier in Beispielen dargestellt, vielleicht lernen hier im weiteren Sinn auch die Elemente voneinander zu einer gemeinsamen Frequenz und Phase zu finden.

https://www.youtube.com/watch?v=ePVV7fjs7o0
https://www.youtube.com/watch?v=gFnVmuU8_Lg
https://www.youtube.com/watch?v=T58lGKREubo

HaWe
02.12.2019, 14:29
Es geht wieder um Begriffe, nach analog und neuronalem Netz nun um das Lernen oder die Lernfähigkeit von Strukturen.

Das Beispiel ist beschrieben, kann man es lernen nennen? wer definiert in welchem Umfang und wie nachhaltig gelernt wird? Ist es nur Inferenz, oder geht es auch um "Interferenz"?

Interferenz bei der Kopplung in Systemen zum Austausch von Frequenz und Phase wird hier in Beispielen dargestellt, vielleicht lernen hier im weiteren Sinn auch die Elemente voneinander zu einer gemeinsamen Frequenz und Phase zu finden.

https://www.youtube.com/watch?v=ePVV7fjs7o0
https://www.youtube.com/watch?v=gFnVmuU8_Lg
https://www.youtube.com/watch?v=T58lGKREubo

schau dir an, wie bzw. was lernfähige BP Netze (bestehend aus Perzeptronen) lernen - das war es, was ich oben für analoge Netzneuronen nachgefragt hatte.

http://robotics.hobbizine.com/arduinoann.html

Manf
02.12.2019, 14:47
Es bietet sich an, das dann in einem extra Thema zu diskutieren, wo es dann auch besser beachtet werden kann.