Das geht in die Richtung verfilzter Systeme die an der Oberfläche noch zu funktionieren scheinen obwohl drinnen kaum noch gearbeitet wird. Solch ein Verhalten ist zum Glück auf anderen Gebieten völlig unbekannt.Während der Tester rein ist einer kaputt gegangen. Die Software hat das so kopmentsiert das der Test 5 wochen gebraucht hat herraus finden das ein sensor defekt ist. Und es deshalb in bestimmten situationen zu einem Fehler / Flasch verhalten kommt.
Eine andere Schwäche bei der Beurteilung intelligenter Systeme liegt wohl auch darin, dass ein System umso intelligenter erscheint, je weniger sein Verhalten durch einfache Regeln vorhersagbar ist. So kann ein Zufallsgenerator (gekoppelt mit einem einfachen System) in bestimmten Situationen nur schwer von einem intelligenten System unterschieden werden.
Man benötigt dann Möglichkeiten zur Analyse und zum Eingriff, beispielsweise ein zumindest vorübergehendes Abschalten des eigenständigen Lernens damit man irgendwann auch die Möglichkeit hat, das System zu beurteilen; natürlich auch, um Lernfortschritte die in eine ungewollte Richtung gehen auszuschließen.
Kleine Schritte
Eigentlich liegt mein Interesse nicht so sehr bei den Systemen, die höchste Komplexität (oder Intelligenz?) anstreben, sonder eher in der Umsetzung elementarer Schritte auf dem Gebiet, (um dann darauf aufzubauen). Praktisch gesagt, wenn die Herleitung einer Gleichung die einen Zusammenhang beschreibt kompliziert ist, kann man mit einem Iterationsverfahren schon einmal nachsehen was herauskommt und ob es sich lohnt, den Zusammenhang gerade so zu beschreiben.
Neben dem einfachen Oszilloskop gibt es zur Analyse schneller Vorgänge ein Sampling Scope und wenn die Triggerung nicht vorher möglich ist, ein Random Sampling Verfahren bei dem ein periodisches Signal zu einer beliebigen Zeit einfach mal für 50ps aufgenommen wird. Die zeitliche Zuordnung kommt dann später. (vielleicht auch noch kein starkes Beispiel).
Bei der Darstellung von Größen, in der stochastischen Rechentechnik (nicht in der Digitaltechnik oder der Analogtechnik) hat man einen regelmäßigen Bittakt bei dem der Wert der Größe durch die Wahrscheinlichkeit angegeben ist mit der das jeweilige Bit den Wert 1 hat. Vergleicht man Operationen in den Rechentechniken dann ist die Multiplikation in der Stochastischen Rechtentechnik am einfachsten, sie erfolgt mit einem einzelnen “Und Gatter“. Kommt man bei der Aufnahme eines Signals mit seinen Umformungen und Übertragungen zu einem seriellen Bitstrom, (etwa bei einem Sigma Delta Wandler) und muss man das Signal ohnehin noch multiplizieren oder quadrieren, dann kann man unter Umständen für diesen Schritt die stochastische Rechentechnik sehr effizient einsetzen.
Als ein einfaches Beispiel zur Nutzung des Schwarmverhaltens sehe ich die Rütteltransportsysteme. Sie geben dem Gesamtsystem eine Schwingung die nicht nur dafür sorgt dass ein einzelnes Teil den Weg aus dem Vorratsbehälter bis zur Verarbeitung findet, es wird gleichzeitig dafür gesorgt, dass viele Teile einzeln nacheinander und in der richtigen Lage ankommen. Die Lage des Teils ist nicht gezielt beeinflussbar, trotzdem kommt jedes Teil in der richtigen Lage an (durch Aussortierung und Rückführung aller nicht zufällig richtig liegenden Teile). Eindimensional angeregte vibrierende Systeme mit Richtungsumkehr bilden sicher auch einen Baustein in diesem Umfeld (Elliptec).
Manfred
Lesezeichen