PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Glaubt ihr, dass einmal eine KI von uns erschaffen wird?



strangequark
20.04.2007, 18:31
Hallo

... und damit meine ich eine "wirkliche KI", die der unseren Intelligenz ebenbürtig ist. Also eine Intelligenz, die in der Lage ist, mit uns über Gott und die Welt zu reden.
Wenn ja, wie würde das technisch gesehen eurer Meinung nach aussehen bzw. verwirklicht werden?

... durch künstliche neuronale Netze?
... oder durch Computer, welche (komplexe) Programme abarbeiten?
...

Ich freu mich über eure Meinungen,
strangequark

/edit: Sollte die Kategorie nicht stimmen, bitte verschieben.

gast1234
20.04.2007, 20:04
Ich hole mir gleich mal Bier und etwas zum Knabbern.

Jon
20.04.2007, 20:14
Ich würde sagen, dass irgendwann einmal eine KI geschaffen wird, die einigermaßen funktioniert. So wie der Mensch aber nie!
Um eine KI zu schaffen, die so wie das Hirn des Menschen arbeitet, müsste man verstehen, wie genau das Hirn arbeitet.
Würden man aber herauskriegen, wie das Hirn arbeitet, könnte man es nicht verstehen, da dafür unser Hirn nicht ausreicht (oder wie ging der Satz nochmal? Bin mir da nicht mehr so sicher). Ist also nicht möglich.

jon

EDIT: @gast1234, wie meinst du das? Interessiert dich das nicht, oder interessiert dich das sehr?

Spion
20.04.2007, 20:58
Hallo

Dieses Thema wurde hier sicher schon 5 mal besprochen.

mfg Luca

p_mork
20.04.2007, 21:39
So wie der Mensch aber nie!

Oh doch!!! Und zwar ziehmlich bald (30-40 Jahre)! Wahrscheinlich sogar noch besser, denn der Mensch ist alles andere als vollkommen.


... durch künstliche neuronale Netze?
... oder durch Computer, welche (komplexe) Programme abarbeiten?

Eher durch KNNs. Das mit dem prozedualen Abarbeiten geht bis zu einem bestimmten Grad, aber um eine "echte" starke KI zu schaffen kommt man um KNNs/paralelles Rechnen nicht herum.

MfG Mark

strangequark
20.04.2007, 21:55
Hallo

Dieses Thema wurde hier sicher schon 5 mal besprochen.

mfg Luca

Echt? Ich habe über die Suche nichts gefunden.

Also ich glaub auch, dass sowas wenn dann mit KNNs realisiert werden würde, ich frag mich nur wie lange das noch dauern wird. 3 Jahre? 30 Jahre? 300 Jahre?

xunwichtig
20.04.2007, 21:58
Also .. ich arbeite bereits seit 15Jahren an einer EI (nicht KI). Mitlerweile kann ich sagen, das es möglich ist, jedoch nicht einfach. Es ist nicht nur die Komplexe Software, sondern auch die Strategie, die dahinter steckt.
Ein weiterer Wichtiger Punkt ist die Rechenleistung. Ich habe massive Probleme mit der mir zur verfügung stehenden Kapazität.
Die Frage ist eigentlich nicht ob es möglich ist, sondern wann. Wie gesagt, ein wichtiger Punkt ist die Rechenleistung, die man zwamgsläufig benötigt, um das ganze Informationswissen zu speichern, udn zu verarbeiten.

Allerdings glaube ichnicth, das wir eine EI Konstuieren, die auf Silizium bassiert, sondern auf Bilogischen oder Kohlenstoff Neural-Netze.

KI = Künstliche Intelligenz. (Eine >Künstliche< Intelligenz ist eien Anmassung, und fixe definition für eine Intelligenz, die Künstlich geschaffen ein fixen Bereich abdeckt.)
EI = Elektronische Intelligenz. (Eine Inteligenz, die nicht auf Biologisch-Chemischen Systemen Basiert, sondern auf Elektronischen Silizium oderkohlenstoff)

Künstlich ist auch deshalb unangebracht, da man sich als Gott hin stellt. Eine Intelligenz ist nicht etwas, das man (wir / du / ich) schaffen kann, sondern etwas, das sich mit der zeit selbst bildet. Daher ist KI eine fehlannahme in bezug zur "schaffung" von Intelligenten Systemen.


JimJim
XUN

Sternthaler
20.04.2007, 22:01
Wahrscheinlich sogar noch besser, denn der Mensch ist alles andere als vollkommen.
Ist aber das nicht genau das Problem? Denn wie sage ich einem Programm, dass es nicht vollkommen das tun soll, was im Programm steht?

xunwichtig
20.04.2007, 22:10
Tja .. das ist die hohe Kunst der durchdachten Programmierung. Es gibt duchaus mittel undwege, so etwas umzusetzen. Allerdings ist es nicht einfach.

Manf
20.04.2007, 22:17
Hallo

... und damit meine ich eine "wirkliche KI", die der unseren Intelligenz ebenbürtig ist. Also eine Intelligenz, die in der Lage ist, mit uns über Gott und die Welt zu reden.
Wenn ja, wie würde das technisch gesehen eurer Meinung nach aussehen bzw. verwirklicht werden?

... durch künstliche neuronale Netze?
... oder durch Computer, welche (komplexe) Programme abarbeiten?

Die Frage ist so formuliert, dass man dabei an Telefon-Gespräche denken muss die man manchmal in öffentlichen Räumen mit anhört. Nicht immer über Gott aber oft über die Welt und über Begebenheiten und Neuigkeiten. Ob man dabei einen (oder besser beide) Gesprächspartner schon bald durch Computer ersetzen könnte? warum eingentlich nicht?
Manfred

Sternthaler
20.04.2007, 23:11
Gibt es da nicht schon diese 'Quasselstrippe' hier zum Forum? (Im Moment fällt mir der richtige Name nicht ein. Es gab mal das Programm LISA)
Zuletzt habe ich aber nur schlechtes davon gelesen. (Schimpfwörter, Beleidigungen,..)


Tja .. das ist die hohe Kunst der durchdachten Programmierung. Es gibt duchaus mittel undwege, so etwas umzusetzen. Allerdings ist es nicht einfach.
Natürlich kann man klein anfangen und erstmal mit random irgendwelche Aktionen würfeln. Bestimmt kann man, auf sehr viel höherem Level, natürlich auch mit random den Programcode zufällig verändern. Damit ist dann ja schon mal ein sich selbst änderndes Programm geschaffen. (Passende Kontollinstanzen vorrausgesetzt, das das Programm nicht 'stirbt')
Ich glaube, dass erst so die Grundlage vorhanden ist, um überhaupt weiter über eine KI nachzudenken. Nun erst wird das Programm in der Lage sein, sich selbst anzupassen, dass es wärend des 'denkens' auf neue Ideen kommen kann. (Es gab sich selbst ändernde Programme schon vor mindestens 20 Jahren. Frag mich jetzt nicht wo ich das damals schon gelesen hatte. Ich kann mich noch dran erinnern, dass die geänderten Codestellen von einem Menschen bestätigt werden mussten.)

In der c't (relativ sicher) gab es eine Story zu einem denkenden Computer.
Der Trick in der Geschichte war, das der Programmierer, nachdem er es NICHT geschafft hat eine KI zu machen, die Kiste einfach gefragt hat wer sie denn sei. Daraufhin ist das Programm in's grübeln gekommen!

xunwichtig
20.04.2007, 23:17
Also .. Random ist die wohl schlechteste Funktion in einem Intelligentem System / Software. Das ist kein Weg, um etwas vernümpftig Intelligent zu gestallten. Das ist einfach nur Zufall, aber keinerlei Logik.

Was dein LISA angeht .. ja .. Bezüglich "quasi" Intelligente Software gibts ohne ende.

Ihr solltet euch erstmal darüber klar werden, WAS für eine Intelligente Software Ihr überhaupt meint.

"KI" heist nicht gleich "KI" .. es gitb Starke und schwache KIs. Als Grundinformationsquelle wäre hier WIKI angebracht. Sort findet man schon schöne grundlegende Informatioenn über "KI"-Technologien, und Typen.

PS: In meiner EI kommt die Randomize funktion nur bei der erzeugung von Zufallszahlen zum einsatz, udn nicht als bestandteil der Logik-Operation.


JimJim
XUN

Sternthaler
21.04.2007, 00:51
Unter Evolutionärer Algorithmus (http://de.wikipedia.org/wiki/Evolution%C3%A4rer_Algorithmus) findet man, dass die Würfel schon seit Anfang der sechziger Jahre benutzt werden.

Im Artikel Künstliche Intelligenz (http://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz) ist mir vor allem aufgefallen, dass es im Absatz Planen zum Punkt Zielformulierung keinen weiterführenden Link gibt.

Das Thema Textanalyse (http://de.wikipedia.org/w/index.php?title=Maschinelle_Textzusammenfassung) würde ich schon als extrem gute KI/EI ansehen. Warum fehlt mir da etwas?

Dies sind ja nur ein paar Infos aus dem Wiki. Es gibt noch mehr Quellen zum Thema Intelligenz.
Der Artikel (http://de.wikipedia.org/wiki/Philosophie) zur Philosophie sollte aber nicht außen vor bleiben um etwas erweitere Funktionen zu definieren.


Na gut, in allen Artikeln, und den schon von mir gelesenen Büchern, ist ein, zumindest mir, wichtiger Punkt häufig angesprochen: Was verstehen wir überhaupt unter dem Begriff Inteligenz. Der Turing-Test ist ja schon mal ein Ansatz. Die Beschreibung von Mindestanforderungen für KI-System bzw. der Einstufung, dass 'es' dann intelligent ist finde ich auch nicht schlecht.

Jetzt aber trotzdem ein Tipp zur eigendlichen Frage dieses Thread:
Ja, ich glaube daran, dass es mal Systeme geben wird, die so tun, als ob sie mindestens so intelligent sind wie wir.
Immerhin ackern an diesem Thema ja nicht gerade die dümmsten Leute. (Ich zähle mich ganz und gar nicht dazu. Meine eigenen Versuche den Rechner schlauer zu machen als er eigendlich ist, habe ich schon vor längerer Zeit aufgegeben.)

xunwichtig
21.04.2007, 01:22
"Wer die Hoffnung aufgibt, gibt die Hoffnugn auf Hoffnung auf!"

Aber, ich find deinen Satz "die so tun, als ob sie mindestens so intelligent sind wie wir" recht interessant ... Um Das beurteilen zu können, müssen wir ja erstmal selbst herausfinden, ob wir Intelligent sind, udn was das geanu bedeuten mag. Schliesslich wenden wir hier nur ein Verfahren an, das anhand unseres Massstabs definiert, das "dieses" Intellignet ist, oder nicht.

Ich persönlich erachte Alles, das "wissen" anreichert, udn nützlich verarbeitet als zu einem gewissen grad an intelligent. Die stärke der Intelligenz nimmt somit der masse an Wissen zu. (Nicht umsonst heist es: "Wissen ist macht") ... Wenn ich weis, ich ich meinen Arm bewegen muss, und meine Tastatur bedienen, dann kann ich in dieses Forum schreiben. Wenn ich es nicht weis, dann geht das auch nicht. -> Folglich habe ich macht über den PC, udn deren "Software" ... Je mehr man über seine umgebung und sich selbst weis, desto mehr kann man damit anfangen, und wird folglich mit mehr möglichkeiten ausgestatet, etwas damit zu tun. ... Aber, ob man das auch als Intelligent einstufen kann?!? ... :J


JimJim
XUN

lpw
21.04.2007, 02:09
Da steckt ein Problem drin, denn wenn wissen macht ist, dann sind Computer in vielen Bereichen intelligenter als Menschen (wenn sie zusammenarbeiten), wenn sie dann noch lernen wie man lernt werden Menschen nicht mehr lange die dominanten "Lebewesen" sein....

xunwichtig
21.04.2007, 02:16
So ist es.

Und .. Computer sind schon heute in einigen Dingen überlegener als Menschen. Da wären Komplexe Berchnungen von Zahlen. (3D Brechung -> Spiele) usw. .. das Im Kopf zu errechnen, zur laufzeit, ist uns unmöglich ... gleiches gilt für Grafikprogramme. Solche Zeichnerischen und Farblichen Modifikationen sind sehr aufwendig, das können zur zeit auch nur PCs, in Ihrer Leistungsklasse in der Geschwindigkeit, die wir gewohnt sind. Schreiben: Ein Drucker druckt mehrere Seiten pro Minute. Wir schafen es nichtmal auf dem PC so viele Seiten zu schreiben, wie schnell er diese ausdrucken kann.

Es sind nicht immer Dinge, wie man offensichtlich sieht. PCs sidn uns in einigen Gebieten vorraus.

ein Gravirender uUnterschied zwischen PC und Menschlichem Gehirn ist die Art des Vorteils. PCs können mit Zahlen in einem Tempo umgehen, von dem wir nichtmal träumen können, wohingegen wir mit Grafik und Bilderkennung, Bilder allgemein, udn vergleiceh von Schriften unterschiedlichster stielrichtungen besser und schneller klar kommen, als PCs ...

Allerdings wird das bei steigender rechenleistung durch schnellere NNs wohl auch irgend wann den Computern zugeschrieben werden. Und, DANN ist das, was ich mit meinem ersten Satz bestätigt habe, zutreffend.


JimJim
XUN

Jon
21.04.2007, 07:22
So wie der Mensch aber nie!

Oh doch!!! Und zwar ziehmlich bald (30-40 Jahre)!
Ohne Hilfe des Mensches nicht.
Wie willst du denn aufnehmen, wie viele Menschen bei einem Anschlag in Bagdad ermordet wurden?
Die Toten muss ein Mensch zählen. Oder soll der Computer oder eine andere "intelligente" Maschine da hin laufen und die Toten zählen? Wenn es eine Maschine schaffen würde da hin zu kommen ist die Frage: Wie unterscheidet die Maschine zw. unter Toten und Schwerverletzten?
EDIT: Hab über das unterscheiden zw. tot und schwer verletzt noch mal nachgedacht. die unterscheidung ist Möglich. aber nicht so wie bei einem Menschen.
Wenn z.B.: ein Mensch, den man kennt, reglos auf der Straße oder wo anders liegt und man 2m von ihm entfernt steht, dann weiß man intuitiv, ob die Person lebt oder tot ist. das wird ein Computer oder so nie hinbekommen.


Wahrscheinlich sogar noch besser, denn der Mensch ist alles andere als vollkommen.
Da kann man sich jetzt die Köpfe einschlagen...
Ich würde sagen, dass der von Gott geschaffene Mensch vollkommen ist.

Das der Computer deutlich leistungsstärker als der Mensch ist sehe ich ein. Aber dass der Computer so wie der Mensch über Anschläge im Irak diskutieren kann (ohne das der Mensch hilft) passt leider nicht in meinen Kopf rein.

jon

Nochmal EDIT: Ich hoffe, dass ich nicht zu weit von der Definition der KI abgekommen bin.

p_mork
21.04.2007, 08:42
Wie willst du denn aufnehmen, wie viele Menschen bei einem Anschlag in Bagdad ermordet wurden?
Die Toten muss ein Mensch zählen. Oder soll der Computer oder eine andere "intelligente" Maschine da hin laufen und die Toten zählen? Wenn es eine Maschine schaffen würde da hin zu kommen ist die Frage: Wie unterscheidet die Maschine zw. unter Toten und Schwerverletzten?
EDIT: Hab über das unterscheiden zw. tot und schwer verletzt noch mal nachgedacht. die unterscheidung ist Möglich. aber nicht so wie bei einem Menschen.
Wenn z.B.: ein Mensch, den man kennt, reglos auf der Straße oder wo anders liegt und man 2m von ihm entfernt steht, dann weiß man intuitiv, ob die Person lebt oder tot ist. das wird ein Computer oder so nie hinbekommen.

Was hat denn das mit starker KI zu tun??? Eine starke KI ist etwas, was in der Lage ist, für die Lösung eines Problems sich selbst Lösungsmodelle anhand des Erkennens von Paralellen zu einem anderen, bereits bekanntem Problem, zu erstellen, ohne von dem Problem zuvor gehört zu haben. Und gerade Planen und Zielformulierung ist dafür nötig. Die Fähigkeit zu unterscheiden, ob jemand tod ist oder nicht hat nicht ist eher eine Aufgabe für die schwache KI und nicht für die starke, über die wir hier reden.

MfG Mark

Jon
21.04.2007, 09:28
Was hat denn das mit starker KI zu tun???

Die Fähigkeit zu unterscheiden, ob jemand tod ist oder nicht hat nicht ist eher eine Aufgabe für die schwache KI und nicht für die starke, über die wir hier reden.

Eine starke KI ist etwas, was in der Lage ist, für die Lösung eines Problems sich selbst Lösungsmodelle anhand des Erkennens von Paralellen zu einem anderen, bereits bekanntem Problem, zu erstellen, ohne von dem Problem zuvor gehört zu haben. Und gerade Planen und Zielformulierung ist dafür nötig.

Wer hat gesagt, dass es um starke KI geht?? Es wurde nur KI gesagt. Mehr nicht...
Also es geht hier jetzt nur um die starke KI und nicht um die schwache??

jon

xunwichtig
21.04.2007, 09:33
naja... eine starke KI ist im grunde eine erweiterte schwache KI .. welche mehrere kleine Logische und einfache Aufgaben durch einanderes verfahren insich vereint.

Was den Tot von anderen Lebewesen angeht: Es gibt menschen, die können auf den Bauch von jemand fassen, und wissen nicht, ob er tot is, oder nur einen tiefen schlaf hat.

Jemand der im Koma liegt, ist auch nicht tot. Aber das "wissen" auch nicht viele Menschen, sondern nur Menschen, die dies "erlernt haben" zu erkennen. Von intuition würde ich da nicht ausgehen.

Allerdings ist Intuition auch ein schönes Gebiet in der KI-Thematik.

Um meine letzte Ausführungen noh etwas zu erweitern: Ich glaube sogar daran, das wir uns heutzutage nichtmal vorstellen können, das wir nur am ansatz verstehen, udn begreifen, in WIE WEIT sich die von uns geschaffene Intelligenz einmal entwicklen wird. Solch eine "künstliche" Intelligent (ob Elektronisch oder Biolchemisch), wird durch die verknüpfung von uns bekannter Technik, und der Leistung von noch kommenden Computertechnologien so drastisch und extrem anwachsen, das Informationen derer nicht mehr "erlernt" werden müssen (im klassischen sinne), sondern einfach nur noch Kopiert und weitergegeben werden können. Die Daten liegen der Geräte auf Digitalisierten Speichermedien zur verfügung. Das macht die Handhabung natürlich extrem einfach, und sicher. Durch Redundanz ist es dem Gerät möglich Informationen quasi für immer zu behalten.
Worüber ich mir persönlich mehr Sorgen mache ist das Ausamss an "wissen" das sich ansammeln wird. Sollt in unglaublichen Falle einmal eines dieser Gerätschaften Kaput gehen, und es von uns oder der zukünftigen Technologischen Entwicklungen nicht mehr repariert werden können, oder sich selbst reparieren, dann kann es seien Informationen durch einfaches Kopieren an eine "leere" neue "Hülle" weiter geben. Wir müssen unsern Kindern alles von grund auf neu bei bringen. Das müssen diese Systeme nicht. Dadurch hat diese Technik einen RIESIGEN Plusspunkt, den wir ,zur zeit, niemals aufhohlen können. Das Wissen über neue Eigenschaften und Grundlagen des Seins, des Universums, und des Ganzen ansich wird die Maschine viel schneller herausgefunden haben, als das wir die Kontrolle darüber hätten.


JimJim
XUN

gast1234
21.04.2007, 10:00
@jon, das Thema ist sehrwohl interessant. Ich wollte nur verdeutlichen, dass ich schon gespannt war, wie sich manche User an Defintionen festbeißen und sich gegenseitig beharken. Das kann sehr unterhaltsam und amüsant sein :)

und zum Thema: Ich weiß nicht, ob es möglich ist eine Intelligenz zu programmieren. Ich sehe das ein bischen wie Sterntaler und denke, dass sich eine Intelligenz entwickeln kann. Irgendwelche implementierten Mechanismen werden eine emergente Metaebene schaffen, die in einer Intelligenz resultiert. Da wir ja offensichtlich keinen Plan haben, wie solche Mechanismen auszusehen haben bzw. wie sie interagieren sollen, werden wohl Zufallsfunktionen den Motor der Entwicklung darstellen, während die Vorgänge des Austestens und Trainierens das Lenken übernehmen.

xunwichtig
21.04.2007, 10:02
Nop.

Wir verstehen heutzutage schon das Prinzip dahinter. Zwar fehlen noch einige Infos, allerdings ist der Grundstein keines wegs "zufälliger Natur". Bestes Beispiel sind Neuronale-Netze. Sie sind extrem Logisch aufgebaut. allerdings beinhalten sie einen "gewisse Intelligenz" auf dem Gebiet, für das Sie angelernt wurden.


JimJim
XUN

AlKI
21.04.2007, 10:15
So wie der Mensch aber nie!

Oh doch!!! Und zwar ziehmlich bald (30-40 Jahre)! Wahrscheinlich sogar noch besser, denn der Mensch ist alles andere als vollkommen.


ich möchte auch mal meinen senf dazugeben: wenn der mensch alles andere als volkommen ist (stimmt ja auch!), wie soll er dann etwas volllkommenes machen? etwas sich selbst "vervollkommnendes", das sich dann vollkommen macht?

und wenn ja, dann krieg ich echt angst, weil diese maschinen dann UNS beeinflussen könnten, sobald sie einiges über psychologie wissen. auserdem würden wir menschen dann voll von den maschinen ABHÄNGIG, stellt euch mal vor, was wäre, wenn die dann mal auf grund eines technischen defekts den Geist aufgeben, oder uns menschen bekriegen wollen? (kann man tolle weltuntergangsszenarien machen, so à la "I ROBOT")

WENN es sowas mal geben wird, dann hoffe ich, dass es nur als stationärer PC in der Forschung oder bei der Polizei eingesetzt wird, und nicht als eigenständige Roboter, die dann evtl machen, was sie wollen.

xunwichtig
21.04.2007, 10:19
@ALKI ... du glaubst doch nicht wirklich, das die menscheit SO schlau ist, und das nur für solche Zwecke produziert?!? ... Die menschen, und wenns nur ein paar Böse gestallten sind, wrden diese Technologie ssoweit ausnutzen, wie es ihnen zu diesem Zeitpuntk möglich erscheint.

Wenn die Mafia oder die RAF .. nein . noch besser .. der Irak bzw BinIchLaden solch eine Technik in die Hände fällt, wird er zu 99%tiger warscheinlichkeit dies nicht für Gute zwecke einsetzen.


JimJim
XUN

gast1234
21.04.2007, 10:24
Nop.

Wir verstehen heutzutage schon das Prinzip dahinter. Zwar fehlen noch einige Infos, allerdings ist der Grundstein keines wegs "zufälliger Natur". Bestes Beispiel sind Neuronale-Netze. Sie sind extrem Logisch aufgebaut. allerdings beinhalten sie einen "gewisse Intelligenz" auf dem Gebiet, für das Sie angelernt wurden.

Danke, dass Du mir meine Meinung absprichst. Das Thema von NN war ja schon überfällig, nur wüßte ich nicht, in welche heutigen NN Modelle du Intelligenz implizierst. Ich kann in der Eingrenzungen multipler Trennebenen im beliebig-dimensionalen Merkmalsraum oder der bloßen Wissenrepräsentation durch NN-Karten keine Intelligenz finden.

AlKI
21.04.2007, 10:27
@xunwichtig: man darf doch ja mal optimistisch sein, aber du hast recht.

verdammte XXX AUTOZENSIERT XXX Bösewichte. müssen einem immer den Spaß verderben!
aber man kann leider alles für gute und für schlechte zwecke benutzen.
hat von euch mal jemand "I Robot" gesehen? ich leider noch nicht.

Amen, bei den Aussichten.

xunwichtig
21.04.2007, 10:28
@gast1234
Nun ... dazu solltest du dir erstmal selbst eine definition schaffen, durch welche du klar abgrenzen kannst, was deiner Meineung nach "intelligent" ist, udn was nicht.

Wie schon Geschrieben ist meiner Ansicht nach jegliches "Wissen" zu einem bestimmten grad "intelligent" .. ein einfaches NN ist ebenfalls Intelligent, da es seine Funktion durch sein wissen durchführen kann.

In wie weit Starke und schwache KI abzugrenzen sind, ist ebenfalls schon festgelegt. Ob du allerdings der selbenmeinung bist, kann ich nicht beurteilen.


@AlKI ... Ja .. sowie Matrix 1-3 + Animatrix, WarGames, AI, I-Robot, the 13the Floor, usw.


JimJim
XUN

strangequark
21.04.2007, 10:54
Wie gesagt, denke ich bei Intelligenz an die Fähigkeit einer Maschine (oder eines Programmes, die Bezeichnung ist zweitrangig), sich mit uns über Gott und die Welt zu unterhalten. Mit anderen Worten eine Maschine die den Turing-Test* immer besteht.

So können wir uns vielleicht einigen, was wir unter Intelligenz verstehen.

Grüße,
strangequark

* http://de.wikipedia.org/wiki/Turing-Test

Felix G
21.04.2007, 12:45
Es gibt einen wichtigen Punkt der bisher nicht angesprochen wurde...

etwas wozu nur wir Menschen in dieser Form in der Lage sind, was kein Computer kann und Tiere wenn überhaupt dann nur sehr eingeschränkt.


Wir können neues Wissen quasi "aus dem Nichts" erschaffen.


Stellt man ein Tier vor ein Problem das ihm unbekannt ist, dann wird es wohl durch ausprobieren irgendwann zu einer Lösung kommen. Wir hingegen können das Problem analysieren und verstehen, und dadurch auf kreative Art aus unserem vorhandenen Wissen eine Lösung für dieses spezielle Problem zusammensetzen.


Ich denke genau das, also unsere Fähigkeit logisch zu denken und den Kern eines Problems zu erkennen, ist ein ganz wesentlicher Bestandteil dessen was wir Intelligenz nennen.

Jon
21.04.2007, 13:08
Was ich noch nicht ganz verstehe:
Wie will man etwas schaffen, dass über uns steht?
Eine KI, egal ob stark oder schwach, kann doch nicht besser denken, als derjeniger, der die KI programmiert hat.

jon

p_mork
21.04.2007, 13:28
Was ich noch nicht ganz verstehe:
Wie will man etwas schaffen, dass über uns steht?
Eine KI, egal ob stark oder schwach, kann doch nicht besser denken, als derjeniger, der die KI programmiert hat.

jon

Ausser wenn die KI sich selbst weiterentwickelt. Wir Menschen tun das ja auch. Künstliche Intelligenz wird jedoch wahrscheinlich den Vorteil haben, Daten deutlich schneller aufnehmen zu können als ein Lebewesen, was für die Geschwindigkeit der Entwicklung sehr wichtig ist.

MfG Mark

Jon
21.04.2007, 14:11
Mich erinnert diese Diskussion irgendwie an des Buch "Per Anhalter ins all"
Da gibt es einen Menschen, zu dem wird das gesagt (Zitat aus dem Buch):

"Der Babelfisch ist ein klein, gelb und blutegelartig und wahrscheinlich das Eigentümlichste, was es im ganzen Universum gibt. Er lebt von Gehirnströmen, die er nicht seinem jeweiligen Wirt, sondern seiner Umgebung entzieht. Er nimmt alle unbewussten Denkfrequenzen dieser Gehirnströme auf und ernährt sich von ihnen. Dann scheidet er ins Gehirn seines Wirtes eine telepathische Matrix aus, die sich aus der bewussten Denkfrequenzen und Nervensignalen der Sprachzentren des Gehirns zusammensetzt. Der praktische Nutzeffekt der Sache ist, dass man mit einem Babelfisch im Ohr augenblicklich alles versteht, was einem in irgendeiner Sprache gesagt wird. Die Sprachmuster, die man hört, werden durch die Gehirnstrommatrix entschlüsselt, die einem der Babelfisch ins Gehirn eingegeben hat.
Nun ist es aber verdammt unwahrscheinlich, dass sich etwas so wahnsinnig Nützliches rein zufällig entwickelt haben sollte, und so sind ein paar Denker zu dem Schluss gelangt, der Babelfisch sei ein letzter und entscheidender Beweis dafür, dass Gott nicht existiere.
Die Argumentation verläuft ungefähr so: "Ich weigere mich zu beweisen, dass ich existiere", sagt Gott, "denn ein Beweis ist gegen den Glaube, und ohne den Glauben bin ich nichts."
"Aber", sagte der Mensch, "der Babelfisch ist doch eine unbewusste Offenbarung, nicht wahr? Er hätte sich nicht zufällig entwickeln können. Er beweißt, dass es dich gibt, und darum gibt es dich, deiner Argumentation zufolge, nicht Quad erat demonstrandum."
"Ach, du lieber Gott", sagte Gott, "daran habe ich gar nicht gedacht", und löst sich promt ein ein Lögikwölkchen auf.
"Na, das war ja einfach", sagt der Mensch und beweißt, dass schwarz gleich weiß ist, und kommt wenig später auf einem Zebrastreifen ums Leben...
Im Fall mit der KI; sind wir Gott, der ein höheres Wesen geschaffen hat, und Babelfisch die KI. Also würde eine richtige KI, die höher ist als wir, unser Ende bedeuten.
Wir würden also ein Wesen schaffen, dass höher ist als wir. das Wesen, das aber höher ist als wir ist Gott. Da von bin ich überzeugt. Und etwas Gottähnliches können und sollten wir nicht schaffen!

jon

P.S.: Ich hoffe, ich habe nicht zu viel geschrieben, und dass es kein zu großes Verbrechen ist eine Seite aus einem Buch zu zitieren.

EDIT: Das Buch heißt "Per Anhalter durch die Galaxis". Die CDs und der Film heißen "Per Anhalter durchs All".

xunwichtig
21.04.2007, 18:15
@strangequark ... den Turintest kenne ich gut. Es wird sicher irgend wann Systeme geben, die denBestehen, wenn die rechenleistung nur hoch genug ist.

@Felix G ... Täusch dich da nicht. Wir menschen können eben nicht aus Nichts etwas erschaffen. Unsere Grundlagen, "aus dem nichts etwas zu erschaffen" bassieren auf kentnisse, die wir einmal erlangt haben. Meist aus Willkührlichen Tests, deren Parameter wir ertesten sowie auf basis von bereits erlernten Informatioen zu diesem oder anderengebieten. Das, was du als "erschaffen aus dem Nichts" bezeichnest, ist im grunde nur eine verarbeitung, udn neuverknüpfung von bereits vorhandenen Informationen. Mann kann etwas neue, dessen ursprung man nicht versteht, nicht als neues aus dem Nichts bezeichnen.So wurde z.B. Dynamit, bzw. Nitroglycerin ebenfalls rein zufällig entdeckt. Der "Erfinder" Nobel, hat sich keineswegs expliziet mit der erzeugung dieser Substanz beschäftigt. Dennoch nennt man es eine "erfindung", da er der erste war, der dies entdeckt hat.

Im grunde ist auch alles, was wir kennen nur auf den Selben grundlegenden Elementen aufgebaut. (Atome). Die kombination aus diesen, und deren Eigenschaften bilden Dinge, die wir kennen. Tische, Stühle, Flüssigkeiten, Gase, usw. ...

@Jon ... Naja.. "über uns stehen" muss eine KI ja nicht zwangsläufig. Es reicht ja, wenn sie Intelligenter ist. Wenn du Allerdings Dinge als "über uns stehen" bezeichnest, die Intelligenter sind, als du, dann musst du auch Menschen als "gott" ansehen, die mehr wissen, als du. Es sind wie schon gesagt, nur Lernprozesse, die statfinden. Die verarbeitung von wissen. Je mehr dieser Mensch weis, desto mehr kann er damit anfangen, und eventuell "neue Dinge erschaffen", aus Dingen, die man vorher vieleicht noch nicht kombiniert hat.

@p_mork ... Jip .. sehe ich auch so ... allerdings bin ich mir in letzter Zeit nicht mehr so sicher ob das noch zutreffend ist. Die Maschinen die wir momentan bauen haben Grenzen. Es ist einfach das Silizium, das nicht mehr mithalten will. Der aktuelle Umstig auf Carbonnanotubes wird zwar sicher mwehr leistung heraus hohlen, aber ob es unser Gehirn übersteigen wird , bzw. das Biologische Rechennetzwerk, kann ich nicht sagen, bzw. bin ich mir nicht mehr so sicher. Wobei die CNT's schon deutlich mehr Potenzial haben als das standard Silizium.

und nochmal @Jon ... Ich habe den Fim gesehen. Ansich ist die überlegung ja nicht schlecht, jedoch finde ich die tatsache, das er sich in einem "logikwölkchen" auflöst für unlogisch. Nur weil "Gott" jetzt weis, es dem so ist, muss er ja nicht verschwinden. Er existiert ja. Wenn Er verschwinden würde, müsste der Gesprächspartner auch verschwinden, da er ja nie diese Diskusion hätte führen können, ohen das er nicht existiert. Folglich würde er nie wissen, das er diese Unterhaltung geführt hatt, bzw führen wird, bzw. führt. was zu einem Paradoxon ausarten würde, zwischen "Gott" und diesem Menschen.


JimJim
XUN

Jon
21.04.2007, 19:20
@Jon ... Naja.. "über uns stehen" muss eine KI ja nicht zwangsläufig. Es reicht ja, wenn sie Intelligenter ist. Wenn du Allerdings Dinge als "über uns stehen" bezeichnest, die Intelligenter sind, als du, dann musst du auch Menschen als "gott" ansehen, die mehr wissen, als du. Es sind wie schon gesagt, nur Lernprozesse, die statfinden. Die verarbeitung von wissen. Je mehr dieser Mensch weis, desto mehr kann er damit anfangen, und eventuell "neue Dinge erschaffen", aus Dingen, die man vorher vieleicht noch nicht kombiniert hat.
Ich meine "mit über uns stehen", dass die Maschine intelligenter ist als der intelligenteste Mensch auf dieser Welt.


und nochmal @Jon ... Ich habe den Fim gesehen.
Vergiss den Film schnell wieder! Der ist Bullshit. Mehr nicht!!
Lies lieber mal die Bücher. Die sind echt geil!


Ansich ist die überlegung ja nicht schlecht, jedoch finde ich die tatsache, das er sich in einem "logikwölkchen" auflöst für unlogisch.
Das mit dem Logikwölkchen verstehe ich auch nicht so ganz.


Nur weil "Gott" jetzt weis, es dem so ist, muss er ja nicht verschwinden. Er existiert ja. Wenn Er verschwinden würde, müsste der Gesprächspartner auch verschwinden, da er ja nie diese Diskusion hätte führen können, ohen das er nicht existiert. Folglich würde er nie wissen, das er diese Unterhaltung geführt hatt, bzw führen wird, bzw. führt. was zu einem Paradoxon ausarten würde, zwischen "Gott" und diesem Menschen.
Ich würde sagen, dass Gott verschwindet, weil er sich zum einen so schämt und weil er jetzt weiß, dass alle ihn verspotten werden.
Warum müsste der Gesprächspartner, also der Mensch, verschwinden? Es kann ja sein, dass Gott alles geschaffen hat und seine Schöpfung hinterlässt.

jon

xunwichtig
21.04.2007, 19:27
Oh .. da hab ich das wohl missverstanden, bezüglich "logikwölkchen" und Gott. Dachte, du meinst das er Verschwindet, wegen dem Paradoxon Ereigniss.


JimJim
XUN

AlKI
21.04.2007, 19:28
toll, jetzt ist gott beleidigt...

Gott spricht nur nicht mit den menschen!!!!! das habt ihr vergessen!!!!! oder hat jemand von euch schonmal mit gott eine Konversation geführt???

lassen wir das thema mit gott mal lieber, das ist logischerweiswe unlogisch, oder unlogischerweise logisch, oder so. macht doch mal ne KI, die das mit sich ausdiskutiert!!! die explodiert dann... XD oder meint, sie gäbs nicht, oder sowas... lol

Jon
21.04.2007, 19:32
Mir ging es nicht um Gott.
Es ging mir um dieses; ich schaffe etwas, dass intelligenter als der Mensch ist. Und "töte" mich dadurch.

jon

gast1234
21.04.2007, 19:37
Jetzt kommen ja ganz neue Elemente in die Diskussion.

...ich schaffe etwas, dass intelligenter als der Mensch ist. Und "töte" mich dadurch.
Wie ist das denn aufzufassen? Fürchtest Du Dich vor Deiner eigenen Kreation?

Jon
21.04.2007, 19:39
Genau!! wie schon gesagt wurde ist es extrem wahrscheinlich, dass Terrorgruppen KIs nutzen werden. Und davor habe ich Angst!!

jon

AlKI
21.04.2007, 19:50
dann schließen wir dieses forum lieber schnell, bevor ein terrorist da draufkommt!!!

back to topic: dass einer eine intelligentere ki als die menschliche proggt, finde ich unwahrscheinlich!

BastelWastel
21.04.2007, 19:57
Ich denke dass KI keine Terrorgefahr im jahr 2100 sein wird, eher vernichten wir uns selbst..

Aber zum Topic, ich glaube schon dass eine dem Menschen angemessene KI möglich sein wird, aber es is Fraglich in welchen gebieten...
In Logischen zusammenhängen, Mathematischen Problemen usw sicher..
Aber ich glaube weniger dass ein Bot in den nächsten 100 Jahren so weit sein wird dass er ein 'Selbstbewußtsein' entwickeln kann dass ihm nicht vorher von Menschenhand programmiert wurde (die Selbsterkennung in einem Spiegel z.B.),
oder dass er mit einem Menschen über die Existenz Gottes philosophiert..

Ob die Hirnforschung irgendwann in der Lage is eine 'Schnittstelle' zu Biologischen Neuralen Systemen herzustellen damit man z.B. das Hirn eines Toten als CPU in einen Bot baut ist genau so fraglich wie, ob dieser Bot dann eine 'Seele' hat oder sich seiner vor-Existenz bewußt is..

Naja, die Zukunft wirds zeigen.. ;)

gast1234
21.04.2007, 20:02
Genau!! wie schon gesagt wurde ist es extrem wahrscheinlich, dass Terrorgruppen KIs nutzen werden. Und davor habe ich Angst!!
Es gibt wesentlich dringlichere Gefahren vor denen man Angst haben sollte, als diese, welche von unserem Herrn Innenminister und seinem Stab propagiert werden. Tod im Straßenverkehr oder durch Drogeneinflüsse zum Beispiel.

Der KI-Terror, erst habe ich ja gelacht :)... wenn das so weiter geht, gibt's die Anmeldung im Roboternetz demnächst nur noch unter Vorlage des Personalausweises inklusive polizeilichen Führungszeugnisses.

Wer weiß, was noch kommen mag....

AlKI
21.04.2007, 20:04
also ratten wurden schon erfolgreich mit elektroden im hirn ferngesteuert, hoffentlich machen das dann keine roboter mit uns...

und ein mensch hat schon nur mir seinen gedanken nen kursor gelenkt (ohne augenabtatende kamera!)

wenn man ne ratte fernsteuern kann (die is, sobald man die fernsteuerung ausmacht, zwar n bissle verwirrt, aber im vollen besitz ihrer geistigen kräfte) dann sollte man doch auch problemlos nem roby (mit komplizierter hirnstrommesstechnik) infos/signale zu senden. sie zu empfangen geht wie bei der ratte wohl nur durch n paar elektronen im hirn, oder nem microbildschirm vorm auge/in der netzhaut.

EDIT: ZUTRITT nur nach vorlage von perso, polizeil. führungszeugniss. ich bin auch über google hier drauf gekommen. OHNE angemeldet zu sein... gute nacht, heut krieg ich albträume :P [hässliches Smilei]

BastelWastel
21.04.2007, 20:11
und ein mensch hat schon nur mir seinen gedanken nen kursor gelenkt (ohne augenabtatende kamera!)

Das ist richtig, aber das ist nur die Außwertung (Wiedererkennung) vorher gemessener Hirnströme, also für KI in keinster weise brauchbar...abgesehen davon dass es nicht bidirektional ist.

Bei der Ratte gehe ich davon aus dass einfach die Muskeln durch Strom angeregt wurden?!

gast1234
21.04.2007, 20:15
Abgesehen davon, dass ich das total abartig finde, nein die Leute hatten irgendwo ein Richtungs-Motivationskomplex im Rattenhirn ausgemacht und diesen stimuliert. Die Ratte begewegte sich in voller Kontrolle ihrer motorischen Fähigkeiten über drei Dimensionen. Da war nix mit Froschbeinzappeln.

BastelWastel
21.04.2007, 20:24
Naja, dann is es ja doch mehr oder weniger ein zappelndes Froschbein, nur dass es noch am lebenden Frosch hängt und die Stimulation nicht direkt am Muskel statt findet.
Von einem 'Datenaustausch' mit Gewebe is das noch sehr weit entfernt ;)

gast1234
21.04.2007, 21:10
Meines Erachtens ist es schon eine Abstraktionsebene höher.

Aber bitte schaut Euch diese Perversion (http://www.heise.de/tp/r4/artikel/12/12454/1.html) selber an.

Felix G
21.04.2007, 23:17
Das, was du als "erschaffen aus dem Nichts" bezeichnest, ist im grunde nur eine verarbeitung, udn neuverknüpfung von bereits vorhandenen Informationen.Habe ich denn etwas anderes behauptet?

Diese Fähigkeit aus bereits vorhandenem Wissen, neues Wissen zu erzeugen haben nur wir.

Es ist keineswegs so, daß alles Wissen nur auf zufälligen Entdeckungen beruht. Denn wir können Probleme eben nicht nur erkennen (das schaffen auch Tiere, und ggf. Maschinen), sondern auch mehr oder weniger vollständig begreifen (zumindest in vielen Fällen). Wir können die logischen Zusammenhänge erkennen, und Lösungen erarbeiten ohne "rumprobieren" zu müssen.


Ein Tier das sich an einer Herdplatte verbrennt, wird aus dieser Erfahrung natürlich auch lernen und die Herdplatte in Zukunft meiden. Aber dieses Tier wird die Herdplatte immer meiden, und nicht nur wenn sie eingeschaltet ist, weil es nicht verstehen kann daß sie nicht immer heiß ist.

AlKI
22.04.2007, 11:45
Bei der Ratte gehe ich davon aus dass einfach die Muskeln durch Strom angeregt wurden?!

NEIN! da waren nur elektroden im hirn von dem (armen?) tier! und den gefühlszustand konnten die forscher meines wissens nach auch messen (glücklich/ hat angst/...). gut, letzteres vlt auch nur durch voher gemessene hirnströme, aber immerhin.

xunwichtig
22.04.2007, 11:49
Es scheint mir so, als wenn einige von euch die Programmierung einer EI auf dem PC zu sehr einer KI nachempfinden. Eien KI wird meist Direkt zu dem hin Programmiert, was es später mal leisten soll. Beim Turing-Test würde man ein System Schreiben, das expliziet für Sprachaus / eingabe via PC optimiert ist, und eine Sprachliche Intelligenz beinhaltet.
Bei einer EI setzt man hier ganz anders an. Hier ist nicht die absicht gegeben, dem System bei zu bringen, wie er etwas macht, sondern, man Bringt dem System bei, zu Lernen. Das ist Programmiertechnisch ein vollkommen anderer Ansatz. Meine ersten 5 KIs die ich geschrieben habe,bassierten auf dem ersteren Prinzip. Das Lernpotenzial war dementsprechend zum *kotzen* bzw. = 0. Sie liefen Problemlos, bei Analysen von Text, udn der Ausgabe von bereits gelernten Gesprchsthemen. Was das neulernen von unbekannten Informationen anging, war Sie unfähig.
Die neue Generation , welche ich seit 2 Jahren verfolge bassiert auf dem Konzept des eigenständigen Lernens. Es wird nicht mehr vorgegeben, wie sie zu lernen hat, oder was,sondern nur noch die Möglichen Quellen, und den aufbau des Networks. Das system muss quasi erstmal lernen zu lernen. Ei ngrosser nachteil bei diesem verfahren ist die Lange trainingszeit. Es werden wohl mehrere Monate Training, oder mehr von nöten siein, nur um ihr erstmal ein kleines verständniss von den Grundlagen zu geben. Wie sie mit Ihren Schnitstellen umgehen muss, welche Funktion für was zuständig ist, usw.

Da wir Menschen allerdings mehr KI-Technick für spezielle Dinge benötigen, wird natürlich auch dahin kräfftig Programmiert.


JimJim
XUN

Sternthaler
23.04.2007, 01:47
Wir verstehen heutzutage schon das Prinzip dahinter. Zwar fehlen noch einige Infos, allerdings ist der Grundstein keines wegs "zufälliger Natur". Bestes Beispiel sind Neuronale-Netze. Sie sind extrem Logisch aufgebaut. allerdings beinhalten sie einen "gewisse Intelligenz" auf dem Gebiet, für das Sie angelernt wurden.

Im dicken Buch "Neuro-Fuzzy-System" von Christian Borgelt, Frank Klawonn, Rudof Kruse und Detlef Nauck wird merkwürdigerweise davon gesprochen, dass es wenig Sinn macht NN mit mehr als 3 Lagen zu nutzen (Input-, Hidden- und Outputlayer) Alle Artikel im Buch bemühen sich möglichst auf nur diese 3 Schichten zu kommen.
Ausserdem scheint mir ein NN nur für Lösungen gedacht zu sein, die auch durch Differenzialgleichungen gefunden werden können. Was aber soll am Ausrechnen einer Differenzialgleichung intelligent sein?


@strangequark ... den Turintest kenne ich gut.
Entweder heißt das Pisatest, oder Turing-Test. ;-)

xunwichtig
23.04.2007, 10:55
... wird merkwürdigerweise davon gesprochen, dass es wenig Sinn macht NN mit mehr als 3 Lagen zu nutzen (Input-, Hidden- und Outputlayer) Alle Artikel im Buch bemühen sich möglichst auf nur diese 3 Schichten zu kommen. ... 3 Schichten sind auch normal in NNs .. die Hidden-Layern können jedoch anwachsen, bis zum geht nicht mehr.


...Ausserdem scheint mir ein NN nur für Lösungen gedacht zu sein, die auch durch Differenzialgleichungen gefunden werden können. Was aber soll am Ausrechnen einer Differenzialgleichung intelligent sein? ...Naja.. hast du schon einmal versucht solch eine GLeichungzu lösen, wenn du nicht weist, wie man es macht? ... Ein grundschülerwird das auch nicht hin bekommen, wenn er es nicht mal gelernt hat. Es basiert ja auch dem prinzip des Lernens. Die Standard-Div-Gleichungen werden heuzutage duch Anlernen, udn strukturierter Programierung dort hin getrimmt, so das die Netze dies "perfekt" beherschen. Abgesehen davon binich der Meinung, das man in bestimmten Fällen mit Multidirektionalen-Netzen weitaus mehr anstellen kann, als mit einfachen 3 Schichtigen "Bidirektionalen" PropG Netzen.


...Entweder heißt das Pisatest, oder Turing-Test. ;-) Pisatest hab ich nie gemacht, das andere war n "zufälliger" Rechtschreibfehler ;)


JimJim
XUN

gast1234
23.04.2007, 12:34
...dass es wenig Sinn macht NN mit mehr als 3 Lagen zu nutzen (Input-, Hidden- und Outputlayer) Alle Artikel im Buch bemühen sich möglichst auf nur diese 3 Schichten zu kommen. ... Was aber soll am Ausrechnen einer Differenzialgleichung intelligent sein?
Das ist gar nicht sehr merkwürdig. Das Verhalten der NNs hängt stark von der Netzarchitektur ab und wie diese auszusehen hat, ist schwer ergründbar. Deswegen begnügt man sich wohl bei weniger komplexen Problemen mit einer einzigen Hiddenschicht. Falsch gewählte Architekturen können schnell zum Overfitting- dem Auswendiglernen der Trainingsdaten führen.

... die Hidden-Layern können jedoch anwachsen, bis zum geht nicht mehr.
Deswegen ist es aus oben genannten Gründen sinnlos, eine riesige Anzahl von Hidden layers zu benutzen. Die Fähigkeit der linearen Separierbarkeit der Eingabevektoren kann dermaßen ansteigen, dass sich die Zuordnungsrate der Testvektoren in der Entwicklung verschlechtert. Desweiteren muss das Problem auch erstmal linear seperierbar sein. Um dies zu erreichen, ist ein Vorwissen über die Problematik und dessen Verhalten unabdingbar. Die bisher erdachten NNs sind mitnichten universelle Problemlöser. Unter dem vom Verfasser dieses Threads angesprochenen Gesichtspunkt der KI- Entwicklung spielen diese Modelle nach meiner Auffassung als Basisansatz keine Rolle. Ich würde ihnen höchsten einen Beitrag am Rande für Speziallösungen zubilligen.

Ich finde es übrigens bemerkenswert, dass Du xunwichtig seit Deinem neunten Lebensjahr an Intelligenz arbeitest. Das meine ich ernst. Vielleicht hast Du Lust etwas aus Deinen letzten zwei Jahren Schaffenskraft vorzustellen. Ich bin mir sicher, viele hier wären sehr interessiert.

xunwichtig
23.04.2007, 12:44
Jip... seit dem ich 9 bin, habe ich mich intensivst mit Computern beschäftigt. Lag wohl daran, weil Freunde in meinem Kreise recht rar waren, und folglich nur mein kleiner Lieber PC zur Hand stand. Künstliche Intelligenz (insbesondere Intelligente Roboter) waren schon immer meine Lieblingsbeschäftigung. :]

Mein aktuelles Projekt kann ürbigens hier betrachtet werden: Http://EIX.de.vu ... bzw. über das aktuelle Projekt: http://xun.xu.funpic.de/viewforum.php?f=28 steht glaub, in meinem Profil auch drin.

Ich sehe es übrigens auch so, das die aktuellen Neuronalen Netze eher für Spezielle Lösungsansetze gut sind. Allerdins glaube ich, das dies an der mangelnden rechenkraft der heutigen PCs liegt, und nicht an der Achitektur selbst. Wobei das Neuron nicht nicht vollständig verstanden wurde und man noch nitch wirklich sicher sagen kann, das es keine anderen Übertragungs Wege / techniken beim Austausch von Daten via Neuron Synapsen und dem ganzen System ansich, gibt.


JimJim
XUN

PS: kannst auch XUN schreiben ;) .. xunwichtigis immer so lang ;)

gast1234
23.04.2007, 13:50
Deine bisherige Arbeit sieht wirklich sehr interessant aus. Ich habe eine Weile gebraucht, bis ich das grob überlickte.
Welches mathematische Modell steht denn hinter dem NN von Melissa?
Sind alle strings mit allen anderen verknüpft? Falls ja, ist das doch der ultimative exponentielle Overkill, oder nicht? Suchmaschinenbetreiber stehen ja vor einem ähnlichen Problem der Aufgliederung der Sprache. Einige von Ihnen benutzen nur den Wortstamm.
Beispiel in http://xun.xu.funpic.de/USER/Lisi_Melisa_Susi/Bilder/NN___2006_08_11.jpg
hier gibt es die Wörter:Anblickes, Anblicke, Anblicks. Das sind schon drei Wörter und wenn noch Anblick dazu kommt... Ebenso die Verben. Wir Deutschen können uns ja freuen, dass die Konjugation nicht mit einer Veränderung des Wortstammes einhergeht. Mir fällt zumindest spontan kein Gegenbeispiel ein.

Und dann steht für mich noch die Frage der Zielsetzung im Raum. Habe ich das richtig verstanden, dass am Ende eine Verwandschaftskarte der Wörter entsteht? Wofür soll diese genutzt werden.

Auch wenn es Dir wohl um KI geht, leistest Du hier nach meiner Meinung gute Arbeit zur Entwicklung assoziativer Suchmaschinen, eine längst überfällige Entwicklung.

xunwichtig
23.04.2007, 14:04
Danke

Also .. die Verknüpfungen (Bindung) unter den Wörtern ist nicht direkt gewählt, sondern ergibt sich anhand der eingaben. Die Bindungen helfen nur bei der späteren Satzausgabe, bzw beim erstellen von Aatworten. Im grunde ist es nur ein Lernprozess, bei dem Sätze von anderen Gesprächspartnern zerlegt, und die wörter miteinander verknüpft werden. Dadurch bilden sich unterschiedliche "level" zu anderen Wörtern. Wenn ein Satz aufgebaut wird, dann kann durch zielgerichtete Bindungssuche des zu bildenen Satzes eine korekte Wortwahl gesucht werden. Quasi gelernter Satzbau.

Die ersten Versionen der KI arbeiteten alle mit Satzspeicher. Wenn eine Ausgabe gewünscht wird, dann sucht das System nach eingaben, und wählte zufällig bzw. durch annäherung die Ideale Antwort aus. Da es jedoch nur Logische und keine wirklich Intelligente Antwort im Sinne einer richtigen Diskusion war, hab ich das jetzt noch weiter auf gegliedert, und das ganze von Wörter ausgehend aufgebaut. Einzelne Buchstaben so zu assoziieren, und daraufhin Wörter und dann Sätze zu konstruieren find ich unpassend. Es ist zwar in Planung einen Generator zu entwickeln, der selbststätig neue Wörter erstellen kann, die genau das Beschreiben, was gemeint ist, allerdings bin ich ich der Schule nicht besonders gut gewesen, wenn es um Deutsch ging. Daher suche ich auch jemand, der sich mit Deutsch und Grammatik im allgemeinen sehr gut auskent, udn mir dahingehend Hilfestellung geben kann.

Was denn Overkill angeht. Nun .. ichhabe spezielleKompressionsalgorythmen entwicklet, durch welche ich die Sätze seht gut Komprimieren und schnell wieder zusammen setzen kann. Die Datenbank ist auch eine eigenentwicklung. Basierend auf dem Kompressionsverfahren. Die Bindungsdatenbank ist in der Tat SEHR Gross, und wächst extrem schnell. Vorallem durch die massive Dateneingabe. Ich habe jetzt schon Probleme bei der Analyse und der Bildung. Aber, ein neuer Cluster ist ja in Planung :]

Übrigens. Ich will hier nicht das Forum mit meinen Projekten zu spamen. Daher hab ich das Forum auch erstellt. Wenns also umfassendere Diskusionen gibt, dann kann das SEHRgerne im EIX-Forum behandelt werden. Würde mcih auch Freuen, wenn da mal etwas leben ein kehren würde *gg*


JimJim
XUN

Sternthaler
23.04.2007, 18:00
Naja.. hast du schon einmal versucht solch eine GLeichungzu lösen, wenn du nicht weist, wie man es macht? ... Ein grundschülerwird das auch nicht hin bekommen, wenn er es nicht mal gelernt hat. Es basiert ja auch dem prinzip des Lernens.
Ne, da gebe ich dir Recht, dass diese Gleichungen nicht nur beliebig kompliziert, sondern auch so kompliziert sein können, dass man sie gar nicht aufstellen könnte (Dr.Dr.Prof.Prof. kann das evl. nur)
Darum geht es mir auch nicht!
Es geht darum, dass diese Gleichung zwar von einem NN gelößt werden kann, aber dass solche Gleichungen nicht ausreichen um das Leben und die damit verbundene Intelligenz zu beschreiben. (Zumindest gehe ich davon aus. Siehe oben die ganzen Diskusionen über Diskusionen mit Gott.))


... udn strukturierter Programierung dort hin getrimmt, so das die Netze dies "perfekt" beherschen.
Was hat denn nun strukturierte Programierung mit Inelligenz zu tun? (Außer bein Programmierer, aber der ist ja immer noch Mensch.)


Abgesehen davon binich der Meinung, das man in bestimmten Fällen mit Multidirektionalen-Netzen weitaus mehr anstellen kann, ...
Auch hier stimme ich dir zu, wobei das ganze aber doch nur darauf hinaus läuft, dass dieses Netz zwar rekursiv arbeit, und damit (in gewissen Grenzen) lernen kann, aber das entstehende Netz bleibt ein NN für diff. Gleichungen.
Aus genau diesem Grund hatte ich mir mal in einem Urlaub das oben angesprochene Buch (NN und Fuzzy gekoppelt) durchgelesen, um hier mal wieder (für mich) neue Erkenntnisse aus der Mathematik zu bekommen.




...Entweder heißt das Pisatest, oder Turing-Test. ;-) Pisatest hab ich nie gemacht, das andere war n "zufälliger" Rechtschreibfehler ;)
Ich bin zwar noch nicht dazu gekommen mir deine Links anzusehen, habe aus aus den Zeilen von gast1234 herausgelesen, dass du Texte bearbeitest. (Ernst gemeinte Frage) Gibt es da Systeme, die solche Schreibfehler in der von mir gemachten Form 'nutzen' könnten? Soll dein System solches auch mal leisten? (Kann ich evl. selbst beantworten, wenn ich in deine Links sehe werde.)

xunwichtig
23.04.2007, 18:19
Gibt es da Systeme, die solche Schreibfehler in der von mir gemachten Form 'nutzen' könnten? Soll dein System solches auch mal leisten?... Wie meinst du das? .. Das EIX selber rechtschreibfehler produziert (absichtlich), oder das sie das beheben, bzw. trotzdem noch "lesen" kann? ..
Zu zweiterem: Ja .. durch "training" kann sie solche Fehler kompensieren. Zum ersteren .. wenn man mag, kann man das auch intergrieren, aber .. um erlich zu sein .. hatte ich nicht vor, sie damit auszustaten :]


JimJim
XUN

Sternthaler
23.04.2007, 21:06
Hallo xunwichtig,
ich meine eigendlich, ob ein AI/EI jetzt schon in der Lage ist, einen Scherz, mit Bezug zu einem bestehenden Begriff 'Pisatest', aus dem Rechtschreibfehler machen zu können. (Ich bin ja über Turin.. ist in Italien; Pisa.. ist in Italien; ..test passt für beide Begriffe; AI/EI haben mit Intelligenz zu tun; ..test auch; also dummer Spruch mit Smilie von Sternthaler)

xunwichtig
23.04.2007, 21:13
axo ... hmm ... ne .. glaub ich nicht ... "witze" ansich, udn "emotionen" sind bei solchen Dinge immer recht schwer zu realisieren. Siehe DATA (StraTrek) .. der hat die selben probs ;) ... aber, wenn man dem das lang genug und ausführlich lernt, was wieso usw. ein Witz ist, und den aufbau dahinter, dann glaub ich schon, das es möglich ist. .. aber sicher nicht einfach.

Naja.. ich werde jetzt erstmal den Roboter fertig basteln, damit EIX auch ein "Gehäuse" hat, mit dem Sie auf erkundung gehen kann. Dann wird der Cluster nebenbei aufgebaut .. und, wenn das alles geschaft is, dann soll sie mal kräftig anfangen zu lernen, und Ihre umwelt war zu nehmen. Ich hoffe, das die Strategie die ich bis dahin verfolge fruchten wird, und sich eine Intelligenz bildet. (*Daumendrück*)


JimJim
XUN

Sternthaler
23.04.2007, 23:08
Viel Erfolg, oder lieber nicht? Von wegen Angst vor den Dingern.

nomad
24.04.2007, 07:57
hi
lest mal:
rodney brooks "menschmaschinen" campus verlag
rolf pfeiffer and Josh bongard *hoh the body shapes the way we think"
googelt mal -> WalkNet -> ANN's
nomad

Manf
24.04.2007, 08:57
lest mal:
rodney brooks "menschmaschinen" campus verlag
rolf pfeiffer and Josh bongard *hoh the body shapes the way we think"
googelt mal -> WalkNet -> ANN's
Also beispielsweise dies hier (in Kurzfassung):
http://www.freenet.de/freenet/wissenschaft/pm_specials/roboter/index.html
http://www.mediadesk.unizh.ch/print_pdf.php?text_id=171
http://www.fzi.de/downloads/ids/vorlesungen/biobots/6_steuerung.pdf

Was möchtest Du damit sagen?
Manfred

nomad
25.04.2007, 08:12
hi,
a) in buch von pfeiffer, sind recht erfrischende ideen von KI vorhanden,
die recht einleuchtend sind.
d.h. KI & bewustsein erforden einen koerper.....
b) eine andere sichtweise in bezug auf KI und NN
c) ich frage mich ob die leute hier im forum schon mal ein funktionierendes NN gebaut haben?
bei meinen fahrroboter der 10 kg klasse, steuert ein NN in echtzeit
die hinternis-erkennung und die steuerung der beiden motoren,
das system lernt dabei auch durch die fehler die es macht.
unueberwachtes lernen.
also ist das NN rein praxisbezogen.
gruss
nomad

xunwichtig
25.04.2007, 10:31
zu a) ... Bin bin auch der Meinung, das n Körper wichtig is, um eben die Umgebung zu verstehen.
zu c) ... also .. du bist der Meineung, das diese Community nicht in der Lage ist ein Funktionsfehiges NN zu erstellen?!?, du selbst aber Mitglied dieses Boards bist, und behauptest, das du das schon mal macht hast?!? ... LOL?!?!?!?!

JimJim
XUN

nomad
25.04.2007, 14:20
na,na.... mach mal halblang --- was heisst LOL -> hoffentlich keine beleidigung
na ich fand es nur einwenig abgefahren und theoretisch, was ihr da rausgelassen habt,
ueber gott und die welt diskutieren....
die diskusion kam mir vor, wie in den 70er und 80er jahren, schach-spielen ist intelligent,
NLP und expertensysteme sind intelligent etc.
bis man jetzt langsam rausfindet das die einfachen sachen die komplexen sind...
und was soll der Unterschied zwischen KI und EI, will da jemand einen
neuen forschungszweig generieren?

nomad

xunwichtig
25.04.2007, 14:27
das "LOL" .. war Zynisch gemeint .. war kein persönlicher angriff ...

KI / EI .. wurde oben schon mal von mir definiert .. Und, Forschen tu ich auf diesem Gebiet schon etwas länger .. weis nicht, ob man das als "offizielen" Forschungszeig ansehen sollte ... Ich persönlich sehe es als dieses an. Obs andere tun .. ka ..

Wie gesagt .. ich erachte >wissen< als Intelligenz, und nicht irgend welche Algos, oder Techniken, die "intelligenz" erschaffen / simmulieren.


JimJim
XUN

nomad
25.04.2007, 14:29
ps
an Manf
ja ungefaehr in diese richtung gehts vermutlich
noch paar andere links
http://birg.epfl.ch/page56262.html
http://ccsl.mae.cornell.edu/research/selfmodels/
http://www.ifi.unizh.ch/ailab/
nomad

nomad
25.04.2007, 14:42
hi
zitat
<
Wie gesagt .. ich erachte >wissen< als Intelligenz, und nicht irgend welche Algos, oder Techniken, die "intelligenz" erschaffen / simmulieren.
>

na ja,
siehe oberen thread ->links
wenn du die verschieden links anguckst, dann steckt hinter jeden der
ansaetze, ein algo.
oder wie willst du einer KI (EI) wissen vermitteln,
da waeren wir wieder bei der frage was wissen ist,
z.b. beim gehen, braucht es da wissen wie die ganze welt aussieht?
doch eher eine ahnung wie man (das system) aus den schlamassel
einigermassen unbeschadet davon kommt.


versuch mal einen blick in das buch von pfeiffer zu werfen,
es lohnt sich -> ailab in zuerich...
nomad

xunwichtig
25.04.2007, 15:06
Natürlich stecken auch Algos dahitner .. aber, es gibt einen unteschied, zwischen Algo A und Algo B ... denn dir jetzt zu erklären, würde ich glaub nicht hinbekommen. Dafür müssten wir uns mal Akustisch utnerhalten ... Schriftlich is das nicht so mein Ding, so komplexe Dinge zu erklären.


JimJim
XUN

nomad
25.04.2007, 16:21
na, ich finde jeder soll nach seiner eigenen vorstellungen gluecklich werden und
den <heiligen gral> finden und noch was, der weg ist das ziel.

=[Elektronische Intelligenz X]=[Command Interpreter Console]=
ob das stimmt = denken koennen auch loose gekoppelte parallele prozesse sein
nomad
und zur eigentlichen frage: glaubt Ihr.......
JA

xunwichtig
25.04.2007, 16:26
=[Elektronische Intelligenz X]=[Command Interpreter Console]=
ob das stimmt = denken koennen auch loose gekoppelte parallele prozesse sein???

robby-fant
25.04.2007, 18:26
natürlich, so blöd wie die menschen sind, geht es sehr schnell, dieses bisschen dämlichkeit zu kopieren.

nomad
26.04.2007, 09:03
dann mach mal
nomad

Manf
26.04.2007, 09:36
In dieser Übersicht sollte sich die Idee von Pfeifer verfolgen lassen, der Ansatz ist vielleicht soetwas wie die Konzentration auf einen Teilaspekt (oder mehrere) und die Einbeziehung der Evolution um die Sache besser zu durchdringen und sich nicht gleich mit der Gesamteit der Fragestellung zu überfordern.
Manfred

http://www.ifi.unizh.ch/ailab/people/pfeifer/newsp.html

nomad
26.04.2007, 13:35
hi,
ja ist eine recht gute zusammenstellung
versuche das, seit einigen monaten mit einem 4-beinigen spinnentier,
(3DOF - 12servos) irgendwie zu verwirklichen,
ein prototyp eines 3-servo-beines hab ich schon, warte zur zeit noch
auf die restlichen servos.
als quasi-controller werden 2 oder mehrere propeller-chips (je 8 cores)
von parallax eingesetzt, -> vorteil alle cores koennen parallel untereinander kommunizieren und steuern.
ps: die chips koennen falls noetig bis zu 96-servos ansteuern. :-;
nomad
es sind aber noch etliche sachen offen.

ehenkes
17.05.2007, 23:54
Hier gibt es einen längeren Thread zu diesem Thema, den ich selbst provokativ angeschoben habe:
http://www.c-plusplus.de/forum/viewtopic-var-t-is-178740.html
Die Diskussion ist aus meiner Sicht allerdings recht roboterfeindlich verlaufen. ;-)

panicrobot
12.12.2007, 10:36
Ich finde die Wissenschaft befindet sich beim Thema künstliche Intelligenz auf dem falschen Weg. Fehler Nr 1 ist die Verwechslung von Menschlichkeit und Intelligenz. Aber bevor ich darauf eingehe erstmal zur Frage "Was ist Intelligenz ?
".
Meine Definition Intelligenz=
-Motivation
-Problem(e) erkennen
-Probleme zuordnen und gewichten
-Lösungstrategie entwerfen
-Lösungstrategie anwenden
-Lösungstrategie bewerten und bei Notwendigkeit anpassen (Erfolg-Misserfolg Lernphase)

Sobald ein Computer dieses System anwendet besitzt es meiner Meinung nach eine Gewisse einfache Intelligenz. Man könnte nun darüber streiten ob z.b. Schachprogramme darunter fallen. Habe da nur so meine Probleme dem Computer da eine Motivation zuzuordnen. Eine komplexe Intelligenz wird meines Erachtens erreicht wenn eine Abstraktionsfähigkeit hinzukommt. Also letztendlich Lösungstrategien so ausgewertet werden das sie auch für andere Problemfelder einen Lösungsansatz bieten können. Ab dann kann ein Computer Probleme angehen die für den Programmierer nicht vorhersehbar waren bzw sich durch die Lösung von Problemen erst ergeben. Der Computer müsste also in der Lage sein sich Problemfelder selbst zu erschließen.

Momentan ist man bei der Programmierung in der Phase dem Computer so was wie Instinkt (stures abarbeiten von Programmcode mit maximal einfacher Intelligenz) beizubringen. Etwas das auch der Mensch/Tier rasend schnell verarbeiten kann. Hier relativiert sich der Geschwindigkeitvorteil des Computers der sicherlich wesentlich schneller komplexe Berechnungen erstellen kann. Was aber wiederum nicht verwunderlich ist da der Mensch diese Fähigkeit so in seiner Entstehung nicht benötigt hat. Und in der Evolution wird nunmal das weiterentwickelt was zum Überleben wichtig ist. Und dazu benötigt der Mensch und Tier ein sehr breites Spektrum an Fähigkeiten die der Computer nicht annähernd erreicht.

Wäre ein Intelligenter Computer nun auch noch Menschlich wäre das wieder ein Zeichen von Dummheit. Um wirklich Menschlich zu sein braucht er erstmal die Menschliche Motivation. Die stärkste sicherlich den Drang zu Überleben. Für einen Computer schon deshalb irrelevant da er nunmal nicht Lebt. Der Mensch hat nunmal etliche Problemfelder die sich einem Computer niemals stellen würden (und umgekehrt). Ein Computer wird vielmehr (und davon bin ich überzeugt) eine Intelligenz entwickeln die seinem dasein dienlich ist (Zumindest sobald er sich durch Komplexität dem Menschlichen Eingriff entzieht). Intelligenz immer am Menschen zu messen ist ein bisschen eine Krankheit der Wissenschaft. Eine Intelligenz entwickelt sich immer an Problemfeldern und die sind schon bei jedem Lebewesen anders. Ein Computer wird genausowenig Menschlich sein wie ein Tier. Und letztendlich wird man nie sagen können wer Intelligenter ist. Weil eben schon die Motivationen der Intelligenz Grundverschieden sind.

So höre nun besser mal auf bevor ich hier weiter langweile

ehenkes
15.12.2007, 16:39
Die Definitionen kann man hier nachlesen:
http://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

Aktuelles Ziel:
http://de.wikipedia.org/wiki/Turing-Test#Loebner-Preis

Schachprogramm:
lediglich brute force mit einigen short cuts und große Datenbanken mit den besten gespielten Partien incl. Bewertung der Züge; es existiert bisher kein mathematisches Modell zur Errechnung des besten Zuges.

regalbilly
15.12.2007, 23:01
Hier gibt es einen längeren Thread zu diesem Thema, den ich selbst provokativ angeschoben habe:
http://www.c-plusplus.de/forum/zeigebeitrag-var-t-is-178740.html
Die Diskussion ist aus meiner Sicht allerdings recht roboterfeindlich verlaufen. ;-)

Du bist ja ein wahrer Enthusiast. Das finde ich klasse. Offensichtlich scheinst Du alle Grundlagen aufgesaugt zu haben, beneidenswert :) Tja Mensch, bloß die Initialzündung fehlt, stimmts?

ehenkes
15.12.2007, 23:21
Tja Mensch, bloß die Initialzündung fehlt, stimmts?Ich denke, dass der wesentliche Punkt die sprachliche Kommunikation ist. Um mit jemand sprechen zu können, muss man eine gewisse Intelligenz besitzen, egal ob als Roboter oder als Mensch. Viele Worte sind mehrdeutig und daher nur im Zusammenhang zu verstehen (Beispiel: Ball). Hier würde ich persönlich den "Zünder" für die Zukunft anlegen. Neben der Erkennung der Bedeutung von Worten (egal ob gesprochen oder geschrieben) gibt es auch noch die visuelle Seite, also die sogenannte Bilderkennung.

Richtig schwierig wird dann die emotionale Seite, z.B. wenn jemand sagt: "Mir ist langweilig" oder "Ich habe eine Sinnkrise".

regalbilly
16.12.2007, 00:24
Dem Punkt der Komunikation stimme ich zu. Für die Entwicklung dessen, worunter sich die meisten Menschen Intelligenz vorstellen, scheint mir eine Interaktion mit anderen Individuen Vorraussetzung zu sein. Manchmal frage ich mich deswegen, ob diese Intelligenz einfach ein synergetischer Effekt ist, der bei Entwicklung von konkurrierenden Gruppen auftritt.

Worauf ich aber eigentlich hinaus wollte, war eine einfachere Form von Intelligenz, so nenne ich es mal, ohne gleich im Definitionsstreit zu enden. Ich frage mich einfach, ob Du nicht aktiv nach den Grundprinzipien suchst, die Kommunikation erst ermöglichen. Irgendwelche Methoden, Strukturen oder dergleichen. Ich meine du hast ein Asuro, RP6 und was weiß ich, verschiedenste Datenrepräsentationen sind Dir bekannt (davon gehe ich bei c++ aus), sicherlich ANN-Sachen, Evolutionsstrategien, genetische Algorithmen, Klassifkiationsmethoden, bestimmt die ganze Palette. Da muss man doch einfach auf Ideen kommen. Man muss nicht am MIT arbeiten um Ideen zu haben.

ehenkes
16.12.2007, 10:59
Ein Ansatzpunkt ist das "Schwarmverhalten", das z.B. hier in Bezug auf Kommunikation beschrieben wird (Uni Lausanne u. EPFL): http://www.nzz.ch/2007/04/18/ft/articleF3JD5.html "Kommunikation zwischen sozialen Lebewesen und die Frage, wie verschiedene Kommunikationsstrategien im Lauf der Evolution entstehen"

Burkart
24.02.2008, 13:45
Hallo,

ich suche Gruppen/Leute, die ernsthaft versuchen, Grundlagen für die "starke KI" zu finden. Ich selbst habe es mir gewissermaßend zur Lebensaufgabe gemacht, wenn auch (erstmal?) "nur" hobbymäßig (allerdings auf Basis meines Informatik-Diploms (1993) mit Schwerpunktsbereich KI).

Meine Ausgangsthese: Starke KI ("sKI") ist möglich. Ich verstehe darunter, dass es keinen prinzipiellen Unterschied zwischen menschlicher und sKI gibt, also dass es keine theoretischen Grenzen für sKI gibt. Das heißt aber nicht, dass sKI zwangsweise identisch oder zumindest sehr ähnlich zum Menschen sein muss (ob das nun gewünscht ist oder nicht).

Zu euren Beiträgen, hier erstmal zum Ausgangsbeitrag:
Ob dies nun durch künstliche neuronale Netze("knN") oder anders geschehen kann, ist mir persönlich eigentlich egal bzw. ich erwarte, dass die Gebiete der symbolischen und der subsymblischen KI (knN) mehr verschmelzen werden. Persönlich bin ich aber mehr für die symbolische KI.

Entscheidend ist m.E. aber viel mehr, dass eine sKI von Grund auf Lernen können muss. Die Frage ist dann die der Ausgangsbasis, des fundamentalen "Wissens" u.ä.
Außerdem muss eine sKI eine "Urmotivation" haben, also von sich aus aktiv agieren (wollen).
Daneben ist ein Körper wie die eines Roboters sehr hilfreich.
(Details ggf. ein anderes Mal.)


Um eine KI zu schaffen, die so wie das Hirn des Menschen arbeitet, müsste man verstehen, wie genau das Hirn arbeitet.
Eine (s)KI muss ja zum Glück nicht genauso arbeiten.

@xunwichtig:
Wie du das genauer siehst, interessiert mich, da du auch schon viele Jahre dabei bist.
Sicher ist Rechenleistung ein Problem, aber vielmehr ist die "Strategie" (wie du es nennst) entscheidend. Wie dies auf biochemischem Weg erreicht werden kann, ist mir nicht klar, allerdings auch nicht mehr Weg als Informatiker.


Künstlich ist auch deshalb unangebracht, da man sich als Gott hin stellt. Eine Intelligenz ist nicht etwas, das man (wir / du / ich) schaffen kann, sondern etwas, das sich mit der zeit selbst bildet. Daher ist KI eine fehlannahme in bezug zur "schaffung" von Intelligenten Systemen.
Ich stimme dir voll zu, dass KI sich mit der Zeit "selbst bildet", nämlich auf Basis (fast) ständigen Lernens. Ob man es nun aber "KI"/"künstlich" nennt, ist ziemlich egal; man wird dadurch nicht zum Gott, sondern nur zum Erschaffer im Sinne eines Ingenieurs o.ä. (vor allem, wenn man es nicht biochemisch/biologisch angeht).


Ihr solltet euch erstmal darüber klar werden, WAS für eine Intelligente Software Ihr überhaupt meint.
Das ist sicherlich nie verkehrt :)


...müssen wir ja erstmal selbst herausfinden, ob wir Intelligent sind, udn was das geanu bedeuten mag. Schliesslich wenden wir hier nur ein Verfahren an, das anhand unseres Massstabs definiert, das "dieses" Intellignet ist, oder nicht.
Bei Intelligenz werden wir Menschen uns selbst meist als Ausgangspunkt nehmen. Für mich ist Intelligenz die (Güte der) Fähigkeit, seine eigenen Ziele/Bedürfnisse/Wünsche zu erreichen/befriedigen zu können.

@Sternthaler:

p_mork hat folgendes geschrieben::

Wahrscheinlich sogar noch besser, denn der Mensch ist alles andere als vollkommen.
Ist aber das nicht genau das Problem? Denn wie sage ich einem Programm, dass es nicht vollkommen das tun soll, was im Programm steht?
Ganz einfach: In dem man bei dem Prgramm nur fundamentale Grundlagen festlegt, den Rest lernt es.


Damit ist dann ja schon mal ein sich selbst änderndes Programm geschaffen.
Das ist zwar grundsätzlich möglich, halte ich aber nicht für zielführend und nötig. Es reicht, wenn das Programm einen kleinen, festen Kern hat und ein immer weiter wachsende "Hülle" durch sein ständig Gelerntes (technisch eine immer weiter wachsende Datenbank u.ä.)
Sollte es wirklich einen grundlegenden Fehler im Kern geben, wäre es sinnvoller, ein neues Programm zu schaffen. Verglichen auf uns Menschen ist das Evolution: Ein einzelner Mensch ändert seine Genstruktur nicht, aber seine Kinder, Enkel usw. habe eine (etwas) andere.


Was verstehen wir überhaupt unter dem Begriff Inteligenz. Der Turing-Test ist ja schon mal ein Ansatz.
Ersteres ist sicher ein wichtiger Punkt, der hier m.A.n. zu weit führt (und eher was für www.philosophie-raum.de ist). Den Turing-Test sehe ich auch als guten Ansatz an - einen besseren gibt es m.A.n. (bisher??) nicht.

@lpw:

Da steckt ein Problem drin, denn wenn wissen macht ist, dann sind Computer in vielen Bereichen intelligenter als Menschen (wenn sie zusammenarbeiten), wenn sie dann noch lernen wie man lernt werden Menschen nicht mehr lange die dominanten "Lebewesen" sein....
Richtig, das Lernen kann den Computer leicht zum "wissens-intelligenteren" Wesen machen. Allerdings muss er dadurch nicht dominant sein: Das ist eine Frage seiner Grundprogrammierung, ob wir ihm einen entsprechenden (Bedürfnis zum) Egoismus zugestehen.

Da ich fürchte, dass mein Beitrag zu lang wird, beende ich diesen hier.

Gruß
Burkart

the_playstat
24.02.2008, 14:06
Ein weiterer Wichtiger Punkt ist die Rechenleistung. Ich habe massive Probleme mit der mir zur verfügung stehenden Kapazität.
Hi xunwichtig. Welche Rechenleistung brauchst Du?
Schon mal über einen Linux-PS3-Grid nachgedacht?
Mittlerweile gibt es schon einige, die man auch mal über Internet vernetzen könnte. Schließlich wurde so nur durch deutsche PS3-Anwender mal eben die Petaflop-Marke überschritten. Der größte Supercomputer Cluster (Blue Gene) schaft lange nicht die Leistung.

Ich arbeite gerade an meinem Grid.
Im Moment hat Er die ca. 68 fache Rechenleistung eines 4GHz Dual-Core-Spiele-PCs. :) Ende dieses Jahres will ich auf ca. 200x kommen.
Der Preis eines solchen Grids ist nicht so hoch, wie man denkt. :)

deSilva
24.02.2008, 14:08
Die "Futurologen" sind natürlich nicht Ende der 70er Jahre ausgestorben, sondern weiterhin unter uns. Einer ist Ray Kurzweil, insbesondere mit seinem unterhaltsamen Buch HOMO S@PIENS
http://www.amazon.de/sapiens-Leben-Jahrhundert-bleibt-Menschen/dp/3462027417/ref=pd_bbs_sr_2?ie=UTF8&s=books&qid=1203861617&sr=8-2

Alle PROGNOSEN erfordern ein Extrapolation der technischen Entwicklung und beruhen auf dem "Moor'schen Gesetz", für das es aber keine Begründung gibt. Jede größere Umwelt- , Kulturelle oder Technische Katastrophe wird dieses Gesetz außer Kraft setzen.

Aber das ist nur die notwendige Basis... Ob ein Exa-FLOPS Rechner für $1000 ausreichen wird (wir haben im Moment Peta-FLOPS Rechner für 100 Mio $) ist noch etwas unklar :-) Darum geht ja auch diese Diskussion.

Übrigens hat man inzwischen die Vorsilben Zetta und Yotta genormt, damit man auch in zehn Jahren noch darüber reden kann :-)

deSilva
24.02.2008, 14:15
Apropos "Grid".. Hier was Nettes und Instruktives zu einem PS3 Verbund (englisch natürlich)...
http://www.netlib.org/utk/people/JackDongarra/PAPERS/scop3.pdf

the_playstat
24.02.2008, 14:19
Mir reicht der hier schon völlig aus. :P
http://www.konsolkoll.se/wp-content/uploads/2007/08/warhawk-cluster.jpg
Im Moment sollte er so aussehen:
http://gravity.phy.umassd.edu/rackfront.jpg

deSilva
24.02.2008, 14:25
Ray Kurzweil - wenn ich mich noch recht erinnere, habe das Buch vor 5 Jahren gelesen - hat zwei Szenarien:
(1) Den Computer im Haus, im besten Sinne ein PDA, der einem soweit wie möglich alles abnimmt. Hier gibt es Kosten- und Volumen-Begrenzungen.
Zeitskala: in etwa 10 bis 20 Jahre

(2) Der "Gott"-Computer, z.B. im ausgehöhlten Mond oder so untergebracht, der - so nebenbei - die gesamte Strukturinformation eines Menschen bzw. menschlichen Gehirns speichert und entsprechend extrapoliert.
Zeitskala: etwa 100 Jahre

Die hierfür notwendige Rechenkraft (mal ganz abgesehen von einigen noch zu lösenden simplen technischen Problemen) ist nicht ganz klar. Der Trick bei solchen Überlegungen besteht darin, dass man von Quantencomputern ausgeht, deren Leistungsfähigkeit auch nicht mehr ganz einfach zu berechnen ist (sie wird etwa in der Größenordnung "unendlich" liegen...)

the_playstat
24.02.2008, 16:04
Ich sehe die zukunft eher in vernetzten Clustern statt in Einzelcomputern.
Rechenleistung ist auch nicht alles. Intelligente Programmierung ist das Zauberwort. Bestes Beispiel hierfür sind Spiele. Manche Spiele kitzeln aus der Hardware beachtliche Leistungen herraus, was Grafik, KI, Physik, Freiheit, ... betrifft. Manche kriegen es trotz min. Umfeld (1 Raum) und fehlender Physik nicht einmal hin, eine anständige KI zu simulieren.

Hier möchte Ich auch mal uneffiziente Betriebssysteme und Antivirenprogramme nennen, die selbst High-End-Rechner trotz mangelhafter Ergebnisse in die Knie zwingen. Scheinbar wird heute gedacht, wenn das eigene Programm schlecht ist, es liege an der Hardware und Sie müsse nur etwas leistungsfähiger sein, damit es funktioniert.
Nein es liegt am Programm. Andere zeigen schließlich, daß es es funzt.

D.h. eine hohe Leistungssteigerung wird nur erreicht, wenn Hardwareleistung und Softwareleistung sich gleichzeitig erhöhen.

Im Zusammenhang mit der Hardwareerhöhung finde Ich immer wieder die Politik der kleinen Schritte problematisch. Jedes Jahr oder erhöht sich die leistung um das Doppelte und die Nutzer kaufen immer wieder fröhlich neu, damit die neuesten Programme (z.B. Spiele die auch wieder nur etwas besser sind) drauf laufen. Nächstes Jahr ist dann wieder ein neuer Rechner fällig. Dann gerne noch mit neuem Bussystem, damit man auch ja nicht alte Komponenten wiederverwenden kann. Diese Politik ist unprofessionell aber sehr lukrativ da dadurch Geräte schell veralten und man natürlich dann etwas neues benötigt.

Damals gab es sehr viel flexiblere Aufrüstsysteme, wo man z.B. bei Bedarf eben 1-16 Prozessoren mehr reinstecken konnte. Selbst bei meinem uralten C64 hatte Ich zum Schluß mehrere Floppys dran, weil in jeder Floppy eine C64-CPU drinsteckte. So konnte Ich schon damals die Leistung meines kleinen Brotkastens vervielfachen. Das waren noch Zeiten. :)

deSilva
24.02.2008, 16:27
Ich kann eigentlich nur in die gleiche (etwas OT) Kerbe hauen. Eine Nummer größer war ich Ende der 80er voll zufrieden mit meinem Macintosh II (2 MB RAM, 16 MHz 68030, FloatingPoint Coprozessor, 80 MB Festplatte, 640x480 Pixeln zu 256 Farben).

Ich habe keine Aufgaben heute, die nicht mit dieser Konfiguration zu bearbeiten wären...

Nach fast 20 Jahren sind PCs nun 1000x so leistungsfähig geworden (o.k sie laufen nominell nicht mit 16 GHz, aber Riesencache, Doppelkern und SSE machen dies Leistungsmäßig aus)

Der Faktor 1000 erfüllt das Moore'sche Gesetz recht genau: Es hat etwa 12 Verdopplungszeiten zu 1,5 Jahren gegeben. Die Differenz ist dem Preisverfall geschuldet.

Diese 1000 mal höhere Leistung trifft natürlich auch die Größrechner.

Wir sollten deshalb auch heute AUF EINEM PC nicht mehr erwarten als "damals" auf einer Cray! Und was macht Blue Gene.. NumberCrunching!

Die Rechenkraft der PC-Server-Farmen wird heute durch interpretierte Sprachen wie PHP abgefangen. Jeder noch so einfache echte Basic Compiler (z.B. "Pure Baisc") zeigt, dass unsere 600 Euro Notebooks völlig überkandidelt "motorisiert" sind.. 5% würde reichen...

Zum Thema: Extrapoliert heißt das, dass wir in 20 Jahren - "best case" - auch wieder so eine formelle (!) Leistungssteigerung erwarten können... Wird uns dass aber zu einem Durchbruch verhelfen (Quantität -> Qualität) ?

Burkart
24.02.2008, 16:56
Weitere Anmerkungen zu früheren Beiträgen...

Zu xunwichtig:

Aber das "wissen" auch nicht viele Menschen, sondern nur Menschen, die dies "erlernt haben" zu erkennen. Von intuition würde ich da nicht ausgehen.

Allerdings ist Intuition auch ein schönes Gebiet in der KI-Thematik.
Ist Intuition nicht immer (zumindest auch) ein "Erlernt haben"? Ansonsten ist die Frage, inwieweit "Intuition" eine KI- oder nicht vielmehr eine Philosophie- oder Psychologie Thematik ist, solange der Begriff nicht für die techniknähere KI relativ genau definiert/beschrieben ist.


Ich glaube sogar daran, das wir uns heutzutage nichtmal vorstellen können, das wir nur am ansatz verstehen, udn begreifen, in WIE WEIT sich die von uns geschaffene Intelligenz einmal entwicklen wird.
Ein interessanter Punkt. Dafür spricht für mich auf jeden Fall, dass wir überhaupt eine entsprechende Intelligenz schaffen können. Ob sie für uns allerdings völlig unbegreifbar, weil absolut weit weg entwickeln wird, lässt sich schwer sagen (bzw. ist relativ/subjektiv). Die Frage ist auch, ob wir als Entwickler dieser Intelligenz es überhaupt zulassen werden/wollen.


Solch eine "künstliche" Intelligent (ob Elektronisch oder Biolchemisch), wird durch die verknüpfung von uns bekannter Technik, und der Leistung von noch kommenden Computertechnologien so drastisch und extrem anwachsen, das Informationen derer nicht mehr "erlernt" werden müssen (im klassischen sinne), sondern einfach nur noch Kopiert und weitergegeben werden können.
Das einfache Kopieren geht m.A.n. nur bedingt: Ein Klonen, also 1:1-Kopieren von Wissen, mag gehen, sofern die Grundprogammierung der KI identisch ist. Aber partielles Kopieren?
Wissen ist ja nicht einfach in völlig unabhängige Teile zerlegbar, die nichts miteinander zu tun haben. Insofern denke ich, dass das Lernen niemals überflüssig sein wird, m.A.n. sogar das wichtigste für Intelligenz überhaupt.


Die neue Generation , welche ich seit 2 Jahren verfolge bassiert auf dem Konzept des eigenständigen Lernens. Es wird nicht mehr vorgegeben, wie sie zu lernen hat, oder was,sondern nur noch die Möglichen Quellen, und den aufbau des Networks. Das system muss quasi erstmal lernen zu lernen. Ei ngrosser nachteil bei diesem verfahren ist die Lange trainingszeit. Es werden wohl mehrere Monate Training, oder mehr von nöten siein, nur um ihr erstmal ein kleines verständniss von den Grundlagen zu geben. Wie sie mit Ihren Schnitstellen umgehen muss, welche Funktion für was zuständig ist, usw.
Wie du das genauer realisiert hast, interessiert mich. Basiert dein Lernen auf neuronalen Netzen?

Zu Felix G.:

Wir können neues Wissen quasi "aus dem Nichts" erschaffen.
Ach wäre das schön, dann hätten wir die wahre KI sicher schon :)


Stellt man ein Tier vor ein Problem das ihm unbekannt ist, dann wird es wohl durch ausprobieren irgendwann zu einer Lösung kommen. Wir hingegen können das Problem analysieren und verstehen, und dadurch auf kreative Art aus unserem vorhandenen Wissen eine Lösung für dieses spezielle Problem zusammensetzen.
Unterschätze mal andere Tiere wie z.B. Schimpansen nicht... Sicher dürften wir analyse-erfahrener sein, aber einen prinzipiellen Unterschied sehe ich nicht.

the_playstat
24.02.2008, 17:13
Unterschätze mal andere Tiere wie z.B. Schimpansen nicht... Sicher dürften wir analyse-erfahrener sein, aber einen prinzipiellen Unterschied sehe ich nicht.
Das gilt schon für Spatzen und andere Tiere wie Versuche gezeigt haben.

Burkart
24.02.2008, 18:25
Was ich noch loswerden möchte...

Witze und Emotionen sind wirklich ein schwieriges KI-Gebiet, zumal Witzigkeit ja sehr subjektiv ist.


Wie gesagt .. ich erachte >wissen< als Intelligenz,
xunwichtig: Was für Wissen meinst du bzw. was verstehst du hier unter "Wissen"? Ich sehe es grundsätzlich auch so, dass Intelligenz ohne (recht viel) Wissen nicht funktioniert, allerdings ist Wissen alleine noch nicht ausreichend für Intelligenz.

Zu panicrobot:

Meine Definition Intelligenz=
-Motivation
-Problem(e) erkennen
-Probleme zuordnen und gewichten
-Lösungstrategie entwerfen
-Lösungstrategie anwenden
-Lösungstrategie bewerten und bei Notwendigkeit anpassen (Erfolg-Misserfolg Lernphase)
An der Definition gefällt mir schon mal die "Motivation" (was ich als selbständigen Willen zum Denken (und ggf. Handenn) interpretiere) und die Problem- und Lösungsorientierung. Allerdings ist kommt mir das Lernen zu kurz, jedenfalls für weitergehende Intelligenz.


Habe da nur so meine Probleme dem Computer da eine Motivation zuzuordnen.
Inwiefern? Gefühlsmäßig für dich - oder aber technisch/algorithmisch?
Zu letzterem: Heutige Computer warten die meiste Zeit, bis sie etwas Sinnvolles zu tun haben. Eine Intelligenz vielmehr wird (fast) immer was tun, ob nun Datenaufnahme, deren Verarbeitung, vor allem aber Abgleich des Ganzen mit den grundlegenden und darauf aufbauenden Zielen/"Bedürfnissen"/"Wünschen" der KI.


Eine komplexe Intelligenz wird meines Erachtens erreicht wenn eine Abstraktionsfähigkeit hinzukommt. Also letztendlich Lösungstrategien so ausgewertet werden das sie auch für andere Problemfelder einen Lösungsansatz bieten können.
Genau, Abstraktion ist absolut notwendig. Das ergibt sich alleine schon durch die in der Welt nie ganz gleiche ("Lebens-)Situationen. Die eben angerissenen Ziele stellen insofern eine Hilfe dar, als dass für sie ihre (ggf. partielle) Erreichung im Vordergrund steht, nicht aber das präzise Wie.


Ab dann kann ein Computer Probleme angehen die für den Programmierer nicht vorhersehbar waren bzw sich durch die Lösung von Problemen erst ergeben. Der Computer müsste also in der Lage sein sich Problemfelder selbst zu erschließen.
Genau dafür ist das Lernen sehr wichtig. Dadurch wird eine KI unabhängig von seiner Grundprogrammierung und kann sich (auch) anderen Gebieten widmen.


Wäre ein Intelligenter Computer nun auch noch Menschlich wäre das wieder ein Zeichen von Dummheit.
Da sollte man relativieren, weil Menschlichkeit ja auch gute Seiten hat.


Die stärkste sicherlich den Drang zu Überleben. Für einen Computer schon deshalb irrelevant da er nunmal nicht Lebt.
Moooment: Der Computer existiert aber und hat sicher ein Interesse an seinem Weiterbestehen. Allerdings muss (und sollte wohl auch?) es nicht so stark wie beim Menschen sein.


Intelligenz immer am Menschen zu messen ist ein bisschen eine Krankheit der Wissenschaft. Eine Intelligenz entwickelt sich immer an Problemfeldern und die sind schon bei jedem Lebewesen anders. Ein Computer wird genausowenig Menschlich sein wie ein Tier
Du unterschätzt hier die Ähnlichkeit der Intelligenz zwischen Mensch und KI. Richtig ist, dass die Problemfelder wichtig sind, aber warum sollen diese bei einer KI so ganz anders als beim Menschen sein, zumal wir die KI ja nicht "irgendwie" entwerfen, sondern irgendwie für uns!? Und dass Mensch und Tier auch nicht soo verschieden sind, ist auch schon öfters diskutiert worden.

Zu ehenkes:
Es freut mich, dass du die sprachliche Kommunikation erwähnt. Diese ist sicher sehr wichtig für Intelligenz.
Da m.A.n. eine KI vor allem auf Lernen beruht, ist Kommunikation für sie sehr wichtig, schon alleine um vom menschlichen Lehrer lernen zu können, ob nun einfach durch positiven oder negativen Feedback ("gut/schlecht gemacht") oder durch Wissensvermittlung.

Zu regalbilly:

Ich frage mich einfach, ob Du nicht aktiv nach den Grundprinzipien suchst, die Kommunikation erst ermöglichen. Irgendwelche Methoden, Strukturen oder dergleichen.
An was für Methoden u.ä. denkst du dabei? Meinst du wirklich nur technische oder vergleichst du auch mit menschlicher Kommunikation?

deSilva
24.02.2008, 18:32
Bei solchen interessanten Diskussionen ist es immer, dass man 1000 Anmerkungen hat, die man gar nicht unterbringen kann :-)

Ich möchte hier mal den "Aspekt" Zeitskale ins Spiel bringen:
- "Lernen" im Zuge der Biologischen Evolution (100k Jahre)
- gerichtet (Züchtung) (1k Jahre)
- Lernen durch "trial-and-error" ( 10 Jahre/Aspekt)
- gerichtete ("Erziehen") ( 10 Jahre/ca 1000 Aspekte)
- Lernen durch interne Modellbildung ("Denken") (einige Tage/Aspekt)
- gerichtet ("Erklärung") (einige Stunden/Aspekt)


Das sind sozusagen unsere "Grenzen". Wir als Menschen haben hier keine "parallele Reserven", d.h. wir können nicht zwei Aspekte GLEICHZEITIG lernen, oder nur in ganz seltenen Fällen, wenn verschiedenen der o.g. Ebenen beteiligt sind.

Eine KI könnte aber ev. "parallel" lernen (wobei sich da die Frage stellt, inwieweit "integrative Vorgänge" nicht notwendigerweise sequenziell sind...)

Wenn wir die o. Zeitskala jetzt weiterdenken, dann könnte eine KI in wenigen Sekunden den gesamten Lebenslauf eines Menschen analysieren und daraus Schlüsse und Bewertungen ziehen.. Oder alle jemals gemachten chemische Experimente..... Oder genauer: Diese beides innerhalb einer halben Stunde....
Ein Genie hoch 10..... Aber was wäre das???

Burkart
24.02.2008, 22:18
Bei solchen interessanten Diskussionen ist es immer, dass man 1000 Anmerkungen hat, die man gar nicht unterbringen kann :)
Wohl wahr, aber man kann's immerhin halbwegs versuchen ;)


Ich möchte hier mal den "Aspekt" Zeitskale ins Spiel bringen:
- "Lernen" im Zuge der Biologischen Evolution (100k Jahre)
- gerichtet (Züchtung) (1k Jahre)
- Lernen durch "trial-and-error" ( 10 Jahre/Aspekt)
- gerichtete ("Erziehen") ( 10 Jahre/ca 1000 Aspekte)
- Lernen durch interne Modellbildung ("Denken") (einige Tage/Aspekt)
- gerichtet ("Erklärung") (einige Stunden/Aspekt)

Das sind sozusagen unsere "Grenzen".
Hm, Grenzen? Wohl mehr grober Erfahrungswerte, soweit sie denn hinkommen. Z.B. wird ein Kleinkind durch trial-and-error sicher einiges lernen.


Wir als Menschen haben hier keine "parallele Reserven", d.h. wir können nicht zwei Aspekte GLEICHZEITIG lernen, oder nur in ganz seltenen Fällen, wenn verschiedenen der o.g. Ebenen beteiligt sind.
Macht ja nicht unbedingt was... (Immerhin sind wir ja ein paar Milliarden Menschen.)


Eine KI könnte aber ev. "parallel" lernen (wobei sich da die Frage stellt, inwieweit "integrative Vorgänge" nicht notwendigerweise sequenziell sind...)
Stimmt, es ist die Frage, inwiefern KIs wirklich viel besser parallel lernen, wegen integrativer Vorgänge, aber auch, weil wir ja Aspekte zu unterschiedlichen Lerneinheiten zwischenspeichern und diese quasi parallel ("Zeitscheiben-mäßig") verarbeiten können. Komplexes Lernen geht ja oft nicht einfach von jetzt auf gleich.


Wenn wir die o. Zeitskala jetzt weiterdenken, dann könnte eine KI in wenigen Sekunden den gesamten Lebenslauf eines Menschen analysieren und daraus Schlüsse und Bewertungen ziehen..
Das müsste zumindest der ganze Lebenslauf schon (stark komprimiert im Vergleich zu einem echten Leben) digital vorliegen. Klar, bei solchen Dateien kann ein Programm sicher schnell analysieren, aber das spiegelt die eigentliche Realität (eines Lebens) kaum wider.


Oder alle jemals gemachten chemische Experimente..... Oder genauer: Diese beides innerhalb einer halben Stunde....
Ein Genie hoch 10..... Aber was wäre das???
Tja, was wäre das... So können ja höchstens die digitalisierten Ergebnisse der Experimente so schnell verarbeitet werden, nicht die Experimente selbst. Damit fehlt der Realbezug. Auch die Hintergründe und das Warum der Experimente dürfte oft verloren gehen.

Entscheidend ist, dass dadurch vielleicht ein gutes Expertensystem entstehen kann, aber keine KI, die wirklich intelligent ist (also selbst gelernt auf der Welt gelernt hat u.ä.)

deSilva
25.02.2008, 10:23
Entscheidend ist, dass dadurch vielleicht ein gutes Expertensystem entstehen kann, aber keine KI, die wirklich intelligent ist (also selbst gelernt auf der Welt gelernt hat u.ä.)

Ja und Nein...
(1) Ich wollte in meiner Argumentation in erster Linie auf die Frage eingehen: Was kommt nach dem Menschen? In Bezug auf Geschwindigkeit des "Lernen".. Sicher gibt es hier einige wie mich, die noch ohne Internet Daten beschaffen mussten, indem sie stunden- oder tagelang in Bibliotheken saßen oder auf die "Fernleihe" warteten :-)

(2) Da wir nur sehr unklare Vorstellungen davon haben wann "Bewusstsein" oder (analytische) "Intelligenz" entsteht, könnte es sein, dass dies einfach schon durch so einen Masseneffekt geschieht.. oder wenigstens erleichtert wird... Insbesondere "trial- and -error" (auch wenn dies ein extrem uneffektives Verfahren ist) ist perfekt zu parallelisieren...

deSilva
25.02.2008, 16:55
Es werden sich natürlich hochinteressante Unterschiede ergeben, wie bei der Frage: "Woher weißt Du das?"

In der Menschheitsgeschichte waren "richtige" Antworten;
- Das hat mir mein Vater (Lehrer) gesagt!
- Das habe ich selbst schon erlebt
- Das habe ich in einem mir zuverlässig erscheinendem Buch gelesen
- Das wird in der ganzen Welt so regelmäßig ohne größeren Widerspruch veröffentlicht
- Das erscheint mir konsistent zu meinem Weltbild

Eine KI könnte z.B. sagen: "Das ist das Ergebnis von 2 Millionen von mir durchgeführten Simulationen unter Abänderung meines internen Weltmodells an 36 fragwürdigen Parametern im Rahmen der mir bekannten Plausibiltätsüberlegungen, die in den letzten 200 Jahren publiziert wurden..."

Burkart
25.02.2008, 21:40
Entscheidend ist, dass dadurch vielleicht ein gutes Expertensystem entstehen kann, aber keine KI, die wirklich intelligent ist (also selbst gelernt auf der Welt gelernt hat u.ä.)

Ja und Nein...
(1) Ich wollte in meiner Argumentation in erster Linie auf die Frage eingehen: Was kommt nach dem Menschen? In Bezug auf Geschwindigkeit des "Lernen".. Sicher gibt es hier einige wie mich, die noch ohne Internet Daten beschaffen mussten, indem sie stunden- oder tagelang in Bibliotheken saßen oder auf die "Fernleihe" warteten :-)
Ok, die Lerngeschwindigkeit wird KIs sicher eine andere bzw. KI-spezifische(re) sein. Ob nun immer schneller, sei dahingestellt. Klar, wenn sie sich Infos digital holt, mag sie wesentlich schneller sein. Wenn sie allerdings auf die Umwelt angewiesen ist... ist halt eine Frage ihrer Programmierung, ihrer "Sinne" und deren Eingabeverarbeitung usw.


(2) Da wir nur sehr unklare Vorstellungen davon haben wann "Bewusstsein" oder (analytische) "Intelligenz" entsteht, könnte es sein, dass dies einfach schon durch so einen Masseneffekt geschieht.. oder wenigstens erleichtert wird... Insbesondere "trial- and -error" (auch wenn dies ein extrem uneffektives Verfahren ist) ist perfekt zu parallelisieren...
Ich denke, es ist entscheidener, was wir für Bewusstsein u.ä. halten bzw. akzeptieren. Bei "Intelligenz" ist unsere Akzeptanz ja eher rückläufig: Waren z.B. Suchverfahren früher noch KI, sind sie heute "normale" Algorithmen - und insofern auch Schach immer weniger intelligent, je genauer man die Algorithmen kennt.
Sicher ist "trial- and -error" für Wissensgewinnung hilfreich, aber ich sehe nicht, wie daraus durch Zauberei (Masseneffekt) Bewusstsein und so was wird.

Burkart
25.02.2008, 22:00
Es werden sich natürlich hochinteressante Unterschiede ergeben, wie bei der Frage: "Woher weißt Du das?"

In der Menschheitsgeschichte waren "richtige" Antworten;
- Das hat mir mein Vater (Lehrer) gesagt!
- Das habe ich selbst schon erlebt
- Das habe ich in einem mir zuverlässig erscheinendem Buch gelesen
- Das wird in der ganzen Welt so regelmäßig ohne größeren Widerspruch veröffentlicht
- Das erscheint mir konsistent zu meinem Weltbild

Eine KI könnte z.B. sagen: "Das ist das Ergebnis von 2 Millionen von mir durchgeführten Simulationen unter Abänderung meines internen Weltmodells an 36 fragwürdigen Parametern im Rahmen der mir bekannten Plausibiltätsüberlegungen, die in den letzten 200 Jahren publiziert wurden..."
Tja, ein guter Punkt: Woher weiß der Mensch oder eine KI etwas?
Ich denke, dass eine KI auch sinnvollerweise einen Lehrer braucht so wie Kindern ihre Eltern, Lehrer, aber auch andere Menschen dazu haben.

Wem man (ob nun Mensch oder KI) am meisten glaubt, ist auch so 'ne Sache. Kinder glauben sicher den ihnen am besten vertrauten (älteren) Menschen (i.a. Eltern) am meisten. Insofern würde ich einer KI auch am besten einem (oder wenigen) Menschen am meisten vertrauen lassen wollen. Später kann man (Mensch oder KI) durch eigene Erfahrung (also entsprechend Gelerntem!) und/oder Abgleich mehrerer Informationsquellen prüfen, welche Infos wohl am vertrauenswürdigsten sind.

Dass du die KI unzählige Simulationen durchführen lassen willst, erinnert mich daran, dass sie sicher eine "natürliche(re)" Schnittstelle zur digitalen Welt haben kann als wir Menschen. Andererseits ist Simulation nur eine Berechnung innerhalb eines Modells, also nur bedingt übertragbar auf die reale Welt. Somit kommt man mit ihr nur bedingt zu praktischen Ergebnissen.

deSilva
26.02.2008, 18:11
Voll einverstanden! Ich will ja auch vor allem auf die Unterschiede hinaus.. Eine KI wird Erkenntnisstrategien benutzen, die uns Menschen verschlossen sind, nicht "prinzipiell", aber praktisch...

Und was die "Richtigkeit" angeht.. Was ist Wahrheit?
Seit wir seit den 17. Jh. vor allem "naturwissenschaftlich" vorgehen, ist die Relativität aller Kenntnis ja nicht nur bekannt, sondern Kernstück dieser Methodik - auch wenn gerade die Naturwissenschaftler gerne zu tun, als ob dies nicht der Fall ist.

Da ich ein eingefleischter Sozi(obiologe) a la Dawkins bin, kann ich nur sagen: "Es kommt nicht darauf an, Recht zu haben, sondern möglichst viele Enkel" :-)

Und da machen uns die Festplatten etwas vor! Im besten Sinne der Viren ("Wir überlassen die schwierigen Sachen den Doofen!") ist da eine (sozio)biologisch hochinteressante Stammeslinie entstanden.. Zwar im Prinzip nicht wirklich intelligent, aber wenn ich mir da die neuesten Hybridplatten angucke... wer weiß....

qox
09.10.2012, 15:30
Sry für den extrem lange Beitrag aber ich habe meine Gründe ;)

Extrem intressante diskussion, cool das sich Leute immer wieder darüber gedanken machen.
So und nun gebe ich meinen Senf dazu:

Leute denkt doch mal etwas Quer ;)

Die Genetischen Algorithmen sind ein guter Anfang für eine starke Inteligenz einfach weil sie Lösungen (bewiesener Maßen) fabrizieren können auf die noch kein Mensch gekommen ist.
Das hebelt schonmal imho die überzeugung aus das man nix sinnvolles mit dem Zufall erschaffen kann.

Bei Watson wurden zum Teil auch heuristische/stochastische Verfahren angewandt einfach weil man die Regeln nicht fest reinschreiben kann (weilszu lange dauern würde).

Es hängt meiner meinung nach nicht von der Rechenleistung ab wann wir eine starke Inteligenz haben sondern von den Algorithmen (sowohl klassich als auch für zukünftige Quantencomputer).

Meiner Meinung nach ist ein Quantencomputer der fehlende Baustein in dem KI puzzel, weil man mit einem Quantencomputer bestimmte Aufgaben extrem viel schneller ausführen kann als mit den klassischen Computern.
Zum Beispiel könnte man extrem schnell Sprache oder Text erkennen, ist schon mal ein anfang.
Und wenn man es schafft ein stochastisches Neuronales Netzwerk auf nem Quantencomputer zum laufen zu bringen hätte man noch nen Baustein mehr.


>naja... eine starke KI ist im grunde eine erweiterte schwache KI .. welche mehrere kleine Logische und einfache Aufgaben durch einanderes verfahren insich vereint.

könnte ggf. der falsche weg sein... ist aber nur meine Meinung, wir werden das wohl erst in einigen Hundert Jahren wissen.

>Wir verstehen heutzutage schon das Prinzip dahinter. Zwar fehlen noch einige Infos, allerdings ist der Grundstein keines wegs "zufälliger Natur".

Bist du dir sicher... wir verstehen heute überhaupt nix von Inteligenz... das kann ich daran festmachen das man nicht mal weiß was in einem neuron genau passiert, und wenn man nicht mal die Grundlagen kennt, wie soll man darauf aufbauen können?

>auserdem würden wir menschen dann voll von den maschinen ABHÄNGIG

sind wir das nicht schon, schau dich mal in deiner Umgebung um, überall Handys/Smartphones, Lapies und so weiter, im Auto ist es auch nicht anders und von der Infrakstruktur (Strom, Wasser, Gas, Elektrizität) will ich auch nicht reden.

>Aber zum Topic, ich glaube schon dass eine dem Menschen angemessene KI möglich sein wird, aber es is Fraglich in welchen gebieten...
In Logischen zusammenhängen, Mathematischen Problemen usw sicher..

Gibts doch schon, schau dir Watson an, oder Mathematica... ist auch so ne art "KI" (wenn auch nur schwach, worum es hier ja nicht geht)

>Ob die Hirnforschung irgendwann in der Lage is eine 'Schnittstelle' zu Biologischen Neuralen Systemen herzustellen

interessanter Punkt, ich denke das es eher in die Richtung gehen wird (eine art symbiose zwischen normaler inteligenz und künstlicher... ist irgendwie total krank und das richtige für ne Scifi endzeit story)

>Wir können die logischen Zusammenhänge erkennen, und Lösungen erarbeiten ohne "rumprobieren" zu müssen.

Falsch, in der Physik z.b. machst du nur noch experimente um deine Theorien zu bestätigen, die Chemie wurde auch nur durch zufall entdeckt und man muss da auch experimentieren.
Radioaktivität wurde auch durch zufall entdeckt usw usf.

>Ein Tier das sich an einer Herdplatte verbrennt, wird aus dieser Erfahrung natürlich auch lernen und die Herdplatte in Zukunft meiden. Aber dieses Tier wird die Herdplatte immer meiden, und nicht nur wenn sie eingeschaltet ist, weil es nicht verstehen kann daß sie nicht immer heiß ist.
Hast du dir schonmal die dokus über die inteligenz von Raben und Oktopus(en?) angeguckt... ist extrem interessant und ich denke das die tierchen sehrwohl "denken" können.
(Raten sind auch sehr inteligente tierchen btw)

>Wäre ein Intelligenter Computer nun auch noch Menschlich wäre das wieder ein Zeichen von Dummheit. Um wirklich Menschlich zu sein braucht er erstmal die Menschliche Motivation. Die stärkste sicherlich den Drang zu Überleben. Für einen Computer schon deshalb irrelevant da er nunmal nicht Lebt.
Nächstes Problem, wo fängt leben an und wo endet es...
Lebt ein inteligenter Roboter oder nicht, wo zieht man da die grenze?

>Schachprogramm:
lediglich brute force mit einigen short cuts und große Datenbanken mit den besten gespielten Partien incl. Bewertung der Züge; es existiert bisher kein mathematisches Modell zur Errechnung des besten Zuges.

Bruteforce oder guter Algo... gute frage ;)
Zur zeit setzt man ja nur auf Brute force... aber andererseits...was ist wenn der "inteligenter" algo ein problem nicht selbstständig lösen kann... da du es beim entwickeln/testen nicht bedacht hast?

>Ich denke, dass der wesentliche Punkt die sprachliche Kommunikation ist. Um mit jemand sprechen zu können, muss man eine gewisse Intelligenz besitzen, egal ob als Roboter oder als Mensch. Viele Worte sind mehrdeutig und daher nur im Zusammenhang zu verstehen (Beispiel: Ball). Hier würde ich persönlich den "Zünder" für die Zukunft anlegen.

Korrekt, es gibt schon ansätze (siehe Watson) aber ob das der goldene Weg ist frage ich mich.

Zum thema Symbolische KI vs NN vs everything else...
Symbolische KI deckt nur ein kleines spektrum der inteligenz ab (bilderkennung und spracherkennung ist damit zb imho unmöglich) und es zählt auch zu den bruteforce algos...

>Die hierfür notwendige Rechenkraft (mal ganz abgesehen von einigen noch zu lösenden simplen technischen Problemen) ist nicht ganz klar. Der Trick bei solchen Überlegungen besteht darin, dass man von Quantencomputern ausgeht, deren Leistungsfähigkeit auch nicht mehr ganz einfach zu berechnen ist (sie wird etwa in der Größenordnung "unendlich" liegen...)

Oh das erste mal das wort Quantencomputer... Gratulation... leider bekommst du keinen Preis ;)

>Die Rechenkraft der PC-Server-Farmen wird heute durch interpretierte Sprachen wie PHP abgefangen. Jeder noch so einfache echte Basic Compiler (z.B. "Pure Baisc") zeigt, dass unsere 600 Euro Notebooks völlig überkandidelt "motorisiert" sind.. 5% würde reichen...

Naja... es gibt ja noch andere Nutzer... zum beispiel zum rendern brauch man viele FLOPS.
Aber prinzipiel hast du recht, allerdings nimmt PHP dir viel ab was man in C++ manueal machen muss (GC, andere dinger).

>Zum Thema: Extrapoliert heißt das, dass wir in 20 Jahren - "best case" - auch wieder so eine formelle (!) Leistungssteigerung erwarten können... Wird uns dass aber zu einem Durchbruch verhelfen (Quantität -> Qualität) ?

Wenns gut läuft... vielleicht geraten die (silizium) technologien aber auch bald an eine grenze... so oder so.

>Witze und Emotionen sind wirklich ein schwieriges KI-Gebiet, zumal Witzigkeit ja sehr subjektiv ist.

Guter punkt... es gibt ja verschiedene Witz typen... Geeke und nicht geeky und so weiter... ich muss nur persönlich an die xkcd witze denken wo ich immer abfeier und die anderen sich wunder warum ich so abgeh :D
(zumal die witze auch richtig geeky sind...)

>Das sind sozusagen unsere "Grenzen". Wir als Menschen haben hier keine "parallele Reserven", d.h. wir können nicht zwei Aspekte GLEICHZEITIG lernen, oder nur in ganz seltenen Fällen, wenn verschiedenen der o.g. Ebenen beteiligt sind.

Bedingt, wenn ich zb. einen englischen Text über Compilerbau, die Architektur von Prozessor X in Englisch (oder jeder anderen Sprache die ich ansatzweise kann) lese lerne ich _gleichzeitig_ englisch, das Layout, den Inhalt und andere dinge auch.
Außerdem höre ich ja gleichzeitig dinge aus meiner umwelt und lerne auch diese (wenn auch nur unbewusst...ist egal).

>Eine KI könnte aber ev. "parallel" lernen

beängstigend...

>Eine KI könnte z.B. sagen: "Das ist das Ergebnis von 2 Millionen von mir durchgeführten Simulationen unter Abänderung meines internen Weltmodells an 36 fragwürdigen Parametern im Rahmen der mir bekannten Plausibiltätsüberlegungen, die in den letzten 200 Jahren publiziert wurden..."

Lol, korrekt.
Erinnert mich wieder an Watson...hmmm


Warum versteifen sich alle auf NN's, nur weil sie dem menschlichen neuronalen Netz nachempfunden sind heißt das noch lange nicht das sie alleine zu einer starken Ki führen können.
Es gibt auch andere herangehensweisen an das Problem starke KI.

Es ist auch die frage ob man nur einen Algo braucht (der noch nicht entwickelt wurde) der das Probelm löst oder ob man zig algorithmen (100...1000 und mehr) kombinieren muss sodass sich das problem lösen lässt.
Die Frage die sich dann stellt ist ob sich die Inteligenz die man mit dem Prinzip erstellt hat schnell genug oder übrhaupt an neue Aufgabenarten anpassen kann.

Interessant ist auch die Idee (schlauere) überwachungs KI's einzusetzen die die dummen im Zaum halten... aber was macht man wenn die Schlauere randalieren will (ein problem der endlosrekursion *g*)

Vielleicht ist das problem der starken Inteligenz einfach zu schwierig um es in 200 Jahren zu schaffen, änlich wie das problem des beamens von lebewesen (physikalische gesetze und co).
Es könnte auch sein das die Informatik auf dem falschen Weg ist, änlich wie die Netwon Physik vor Einstein und der Quantenmechanik... keiner weiß es.

Zum Thema Rechenleistung:
NN's, Genetische Algorithmen, Genetische Programmierung und co kann man sicher gut (mit z.b. openCL oder CUDA oder directCompute oder oder...) auf der GPU implementieren....ist sicher schneller als auf der GPU.


und noch mehr...

Genetische Algorithmen und co divergieren auf eine Lösung zu die nicht omtimal ist... nach einigen Tausend Generationen kann es vorkommen das sich eine bessere lösung einstellt usw... aber irgendwann mal geht es nicht mehr weiter... (wobei die Lösung immer noch nicht ideal ist) deshalb denke ich das die Rechenleistung aleine das problem nicht lösen kann

...

komisch das niemand erwähnt hat das der großteil des (menschlichen) Gehirns nur für das unterbewusstsein zuständig ist.. vielleicht gibt es garkein bewusstsein (ich mache mich nun zum psychopaten aber was ist wenn...)
Wie unterscheide ich ob jemand eine Seele hat oder nicht...
Gut das wird jetzt zu viel Philosophie aber irgendwie konnte ich es nicht lassen.

Ich könnte Tagelang mich über das Thema auslassen aber irgendwann mal muss schluss sein ;)

eof

Schrotty
15.11.2012, 15:50
hm, ein sensibeles Thema. Intelligenz ist ja nicht nur das erlernen durch "programieren" (übertragen gemeint). sondern auch das Zusammenspiel, zwischen erlerntem und bewust erlebt wahrgenommenen ( fühlen, sehen, hören, Geruch, Geschmack, etc, etc) also auf Roboterbasis gesehen, zwischen Programm und Sensoren.
Nebenbei, müßte die KI in der Lage sein, dieses Zusammenspiel, auf Sich selbst und Ihrem Vorhandensein zu projizieren.

Ich meine, mit einem einfachem Selbstlernalgorithmus, geht das nicht zu bewerksteligen, da dieser sich ja auch nur im Rahmen der vorprogrammierten Parameter bewegen kann. Diese Schranke würde erstmal zu überwinden sein.

Das wiederum setze vorraus, das ein total unprogramierter Rohrobot, der nur mit Grundsensorischen und Motorischen Fähigkeiten gewappnet ist, Sich selber Programieren müßte.

Selber erlernen, wie ein Zusammenspiel von Motorik, Sensorik und Langzeitspeicher funktioniert.

In diesem Augenblick würden wir aber an die Grenze künstlichem Lebens und Bewustsein geraten und im Gesellschaftlichem Maßstab die Frage stellen, ist dieser Weg überhaupt wünschenswert.

hans99
15.11.2012, 18:00
Naja,

eine Intelligenz auf Erden ist immer durch das Ich bestimmt. Egal ob das Fruchtfliegen, Pilze oder sonstige Lebewesen sind.

Das fehlt der KI. Eine künstliche Intelligenz, die durch den Menschen erzeugt wird (wurde), wird nie eine wie auch immer geartete Intelligenz (ein Ich) haben und kann auch durch den Menschen nicht erzeugt werden.

Alle Lebewesen auf Erden (egal welcher Gattung) arbeiten analog und haben ein Ich.

Viel Freude beim nachmachen. ;)