Hi,
problem der ganzen Sache ist, das der Computer die Sätze ja nicht nur analysieren können muss, was einzelne Wörter angeht, sondern er muss den Sinn erfassen, und dazu braucht man mehr als eine Datenbank.
Es geht dabei um kulturellen Hintergrund, Vorstellungsvermögen, Intuition, Eingehen auf den Gesprächspartner, etc.
1960 oder so in dem Dreh wurden die ersten Ansätze gemacht und man war der Meinung, das es nur noch wenige Jahre dauern könnte, bis der sprechende, zuhörende und intelligente Computer fertig ist. Nun ja, das ist schon ein wenig her, und mit Ausnahme von einigen Expertensystemen, die sich auf winzigem Wissensraum recht intelligent verhalten, ist da nicht viel nach gekommen.
Mal ein paar Beispiele, warum dies so schwer ist:
"mir geht es heute nicht gut"
was soll ein programm damit anfangen? kann da jemand schlecht gehen? auch wenn der sinn erfasst würde - um sinnvoll darauf zu reagieren, müßte sich das programm in den Menschen "hineinfühlen" können, um daraus etwas gescheites zu machen.
"der Hahn tropft"
und der PC hat in seiner Datenbank gespeichert, das er morgens kräht
Die Mehrdeutigkeit ist ein großes Problem, das sich manchmal nur im Zusammenhang eines Gesprächs lösen läßt. Der PC kann also nicht Satz für Satz einfach analysieren, sondern muß den Grundgedanken des ganzen Gesprächs immer "im Hinterkopf" haben.
Es gibt zahllose Probleme. Der PC müßte von jedem Ding eine Vorstellung haben, um sinnvoll darüber reden zu können. Er müßte sich ein Bild der Welt machen können.
Er müßte wirklich intelligent sein, eine eigene Persönlichkeit, Bewußtsein und Ansichten haben. Das wird nix.
Gruß MeckPommER
P.S.: wenn das Gehirn so einfach wäre, das wir es verstehen könnten, wären wir zu dumm um es zu begreifen.
Lesezeichen