-
-
Erfahrener Benutzer
Fleißiges Mitglied
Voll einverstanden! Ich will ja auch vor allem auf die Unterschiede hinaus.. Eine KI wird Erkenntnisstrategien benutzen, die uns Menschen verschlossen sind, nicht "prinzipiell", aber praktisch...
Und was die "Richtigkeit" angeht.. Was ist Wahrheit?
Seit wir seit den 17. Jh. vor allem "naturwissenschaftlich" vorgehen, ist die Relativität aller Kenntnis ja nicht nur bekannt, sondern Kernstück dieser Methodik - auch wenn gerade die Naturwissenschaftler gerne zu tun, als ob dies nicht der Fall ist.
Da ich ein eingefleischter Sozi(obiologe) a la Dawkins bin, kann ich nur sagen: "Es kommt nicht darauf an, Recht zu haben, sondern möglichst viele Enkel"
Und da machen uns die Festplatten etwas vor! Im besten Sinne der Viren ("Wir überlassen die schwierigen Sachen den Doofen!") ist da eine (sozio)biologisch hochinteressante Stammeslinie entstanden.. Zwar im Prinzip nicht wirklich intelligent, aber wenn ich mir da die neuesten Hybridplatten angucke... wer weiß....
-
Sry für den extrem lange Beitrag aber ich habe meine Gründe
Extrem intressante diskussion, cool das sich Leute immer wieder darüber gedanken machen.
So und nun gebe ich meinen Senf dazu:
Leute denkt doch mal etwas Quer
Die Genetischen Algorithmen sind ein guter Anfang für eine starke Inteligenz einfach weil sie Lösungen (bewiesener Maßen) fabrizieren können auf die noch kein Mensch gekommen ist.
Das hebelt schonmal imho die überzeugung aus das man nix sinnvolles mit dem Zufall erschaffen kann.
Bei Watson wurden zum Teil auch heuristische/stochastische Verfahren angewandt einfach weil man die Regeln nicht fest reinschreiben kann (weilszu lange dauern würde).
Es hängt meiner meinung nach nicht von der Rechenleistung ab wann wir eine starke Inteligenz haben sondern von den Algorithmen (sowohl klassich als auch für zukünftige Quantencomputer).
Meiner Meinung nach ist ein Quantencomputer der fehlende Baustein in dem KI puzzel, weil man mit einem Quantencomputer bestimmte Aufgaben extrem viel schneller ausführen kann als mit den klassischen Computern.
Zum Beispiel könnte man extrem schnell Sprache oder Text erkennen, ist schon mal ein anfang.
Und wenn man es schafft ein stochastisches Neuronales Netzwerk auf nem Quantencomputer zum laufen zu bringen hätte man noch nen Baustein mehr.
>naja... eine starke KI ist im grunde eine erweiterte schwache KI .. welche mehrere kleine Logische und einfache Aufgaben durch einanderes verfahren insich vereint.
könnte ggf. der falsche weg sein... ist aber nur meine Meinung, wir werden das wohl erst in einigen Hundert Jahren wissen.
>Wir verstehen heutzutage schon das Prinzip dahinter. Zwar fehlen noch einige Infos, allerdings ist der Grundstein keines wegs "zufälliger Natur".
Bist du dir sicher... wir verstehen heute überhaupt nix von Inteligenz... das kann ich daran festmachen das man nicht mal weiß was in einem neuron genau passiert, und wenn man nicht mal die Grundlagen kennt, wie soll man darauf aufbauen können?
>auserdem würden wir menschen dann voll von den maschinen ABHÄNGIG
sind wir das nicht schon, schau dich mal in deiner Umgebung um, überall Handys/Smartphones, Lapies und so weiter, im Auto ist es auch nicht anders und von der Infrakstruktur (Strom, Wasser, Gas, Elektrizität) will ich auch nicht reden.
>Aber zum Topic, ich glaube schon dass eine dem Menschen angemessene KI möglich sein wird, aber es is Fraglich in welchen gebieten...
In Logischen zusammenhängen, Mathematischen Problemen usw sicher..
Gibts doch schon, schau dir Watson an, oder Mathematica... ist auch so ne art "KI" (wenn auch nur schwach, worum es hier ja nicht geht)
>Ob die Hirnforschung irgendwann in der Lage is eine 'Schnittstelle' zu Biologischen Neuralen Systemen herzustellen
interessanter Punkt, ich denke das es eher in die Richtung gehen wird (eine art symbiose zwischen normaler inteligenz und künstlicher... ist irgendwie total krank und das richtige für ne Scifi endzeit story)
>Wir können die logischen Zusammenhänge erkennen, und Lösungen erarbeiten ohne "rumprobieren" zu müssen.
Falsch, in der Physik z.b. machst du nur noch experimente um deine Theorien zu bestätigen, die Chemie wurde auch nur durch zufall entdeckt und man muss da auch experimentieren.
Radioaktivität wurde auch durch zufall entdeckt usw usf.
>Ein Tier das sich an einer Herdplatte verbrennt, wird aus dieser Erfahrung natürlich auch lernen und die Herdplatte in Zukunft meiden. Aber dieses Tier wird die Herdplatte immer meiden, und nicht nur wenn sie eingeschaltet ist, weil es nicht verstehen kann daß sie nicht immer heiß ist.
Hast du dir schonmal die dokus über die inteligenz von Raben und Oktopus(en?) angeguckt... ist extrem interessant und ich denke das die tierchen sehrwohl "denken" können.
(Raten sind auch sehr inteligente tierchen btw)
>Wäre ein Intelligenter Computer nun auch noch Menschlich wäre das wieder ein Zeichen von Dummheit. Um wirklich Menschlich zu sein braucht er erstmal die Menschliche Motivation. Die stärkste sicherlich den Drang zu Überleben. Für einen Computer schon deshalb irrelevant da er nunmal nicht Lebt.
Nächstes Problem, wo fängt leben an und wo endet es...
Lebt ein inteligenter Roboter oder nicht, wo zieht man da die grenze?
>Schachprogramm:
lediglich brute force mit einigen short cuts und große Datenbanken mit den besten gespielten Partien incl. Bewertung der Züge; es existiert bisher kein mathematisches Modell zur Errechnung des besten Zuges.
Bruteforce oder guter Algo... gute frage
Zur zeit setzt man ja nur auf Brute force... aber andererseits...was ist wenn der "inteligenter" algo ein problem nicht selbstständig lösen kann... da du es beim entwickeln/testen nicht bedacht hast?
>Ich denke, dass der wesentliche Punkt die sprachliche Kommunikation ist. Um mit jemand sprechen zu können, muss man eine gewisse Intelligenz besitzen, egal ob als Roboter oder als Mensch. Viele Worte sind mehrdeutig und daher nur im Zusammenhang zu verstehen (Beispiel: Ball). Hier würde ich persönlich den "Zünder" für die Zukunft anlegen.
Korrekt, es gibt schon ansätze (siehe Watson) aber ob das der goldene Weg ist frage ich mich.
Zum thema Symbolische KI vs NN vs everything else...
Symbolische KI deckt nur ein kleines spektrum der inteligenz ab (bilderkennung und spracherkennung ist damit zb imho unmöglich) und es zählt auch zu den bruteforce algos...
>Die hierfür notwendige Rechenkraft (mal ganz abgesehen von einigen noch zu lösenden simplen technischen Problemen) ist nicht ganz klar. Der Trick bei solchen Überlegungen besteht darin, dass man von Quantencomputern ausgeht, deren Leistungsfähigkeit auch nicht mehr ganz einfach zu berechnen ist (sie wird etwa in der Größenordnung "unendlich" liegen...)
Oh das erste mal das wort Quantencomputer... Gratulation... leider bekommst du keinen Preis
>Die Rechenkraft der PC-Server-Farmen wird heute durch interpretierte Sprachen wie PHP abgefangen. Jeder noch so einfache echte Basic Compiler (z.B. "Pure Baisc") zeigt, dass unsere 600 Euro Notebooks völlig überkandidelt "motorisiert" sind.. 5% würde reichen...
Naja... es gibt ja noch andere Nutzer... zum beispiel zum rendern brauch man viele FLOPS.
Aber prinzipiel hast du recht, allerdings nimmt PHP dir viel ab was man in C++ manueal machen muss (GC, andere dinger).
>Zum Thema: Extrapoliert heißt das, dass wir in 20 Jahren - "best case" - auch wieder so eine formelle (!) Leistungssteigerung erwarten können... Wird uns dass aber zu einem Durchbruch verhelfen (Quantität -> Qualität) ?
Wenns gut läuft... vielleicht geraten die (silizium) technologien aber auch bald an eine grenze... so oder so.
>Witze und Emotionen sind wirklich ein schwieriges KI-Gebiet, zumal Witzigkeit ja sehr subjektiv ist.
Guter punkt... es gibt ja verschiedene Witz typen... Geeke und nicht geeky und so weiter... ich muss nur persönlich an die xkcd witze denken wo ich immer abfeier und die anderen sich wunder warum ich so abgeh
(zumal die witze auch richtig geeky sind...)
>Das sind sozusagen unsere "Grenzen". Wir als Menschen haben hier keine "parallele Reserven", d.h. wir können nicht zwei Aspekte GLEICHZEITIG lernen, oder nur in ganz seltenen Fällen, wenn verschiedenen der o.g. Ebenen beteiligt sind.
Bedingt, wenn ich zb. einen englischen Text über Compilerbau, die Architektur von Prozessor X in Englisch (oder jeder anderen Sprache die ich ansatzweise kann) lese lerne ich _gleichzeitig_ englisch, das Layout, den Inhalt und andere dinge auch.
Außerdem höre ich ja gleichzeitig dinge aus meiner umwelt und lerne auch diese (wenn auch nur unbewusst...ist egal).
>Eine KI könnte aber ev. "parallel" lernen
beängstigend...
>Eine KI könnte z.B. sagen: "Das ist das Ergebnis von 2 Millionen von mir durchgeführten Simulationen unter Abänderung meines internen Weltmodells an 36 fragwürdigen Parametern im Rahmen der mir bekannten Plausibiltätsüberlegungen, die in den letzten 200 Jahren publiziert wurden..."
Lol, korrekt.
Erinnert mich wieder an Watson...hmmm
Warum versteifen sich alle auf NN's, nur weil sie dem menschlichen neuronalen Netz nachempfunden sind heißt das noch lange nicht das sie alleine zu einer starken Ki führen können.
Es gibt auch andere herangehensweisen an das Problem starke KI.
Es ist auch die frage ob man nur einen Algo braucht (der noch nicht entwickelt wurde) der das Probelm löst oder ob man zig algorithmen (100...1000 und mehr) kombinieren muss sodass sich das problem lösen lässt.
Die Frage die sich dann stellt ist ob sich die Inteligenz die man mit dem Prinzip erstellt hat schnell genug oder übrhaupt an neue Aufgabenarten anpassen kann.
Interessant ist auch die Idee (schlauere) überwachungs KI's einzusetzen die die dummen im Zaum halten... aber was macht man wenn die Schlauere randalieren will (ein problem der endlosrekursion *g*)
Vielleicht ist das problem der starken Inteligenz einfach zu schwierig um es in 200 Jahren zu schaffen, änlich wie das problem des beamens von lebewesen (physikalische gesetze und co).
Es könnte auch sein das die Informatik auf dem falschen Weg ist, änlich wie die Netwon Physik vor Einstein und der Quantenmechanik... keiner weiß es.
Zum Thema Rechenleistung:
NN's, Genetische Algorithmen, Genetische Programmierung und co kann man sicher gut (mit z.b. openCL oder CUDA oder directCompute oder oder...) auf der GPU implementieren....ist sicher schneller als auf der GPU.
und noch mehr...
Genetische Algorithmen und co divergieren auf eine Lösung zu die nicht omtimal ist... nach einigen Tausend Generationen kann es vorkommen das sich eine bessere lösung einstellt usw... aber irgendwann mal geht es nicht mehr weiter... (wobei die Lösung immer noch nicht ideal ist) deshalb denke ich das die Rechenleistung aleine das problem nicht lösen kann
...
komisch das niemand erwähnt hat das der großteil des (menschlichen) Gehirns nur für das unterbewusstsein zuständig ist.. vielleicht gibt es garkein bewusstsein (ich mache mich nun zum psychopaten aber was ist wenn...)
Wie unterscheide ich ob jemand eine Seele hat oder nicht...
Gut das wird jetzt zu viel Philosophie aber irgendwie konnte ich es nicht lassen.
Ich könnte Tagelang mich über das Thema auslassen aber irgendwann mal muss schluss sein
eof
-
Neuer Benutzer
Öfters hier
hm, ein sensibeles Thema. Intelligenz ist ja nicht nur das erlernen durch "programieren" (übertragen gemeint). sondern auch das Zusammenspiel, zwischen erlerntem und bewust erlebt wahrgenommenen ( fühlen, sehen, hören, Geruch, Geschmack, etc, etc) also auf Roboterbasis gesehen, zwischen Programm und Sensoren.
Nebenbei, müßte die KI in der Lage sein, dieses Zusammenspiel, auf Sich selbst und Ihrem Vorhandensein zu projizieren.
Ich meine, mit einem einfachem Selbstlernalgorithmus, geht das nicht zu bewerksteligen, da dieser sich ja auch nur im Rahmen der vorprogrammierten Parameter bewegen kann. Diese Schranke würde erstmal zu überwinden sein.
Das wiederum setze vorraus, das ein total unprogramierter Rohrobot, der nur mit Grundsensorischen und Motorischen Fähigkeiten gewappnet ist, Sich selber Programieren müßte.
Selber erlernen, wie ein Zusammenspiel von Motorik, Sensorik und Langzeitspeicher funktioniert.
In diesem Augenblick würden wir aber an die Grenze künstlichem Lebens und Bewustsein geraten und im Gesellschaftlichem Maßstab die Frage stellen, ist dieser Weg überhaupt wünschenswert.
-
Erfahrener Benutzer
Fleißiges Mitglied
Naja,
eine Intelligenz auf Erden ist immer durch das Ich bestimmt. Egal ob das Fruchtfliegen, Pilze oder sonstige Lebewesen sind.
Das fehlt der KI. Eine künstliche Intelligenz, die durch den Menschen erzeugt wird (wurde), wird nie eine wie auch immer geartete Intelligenz (ein Ich) haben und kann auch durch den Menschen nicht erzeugt werden.
Alle Lebewesen auf Erden (egal welcher Gattung) arbeiten analog und haben ein Ich.
Viel Freude beim nachmachen.
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
Lesezeichen