-
-
Erfahrener Benutzer
Fleißiges Mitglied
Meine "Annahmen" basieren auf Robots im Stil des Films iRobot:
Ich sehe einen Zukunfts-Robot nicht als "Werkzeug" per se an, sondern als autonome "Einheiten" - die selbständig Entscheidungen treffen "müssten". Und da habe ich meine Zweifel, ob die 3 Gesetze der Robotik effektiv wären!
Ein Beispiel: Ein bewaffneter Raubüberfall:
Wenn ein Roboter nicht in einer Gefahrensituation hilft, so verstößt er gegen das 2. Gesetz der Robotik!
Greift er ein und verletzt dabei z.B. den Angreifer, so verstößt er gegen das . Gesetz der Robotik! Alleine die Entscheidung, den Angreifer abzuwehren, würde gegen die Gesetze verstoßen!
Die 3 Gesetze von Asimov "verhindern" ein aktives "Helfen" in Gefahrensituationen! Man könnte einen Robot dann nur als "Liftfasssäule" mit Kamera ansehen, die das "Geschehen" passiv beobachtet!
Ein Paradoxon: Sich als Schutzschild vor einem Überfallopfer zu stellen, wäre wohl als "Passive" Handlung denkbar, verstößt aber gegen das 3. Gesetz, wonach ein Roboter sich selbst schützen darf, wenn dies nicht im Konflikt mit Gesetz 1 und 2 steht. Ergo = Wegschauen wäre die "logische" Handlungsalternative!
Ausschlaggebend war für mich die Frage: Was macht ein Roboter, der einen Konflikt zu den 3 Gesetzen "erkennt"? Rein logisch betrachtet, müsste er entweder als Kamera vor Ort das Geschehen filmen und den Notruf "anrufen" - bzw. den Überfall melden ohne selbst aktiv einzugreifen = Passiver Teilnehmer oder er müsste sich selbst abschalten oder weitergehen!
Genau das Selbe wenn es brennt: Ohne das Wissen, dass dort eine Person in Gefahr sein könnte, würde ein Roboter gegen das 3. Gesetz verstoßen, wenn er ins brennende Haus rennen würde!
Weitaus einfacher wäre die Realisierung mit nur 1 Gesetz - einer Direktive: Die Schadensminimierung! Priorisiert wird da die "Menschheit" per se, gefolgt von den Individuen, gefolgt von "Lebewesen" und am hinteren Ende der Robot selbst - gleich nach den Ameisen! Würde also eine Ameisenplage die Menschen bedrohen (z.B. ein Ernteausfall), so kann der Robot auf Anweisung die "Ameisen" bekämpfen. Ein "unschuldiger" Passant wird höher priorisiert als ein Angreifer - nennt das ausgleichende Gerechtigkeit! Ein gebrochener Arm des Angreifers ist "Besser" priorisiert, als der Tod des Angreifers!
Das Verhalten kann in einer einfachen Liste priorisiert werden, ohne dass die Gesetze der Robotik "einzeln" zu Konflikten führen würden! Damit würde man, meiner Meinung nach, auch fundamentale "Probleme" bei der Programmierung umgehen, selbst die Interessenabwägung und damit die Entscheidungsfindung wäre kein Resultat von Unvorhergesehen Ereignissen und später herausstellenden Fehlentscheidungen!
Bei der Direktive der Schadensminimierung würde er hingegen würde er in ein brennendes Haus rein gehen müssen - ungeachtet dessen, ob er dabei selbst "drauf" geht - weil er so Schaden von den später eintreffenden Rettungskräften abwenden kann, indem er die Aufklärung vor Ort übernimmt. Jedoch müssen wir an dieser Stelle "eindeutig" in unserer "Arroganz" festlegen, dass ein Mensch "immer" mehr wert ist, als ein Roboter!
Und der Zylonnenkrieg kann kommen
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
Lesezeichen