PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : KI im Militär: Deutschland und 96 andere sind gegen autonome Kampfroboter



Roboternetz-News
13.08.2020, 13:21
https://www.golem.de/2008/150243-239658-239655_rc.jpgHuman Rights Watch will KI-gesteuerte Drohnen möglichst verbieten. Derweil wollen die USA bereits 2021 autonome Kampfflugzeuge testen. (Drohne (https://www.golem.de/specials/drohne/), Roboter (https://www.golem.de/specials/robots/)) https://cpx.golem.de/cpx.php?class=17&aid=150243&page=1&ts=1597317660

Weiterlesen... (https://www.golem.de/news/ki-im-militaer-deutschland-und-96-andere-sind-gegen-autonome-kampfroboter-2008-150243-rss.html)

Sag deine Meinung zu der Meldung und diskutiere im Roboternetz.

News Quelle: Golem
Diese Nachricht wurde automatisiert vom Roboternetz-Bot gepostet. Verantwortlich für den Inhalt ist daher allein der Herausgeber, nicht das Roboternetz.de oder deren Verantwortliche.


600

White_Fox
13.08.2020, 14:00
Als ob das Länder wie China, Russland oder die USA interessiert, was Deutschland und 96 andere Länder wollen.

Naja, und wenn ich für Informatik im Allgemeinen und KI im Besonderen einfach nur viel zu doof wäre, wäre ich auch gegen Kampfmittel die auf diesen Techniken beruhen und dich einfach nicht im Griff habe (und wahrscheinlich nie haben werde).

HaWe
13.08.2020, 14:10
Als ob das Länder wie China, Russland oder die USA interessiert, was Deutschland und 96 andere Länder wollen.

Naja, und wenn ich für Informatik im Allgemeinen und KI im Besonderen einfach nur viel zu doof wäre, wäre ich auch gegen Kampfmittel die auf diesen Techniken beruhen und dich einfach nicht im Griff habe (und wahrscheinlich nie haben werde).

man braucht sich nur anzuschauen, was alles bei zivilen KI-Applikationen schief läuft, s.z.B. autonomes Fahren, und da geht es NICHT um das gezielte Töten von Passanten. Das Töten von Menschen einer KI zu überlassen, ist ethisch nicht vertretbar. Dass Kriegstreiber und Rüstungsindustrien es aus Profitgründen dennoch wollen, ist zwar wirtschaftlich nachvollziehbar - macht es aber nicht vertretbarer.

White_Fox
13.08.2020, 19:59
Ich verstehe zwar nicht, warum es weniger vertretbarer sein soll, einen Feind durch eine Maschine anstatt durch einen Menschen umbringen zu lassen, aber nun gut.

Allerdings glaube ich nicht, daß da nur die Rüstungsindustrie treibende Kraft ist. Sobald - warum auch immer - das Militär schnell und umfangreich aufgestockt werden muß und sich nicht genug Freiwillige finden, wird die ethische Bewertung in der Politik auch ganz anders ausfallen. Wer weiß welche Szenarieren da in welchen Hinterzimmern besprochen wurden. Dann gibt es zwei Möglichkeiten:
a) Es ist einfach zu spät, um mit der Entwicklung zu beginnen.
b) Ein Konzern hat die Entwicklung heimlich dennoch betrieben und kann ein fertig entwickeltes Produkt aus dem Hut zaubern. Und die ethische Bewertung ist dann einfach nur noch absurd, denn der Buhmann rettete die Situation.

Du kannst Krieg allgemein ablehnen, als unerwünschtes aber leider notwendiges Übel unter bestimmten Bedingungen akzeptieren oder richtig gut finden - oder etwas dazwischen.
Aber ob es ethischer ist, einen Menschen von einer KI töten zu lassen, mit einer Lenkwaffe außerhalb der Sichtweite zu erledigen (man erinnere sich an dieses dämliche Geseiere mit den AIM-54-Waffen, Kampfpiloten müssen ein Ziel erst sehen können bevor sie schießen dürfen, ja sicher...), nur mit einer Kugel erschießen, einem Dolch zu erstechen oder nur mit bloßen Händen zu erwürgen, das halte ich für groben Unsinn.

HaWe
13.08.2020, 20:10
Ich verstehe zwar nicht, warum es weniger vertretbarer sein soll, einen Feind durch eine Maschine anstatt durch einen Menschen umbringen zu lassen, aber nun gut.

Allerdings glaube ich nicht, daß da nur die Rüstungsindustrie treibende Kraft ist. Sobald - warum auch immer - das Militär schnell und umfangreich aufgestockt werden muß und sich nicht genug Freiwillige finden, wird die ethische Bewertung in der Politik auch ganz anders ausfallen. Wer weiß welche Szenarieren da in welchen Hinterzimmern besprochen wurden. Dann gibt es zwei Möglichkeiten:
a) Es ist einfach zu spät, um mit der Entwicklung zu beginnen.
b) Ein Konzern hat die Entwicklung heimlich dennoch betrieben und kann ein fertig entwickeltes Produkt aus dem Hut zaubern. Und die ethische Bewertung ist dann einfach nur noch absurd, denn der Buhmann rettete die Situation.

Du kannst Krieg allgemein ablehnen, als unerwünschtes aber leider notwendiges Übel unter bestimmten Bedingungen akzeptieren oder richtig gut finden - oder etwas dazwischen.
Aber ob es ethischer ist, einen Menschen von einer KI töten zu lassen, mit einer Lenkwaffe außerhalb der Sichtweite zu erledigen (man erinnere sich an dieses dämliche Geseiere mit den AIM-54-Waffen, Kampfpiloten müssen ein Ziel erst sehen können bevor sie schießen dürfen, ja sicher...), nur mit einer Kugel erschießen, einem Dolch zu erstechen oder nur mit bloßen Händen zu erwürgen, das halte ich für groben Unsinn.

dann lies mal, denk mal, und bilde dich weiter:
Zitat: "Die Menschenrechtsorganisation Human Rights Watch hat sich deutlich gegen die Entwicklung autonomer Kriegsmaschinen ausgesprochen. In ihrem 55 Seiten langen Bericht beruft sich die Organisation zudem auf 97 Länder, die sich gegen die Entwicklung dieser sogenannten Killer-Roboter stellen. Seit Beginn der Bemühungen um die Convention on Conventional Weapons (CCW) im Jahr 2013 ist Frankreich dabei. Auch Deutschland ist seit 2014 unter diesen Ländern und vertritt eine ähnliche Ansicht.
Es ist laut Meinung der Bundesrepublik entscheidend, bedeutende menschliche Kontrolle über die Entscheidung des Tötens zu behalten. "

Gerdchen
14.08.2020, 15:42
Meine persönliche Sicht auf die Problematik:
Nun ja, es ist wie es ist. Kriegerische Auseinandersetzungen sind der Motor der Evolution. Friede, Freude, Eierkuchen, kein Anpassungsdruck u.s.w. bedeuten Stillstand in der Entwicklung.
Darum haben sich die friedlichen Bonobos auch nicht weiterentwickelt und hängen immernoch gelangweilt in den Bäumen herum.
Es gäbe keine Notwendigkeit Technologie zu entwickeln. Das Zeug lässt sich dann selbstverständlich wie fast alles für friedliche oder andere Zwecke gebrauchen.

White_Fox
14.08.2020, 18:53
@HaWe:
Und wen kümmert es, was HRW dazu sagt?

Wie gesagt - ich wäre auch gegen jede kampftaugliche Technologie, die ich selber nicht im Griff habe und deshalb nicht nutzen kann. Aber das hat nichts mit Ethik zu tun.

HaWe
14.08.2020, 18:59
alles was mir dazu noch einfällt, ist:
gegen Dummheit ist kein Kraut gewachsen.
Sei's also drum....

Moppi
14.08.2020, 21:41
Darum haben sich die friedlichen Bonobos auch nicht weiterentwickelt und hängen immernoch gelangweilt in den Bäumen herum.


Na ja, hätte man vor 30 Jahren oder auch noch vor 10 so sagen können. Aber seit dem der Verdacht erhoben wurde, weil auch Hinweise existieren, dass das menschliche Gehirn, in seiner heutigen Funktion, mit Evolution allein nicht erklärt werden kann, sind solche Aussagen nicht mehr so ganz zutreffend.
Wenn sich die Theorie hält, dass die Entwicklung des Menschengehirns eine Laune der Natur war, dann wäre es auch noch unwahrscheinlicher, als bisher, dass es in unserem Universum intelligenteres Leben, als den Menschen, gibt (wobei anderes Leben wahrscheinlicher bleibt).
Vielleicht sollte man unter diesen Gesichtspunkten mit den Kriegen langsam mal aufhören, bevor der Mensch sich eines Tages tatsächlich selbst ausrottet. Wobei ich mir denke, dass die KI in Maschinen beim Militär wohl teilautonom wären. Es muss ja eine Art Kontrolle bestehen bleiben. Vielleicht kann man so Menschen aus Konflikten befreien, selbst mit Maschinen töten zu müssen, weil es den Befehl dazu gibt.


MfG

Manf
15.08.2020, 05:58
https://www.deutschlandfunk.de/automatisierter-krieg-wenn-roboter-toeten-koennen.724.de.html?dram:article_id=456686

In dieser Darstellung erscheint es so, als wäre es von dem was mit einem Verbot noch zulässig sein soll bis zur vollständigen Autonomie der Systeme nur ein kleiner Schritt der eben verboten und geächtet werden soll.
Damit wären dann viele Formen der autonomen Aufklärung und des autonomen Transports zulässig bis kurz vor die Entscheidung, ob ein militärischer Eingriff tatsächlich stattfindet.


Vielen Kritikern aber bereitet schon das Sorgen. Denn es ist nur noch einen Schritt davon entfernt, das System selbst entscheiden zu lassen, ob es das Feuer eröffnet. Mary Wareham sagt: „Was uns die meisten Sorgen bereitet sind vollständig autonome Systeme, die Ziele selbst sammeln und auswählen. Im Hinblick darauf denke ich nicht, dass wir jetzt schon irgendetwas ‚Kampfroboter‘ nennen können.“


Die Entwicklung von autonomen Kampfrobotern bestünde demnach noch in der Kopplung der Aufklärung und der Ausführung, wohl eine eher juristische als eine technische Hürde.

https://de.wikipedia.org/wiki/Milit%C3%A4rroboter
https://de.wikipedia.org/wiki/Abstandsaktive_Schutzma%C3%9Fnahmen

White_Fox
15.08.2020, 07:59
@HaWe:
Was hat meine Bewertung des Sachverhalts mit Dummheit zu tun? Wenn das dein Niveau ist - ok...das überrascht mich nicht.

Ich erinnere nur mal eben an diese Affennummer, wo v.d.L. als frische EU-Kommissionskröse ihren Willen kundgab, das Europa in Sachen KI an die Weltspitze will. Und zu diesem Anlaß erstmal einen Haufen Ethikrichtlinien vorlegte. Konkrete Ziele, Projekte und deren Finanzierung...nein, Ethikrichtlinien. Genau das, was man als erstes braucht wenn man an die Weltspitze will.

Es ist halt einfach so: Außer Ethik und Moral kommt aus Europa und vor allem aus Deutschland einfach gar nichts mehr. Die Weiterentwicklung würde ohne uns ganz genauso stattfinden. Das Maul halten und leise sein wäre besser gewesen, aber nein: Stattdessen diese beschämende Nummer...

Gerdchen
15.08.2020, 10:09
Na ja, hätte man vor 30 Jahren oder auch noch vor 10 so sagen können. Aber seit dem der Verdacht erhoben wurde, weil auch Hinweise existieren, dass das menschliche Gehirn, in seiner heutigen Funktion, mit Evolution allein nicht erklärt werden kann, sind solche Aussagen nicht mehr so ganz zutreffend.
Wenn sich die Theorie hält, dass die Entwicklung des Menschengehirns eine Laune der Natur war, dann wäre es auch noch unwahrscheinlicher, als bisher, dass es in unserem Universum intelligenteres Leben, als den Menschen, gibt (wobei anderes Leben wahrscheinlicher bleibt).
Vielleicht sollte man unter diesen Gesichtspunkten mit den Kriegen langsam mal aufhören, bevor der Mensch sich eines Tages tatsächlich selbst ausrottet. Wobei ich mir denke, dass die KI in Maschinen beim Militär wohl teilautonom wären. Es muss ja eine Art Kontrolle bestehen bleiben. Vielleicht kann man so Menschen aus Konflikten befreien, selbst mit Maschinen töten zu müssen, weil es den Befehl dazu gibt.


MfG

Ja, man hat dieses ominöse Gen "ARHGAP11B" mit seiner sehr unwahrscheinlichen, zufälligen Punktmutation als wahrscheinlich Hauptschuldigen für die Entwicklung unseres recht "leistungsfähigen" Gehirns ausgemacht.

HaWe
15.08.2020, 11:24
Meine persönliche Sicht auf die Problematik:
Nun ja, es ist wie es ist. Kriegerische Auseinandersetzungen sind der Motor der Evolution. Friede, Freude, Eierkuchen, kein Anpassungsdruck u.s.w. bedeuten Stillstand in der Entwicklung.
Darum haben sich die friedlichen Bonobos auch nicht weiterentwickelt und hängen immernoch gelangweilt in den Bäumen herum.
Es gäbe keine Notwendigkeit Technologie zu entwickeln. Das Zeug lässt sich dann selbstverständlich wie fast alles für friedliche oder andere Zwecke gebrauchen.
Eine reichlich beschränkte Sichtweise auf Evolution und Technik.
Auch andere Primaten, die durchaus aggressiver sind, haben sich nicht "weiterentwickelt": Schimpansen, Gorillas, Meerkatzen, ...
Und auch andere, aggressivere Nicht-Primaten haben sich nicht "weiterentwickelt": Nashörner, Nilpferde, Seelöwen, Killerwale, Krokodile, Komodowarane, Panther,...

Holomino
15.08.2020, 11:36
Ich erinnere nur mal eben an diese Affennummer, wo v.d.L. als frische EU-Kommissionskröse ihren Willen kundgab, das Europa in Sachen KI an die Weltspitze will. Und zu diesem Anlaß erstmal einen Haufen Ethikrichtlinien vorlegte. Konkrete Ziele, Projekte und deren Finanzierung...nein, Ethikrichtlinien. Genau das, was man als erstes braucht wenn man an die Weltspitze will.

KI hat kein Weltbild. Sie löst nur aus dem Kontext gerissene antrainierte Aufgaben. Das sind gewissenlose, blind gehorsame und jenseits der Zweckerfüllung strunzendämliche Systeme ohne Probleme verursachendes Bewusstsein.
Soldaten kann man nicht durch Training, Drogen oder Gehirnwäsche dauerhaft und ohne irreversible Schäden geistig auf das erforderliche Niveau des uneingeschränkten Erfüllungsgehilfen herunterschrauben, also versucht man es jetzt mit KI? Ich finde, wir brauchen mehr Ethik, mehr Moral.

HaWe
15.08.2020, 11:40
KI hat kein Weltbild. Sie löst nur aus dem Kontext gerissene antrainierte Aufgaben. Das sind gewissenlose, blind gehorsame und jenseits der Zweckerfüllung strunzendämliche Systeme ohne Probleme verursachendes Bewusstsein.
Soldaten kann man nicht durch Training, Drogen oder Gehirnwäsche dauerhaft und ohne irreversible Schäden geistig auf das erforderliche Niveau des uneingeschränkten Erfüllungsgehilfen herunterschrauben, also versucht man es jetzt mit KI? Ich finde, wir brauchen mehr Ethik, mehr Moral.

Kann ich voll unterschreiben. Wobei noch die immanente Indetermiertheit der Lernprozesse durch zwangsläufig insuffiziente Trainigsalgorithmen hinzukommt.

Gerdchen
15.08.2020, 12:07
Eine reichlich beschränkte Sichtweise auf Evolution und Technik.
Auch andere Primaten, die durchaus aggressiver sind, haben sich nicht "weiterentwickelt": Schimpansen, Gorillas, Meerkatzen, ...
Und auch andere, aggressivere Nicht-Primaten haben sich nicht "weiterentwickelt": Nashörner, Nilpferde, Seelöwen, Killerwale, Krokodile, Komodowarane, Panther,...

Naja, scheinbar noch nicht bemerkt, aber keine andere Spezies ist so agggressiv wie der Mensch und zerstört sich selbst und seine eigene Umwelt mit all den anderen Arten. Man könnte fast von einem misslungenen Experiment der Evolution ausgehen.

HaWe
15.08.2020, 12:25
Naja, scheinbar noch nicht bemerkt, aber keine andere Spezies ist so agggressiv wie der Mensch und zerstört sich selbst und seine eigene Umwelt mit all den anderen Arten. Man könnte fast von einem misslungenen Experiment der Evolution ausgehen.
ok, wenn du statt
"Kriegerische Auseinandersetzungen sind der Motor der Evolution"
schriebest:
"Kriegerische Auseinandersetzungen sind der Motor des technischen Fortschritts",
dann würde ich dir sicher Recht geben, und auch, dass Aggression hier synergistisch wirken kann.
Auf die (genetische) Evolution haben aber kriegerische Auseinandersetzungen hinsichtlich der Technik eher keine Auswirkung,
und Aggresivität alleine befördert auch keinen technischen Fortschritt, wie man am Tierreich sieht (es gibt schließlich -zig mal ältere Spezies als den Menschen, die ihm an Aggressivität nicht unbedingt nachstehen).

Gerdchen
15.08.2020, 12:42
ok, wenn du statt
"Kriegerische Auseinandersetzungen sind der Motor der Evolution"
schriebest:
"Kriegerische Auseinandersetzungen sind der Motor des technischen Fortschritts",
dann würde ich dir sicher Recht geben, und auch, dass Aggression hier synergistisch wirken kann.
Auf die (genetische) Evolution haben aber kriegerische Auseinandersetzungen hinsichtlich der Technik eher keine Auswirkung,
und Aggresivität alleine befördert auch keinen technischen Fortschritt, wie man am Tierreich sieht (es gibt schließlich -zig mal ältere Spezies als den Menschen, die ihm an Aggressivität nicht unbedingt nachstehen).


Ok, ok, Du hast bei einigen Sachen recht.

HaWe
15.08.2020, 12:46
PS,
grundsätzlich denkbar wäre in versch. Kulturen auch ein technischer Fortschritt wegen anderer bedrohlicher Ursachen, z.B. Nahrungsmangel oder Wetter/Klimakatastrophen,
und andererseits ist am Bespiel Schimpansen vs. Bonobos erkennbar, dass Kämpfe vs. Konflktvermeidungsstrategien auch zu keiner zusätzlichen oder besseren Technik führen (obwohl beide Spezies vergleichbar lange schon existieren und beide sogar auch schon länger als der Mensch).

Gerdchen
15.08.2020, 13:26
PS,
...und andererseits ist am Bespiel Schimpansen vs. Bonobos erkennbar, dass Kämpfe vs. Konflktvermeidungsstrategien auch zu keiner zusätzlichen oder besseren Technik führen (obwohl beide Spezies vergleichbar lange schon existieren und beide sogar auch schon länger als der Mensch).

Die Ursache dieser unterschiedlichen Entwicklungen der Bonobos und Schimpansen soll in dem geänderten ursprünglichen Verlauf des Kongo-Flusses begründet sein. Die Schimpansen, Gorillas u.a. lebten zu der Zeit nördlich des Flusses und mussten sich dann gegeneinander durchsetzen, was zu aggressiverem Verhalten führte. Die Bonobos waren südlich des Flusses allein und hatten so gut wie keine Konkurrenz. Also eine rein geographische Ursache.

HaWe
15.08.2020, 13:41
Sehr interessant!
Hätte aber die Aggression Einfluss auf technische Entwicklungen, müssten bei den Schimpansen im Lauf der letzten 200000 Jahre sicherlich mehr Werkzeuge oder Waffen etc. vorhanden sein als bei den Bonobos.
Der Mensch ist da sicher aus anderen Gründen anders gestrickt.
Wie auch immer, back to topic:
wer "deep learning" kennt und versteht, wie es funktioniert, wird sicherlich bestätigen, dass man einer KI keine autonomen Tötungsentscheidungen überlassen kann, darum geht es ja im wesentlichen sowohl beim Paper der HRW und auch der französischen und deutschen Positionspapiere zur CCW.
Entscheidungen über Leben und Tod (auch in der Medizin) sind ethische Entscheidungen, die nur von Menschen mit ihrer eigenen persönlichen Verantwortlichkeit getroffen werden dürfen.

White_Fox
16.08.2020, 15:16
KI hat kein Weltbild. Sie löst nur aus dem Kontext gerissene antrainierte Aufgaben. Das sind gewissenlose, blind gehorsame und jenseits der Zweckerfüllung strunzendämliche Systeme ohne Probleme verursachendes Bewusstsein.
Soldaten kann man nicht durch Training, Drogen oder Gehirnwäsche dauerhaft und ohne irreversible Schäden geistig auf das erforderliche Niveau des uneingeschränkten Erfüllungsgehilfen herunterschrauben, also versucht man es jetzt mit KI?

Ja, aber was KI tatsächlich ist, sollten Soldaten ja normalerweise auch sein. Das sind sie nicht unbedingt "ab Werk", aber dafür wird ja mit Lügen, Alkohol und Drogen nachgeholfen.

Haben die Soldaten der Bundeswehr erst lange nachgedacht, als die Bundeswehr unter RG in das Kosovo einmarschiert ist? Oder in Afghanistan? Hätten sie das tun sollen?
Haben die Soldaten der Royal Navy erst lange nachgedacht, als die Briten im Deutschen Reich einmarschiert sind? Hätten sie das tun sollen?

Keine Armee der Welt funktioniert, wenn jedes Truppenmitglied erstmal persönlich überzeugt werden muß. Und kein Politiker der Welt, auch nicht unsere Bundesregierung, will so eine Armee (auch wenn sie garantiert etwas anderes behaupten würden). KI erleichtert allenfalls den Propaganda- und Alkoholaufwand.


Ich finde, wir brauchen mehr Ethik, mehr Moral.
Ich wüßte von keiner Zeit als der jetzigen, daß Ethik und Moral je so allesentscheidend gewesen wären wie heute. Wie wäre es stattdessen z.B. mit Ehrlichkeit?
Selbst wenn wir autonom intelligent agierende Kampfmittel wollten - wir wären einfach nicht in der Lage, welche zu bauen.

HaWe
16.08.2020, 16:57
Ja, aber was KI tatsächlich ist, sollten Soldaten ja normalerweise auch sein. Das sind sie nicht unbedingt "ab Werk", aber dafür wird ja mit Lügen, Alkohol und Drogen nachgeholfen.

Haben die Soldaten der Bundeswehr erst lange nachgedacht, als die Bundeswehr unter RG in das Kosovo einmarschiert ist? Oder in Afghanistan? Hätten sie das tun sollen?
Haben die Soldaten der Royal Navy erst lange nachgedacht, als die Briten im Deutschen Reich einmarschiert sind? Hätten sie das tun sollen?

Keine Armee der Welt funktioniert, wenn jedes Truppenmitglied erstmal persönlich überzeugt werden muß. Und kein Politiker der Welt, auch nicht unsere Bundesregierung, will so eine Armee (auch wenn sie garantiert etwas anderes behaupten würden). KI erleichtert allenfalls den Propaganda- und Alkoholaufwand.


Ich wüßte von keiner Zeit als der jetzigen, daß Ethik und Moral je so allesentscheidend gewesen wären wie heute. Wie wäre es stattdessen z.B. mit Ehrlichkeit?
Selbst wenn wir autonom intelligent agierende Kampfmittel wollten - wir wären einfach nicht in der Lage, welche zu bauen.

diese Diskussion ist hier völlig abwegig: niemand behauptet, dass alle Soldaten 100% perfekt entscheiden und handeln. Aber sie tragen persönliche Verantwortung und unterstehen einer Gerichtsbarkeit, und sie haben auch erwartungsgemäß ein Verständnis von Rechtschaffenheit, Verantwortung, Menschlichkeit, Moral, Ethik und Gewissen: und das sind Kategorien, die keine KI (Maschine) hat, darum geht es. Auf diesen kategorischen Unterschied hättest du auch kommen müssen.

Es geht auch nicht um Gehorsam vs. Befehlsgewalt, sondern um Entscheidungsbefugnis auf der Basis von Erkenntnis, und abgesehen von allem andern ist KI einfach viel zu blöde, als dass man ihr so eine Entscheidungsbefugnis überlassen darf.

Gerdchen
16.08.2020, 19:12
...Verantwortung, Menschlichkeit, Moral, Ethik und Gewissen: und das sind Kategorien, die keine KI (Maschine) hat, darum geht es.



Das aber sind genau die Werte, die bei fast jedem Krieg (Mensch gegen Mensch) als erstes unter den Stiefel geraten.

HaWe
16.08.2020, 21:42
welchen Teil hiervon hast du NICHT verstanden?

diese Diskussion ist hier völlig abwegig: niemand behauptet, dass alle Soldaten 100% perfekt entscheiden und handeln. Aber sie tragen persönliche Verantwortung und unterstehen einer Gerichtsbarkeit, und sie haben auch erwartungsgemäß ein Verständnis von Rechtschaffenheit, Verantwortung, Menschlichkeit, Moral, Ethik und Gewissen: und das sind Kategorien, die keine KI (Maschine) hat, darum geht es. Auf diesen kategorischen Unterschied hättest du auch kommen müssen.

Es geht auch nicht um Gehorsam vs. Befehlsgewalt, sondern um Entscheidungsbefugnis auf der Basis von Erkenntnis, und abgesehen von allem andern ist KI einfach viel zu blöde, als dass man ihr so eine Entscheidungsbefugnis überlassen darf.

Holomino
17.08.2020, 13:34
Ich wüßte von keiner Zeit als der jetzigen, daß Ethik und Moral je so allesentscheidend gewesen wären wie heute. Wie wäre es stattdessen z.B. mit Ehrlichkeit?

Ehrlichkeit? Welche Hemmschwellen können einen Aggressor dann noch daran hindern, überall und zu jeder Zeit vollautomatisierte Kriege ohne Beteiligung und ohne Rückhalt in der eigenen Bevölkerung zu führen? Welchen Grund gibt es, diese Maschinen mangels Verteidigungsfall im Keller veralten zu lassen, statt sie zur Destabilisierung, zur asymmetrischer Kriegsführung (Terrorismus) oder zum Genozid zu nutzen oder sie unkontrolliert an Drittstaaten zu verhökern?

In Deinen obigen Anmerkungen zu Jugoslawien und 3. Reich betrachtest Du nur die eine Seite der Medaille. Wie viel schlimmer wäre die Sache ausgegangen, wenn jeweils die Gegenpartei den Irrsinn 100% kompromisslos anhand solcher Mittel durchgezogen hätte?

Die Tatsache bleibt: Stecker rein, Programm drauf und schon schießt die Maschine auch auf Kinder!
Das Perverse daran: Du hast nicht einmal mehr die Hemmschwelle, mit einem Kriegstrauma nach Hause zu kommen. Wenn Du kotzen musst, schaltest Du einfach den Monitor ab.

Letztendlich: Amerika, China, Russland! Hat eines dieser ächtungsunwilligen Länder eine potentielle Bedrohungslage? Sind das geplante Defensivwaffen? Haben nicht ausgerechnet die drei vielleicht noch Expansionspläne?
(GB verstehe ich. Die sind ja jetzt nach der fehlgeschlagenen EU-Assimilierung von "Feinden" umzingelt!)

Gerdchen
17.08.2020, 14:29
welchen Teil hiervon hast du NICHT verstanden?

Als Allwissender und Allesversteher hast Du per Definition eben recht.
Ich glaube nicht, dass Schlachtfelder ohne und mit KI sich großartig unterscheiden. Wen interessieren in einem Gemetzel irgendwelche Entscheidungsbefugnisse?

HaWe
17.08.2020, 15:00
Als Allwissender und Allesversteher hast Du per Definition eben recht.
Ich glaube nicht, dass Schlachtfelder ohne und mit KI sich großartig unterscheiden. Wen interessieren in einem Gemetzel irgendwelche Entscheidungsbefugnisse?

ich geb' dir noch ne Chance. Lies es noch mal.

diese Diskussion ist hier völlig abwegig: niemand behauptet, dass alle Soldaten 100% perfekt entscheiden und handeln. Aber sie tragen persönliche Verantwortung und unterstehen einer Gerichtsbarkeit, und sie haben auch erwartungsgemäß ein Verständnis von Rechtschaffenheit, Verantwortung, Menschlichkeit, Moral, Ethik und Gewissen: und das sind Kategorien, die keine KI (Maschine) hat, darum geht es. Auf diesen kategorischen Unterschied hättest du auch kommen müssen.

Es geht auch nicht um Gehorsam vs. Befehlsgewalt, sondern um Entscheidungsbefugnis auf der Basis von Erkenntnis, und abgesehen von allem andern ist KI einfach viel zu blöde, als dass man ihr so eine Entscheidungsbefugnis überlassen darf.

PS,
das eben geschriebene gilt für den heutigen Stand der KI-Forschung.
Aber selbst wenn es einmal eine KI gibt, die den Turing-Test besteht, dürfen wir Entscheidungen über Töten von Menschen (oder sog. "Kollateralschäden" bei Angriffen auf Objekte) keinen autonomen Maschinen überlassen.

Gerdchen
19.08.2020, 09:42
ich geb' dir noch ne Chance...

Da bin ich aber froh!:Strahl





PS,
das eben geschriebene gilt für den heutigen Stand der KI-Forschung.
Aber selbst wenn es einmal eine KI gibt, die den Turing-Test besteht, dürfen wir Entscheidungen über Töten von Menschen (oder sog. "Kollateralschäden" bei Angriffen auf Objekte) keinen autonomen Maschinen überlassen.

Ich befürchte nur, dass Dein Apell ungehört verhallt.
Ähnliches passierte ja beim mehrfachen (2 mal) Einsatz der Atombombe. Es gab jede Menge Bedenken im Vorfeld und obwohl man kaum Ahnung von den Auswirkungen hatte, siegte eben nicht die Vernunft. Gleiches wird bei der KI passieren, ob fortgeschritten oder nicht. Die KI fällt ja nicht vom Himmel, die haben Menschen verzapft. Keiner weiß, ob sich eine fortgeschrittene KI der menschlichen Kontrolle zumindest teilweise entziehen kann. Die menschliche Intelligenz ist wahrscheinlich so gestrickt, dass man sich erst hinterher bewusst wird, was passiert ist.

Holomino
19.08.2020, 11:40
Fachbegriff "Tötungshemmung". Das beschreibt ganz gut, wohin die Reise geht.
Nachtrag: Auch noch gefunden. Die BW spricht von 2,9% PTBS nach Auslandseinsätzen.

HaWe
19.08.2020, 14:49
Da bin ich aber froh!:Strahl





Ich befürchte nur, dass Dein Apell ungehört verhallt.
Ähnliches passierte ja beim mehrfachen (2 mal) Einsatz der Atombombe. Es gab jede Menge Bedenken im Vorfeld und obwohl man kaum Ahnung von den Auswirkungen hatte, siegte eben nicht die Vernunft. Gleiches wird bei der KI passieren, ob fortgeschritten oder nicht. Die KI fällt ja nicht vom Himmel, die haben Menschen verzapft. Keiner weiß, ob sich eine fortgeschrittene KI der menschlichen Kontrolle zumindest teilweise entziehen kann. Die menschliche Intelligenz ist wahrscheinlich so gestrickt, dass man sich erst hinterher bewusst wird, was passiert ist.

1. Das Thema Nuklearwaffen ist ein völlig anderes: Hier war das Konzept der atomaren Abschreckung IMO erfolgreich, auch wenn die beiden Bomben auf Japan militärisch nicht notwendig gewesen wären (auch dies wurde forciert durch gewissenlose Militärs und Beamte im Manhatten Projekt). Seit aber zumindest die Supermächte sich damit nun in Schach halten, gab es ja 75 Jahre lange wegen des drohenden Overkills keinen Atomkrieg.
2. Es ist nicht "mein" Apell sondern der von Human Rights Watch UND von 97 (!) Staaten inkl Deutschland und Frankreich im Rahmen der Convention on Conventional Weapons (CCW).
3. Wenn man ohne Protest weltweit alles schweigend abnicken würde, was an Rüstungsirrsinn, Völkermord, Kriegsverbrechen, Menschenrechtsverletzungen und Umweltzerstörung läuft, dann Gute Nacht!

Gerdchen
19.08.2020, 17:25
1. Das Thema Nuklearwaffen ist ein völlig anderes: Hier war das Konzept der atomaren Abschreckung IMO erfolgreich, auch wenn die beiden Bomben auf Japan militärisch nicht notwendig gewesen wären (auch dies wurde forciert durch gewissenlose Militärs und Beamte im Manhatten Projekt). Seit aber zumindest die Supermächte sich damit nun in Schach halten, gab es ja 75 Jahre lange wegen des drohenden Overkills keinen Atomkrieg.


Naja, gut. Du scheinst es aber auch nicht so richtig zu verstehen. Das Thema Nuklearwaffen ist nichts anderes. Die atomare Abschreckung kam erst nachdem das Kind in den Brunnen gefallen war. Es geht eigentlich darum, dass man neue Technologien für kriegerische Zwecke einsetzt, von deren Auswirkungen man noch nicht die blasseste Ahnung hat. "..gewissenlose Militärs und Beamte.." Warum glaubst Du, dass es bei der KI anders laufen sollte?

HaWe
19.08.2020, 19:01
Die nukleare Abschreckung kam, nachdem
- im 2.WK die Deutschen an Nuklearwaffen geforscht haben,
- dann als Reaktion auch die Amis, unterstützt durch deutsche Emigranten
- dann auch die Russen, ebenfalls unterstützt durch deutsche Emigranten
- die Amis haben es dann geknackt (hing mit dem Element Bor zusammen)
- und damit kein Land alleine diese Waffe besitzen soll, wurde der Trick von einem deutschen Spion im Manhatten-Projekt verraten an die Russen, aus politisch-ideologischen Gründen: das war im Prinzip der Beginn der Idee der Abschreckung.
- Später wurde es dann auch an die Chinesen, Inder und Israelis verraten, aus ähnlichen Gründen, von wem es die Briten und die Franzosen hatten weiß ich grade nicht mehr, ist aber auch egal.
- Alle aber haben die Waffen (bislang) nicht eingesetzt (außer die Amis gegen Japan), weder taktisch noch erst recht strategisch, wegen der Gefahr eines vernichtend tödlichen Gegenschlags, das ganze Länder samt ihrer gesamten Bevölkerung und (wegen des folgenden nuklearen Winters) die komplette Menschheit vernichten können.

Diese abschreckende Wirkung aber ist von Robotersoldaten-KI nicht zu erwarten, dazu ist ihr Wirkungsbereich viel zu klein, also ist Einsatz nicht von einem totalen Gegenschlag bedroht, Rest s.o.

Wenn du die genauen Positionen und die Argumentationen erfahren willst, lies die Statements von HRW und CCW, da ist alles genau dargelegt.