1. Foren
  2. Kommentare
  3. Wissenschaft
  4. Alle Kommentare zum Artikel
  5. › Oliver Bendel: "Es gibt gute…

Komische Begründungen

  1. Thema

Neues Thema Ansicht wechseln


  1. Komische Begründungen

    Autor: Vinnie 09.05.18 - 11:46

    "Golem.de: Was spricht gegen autonome Kampfmaschinen?

    Bendel: Möglicherweise verletzt das Delegieren der Tötungsentscheidung an Maschinen grundlegende Menschenrechte, zum Beispiel die Menschenwürde. Die ist allerdings im Krieg auf irgendeine Weise immer verletzt."

    Genau! Wenn ich mir anschaue was die Nazis im Osten getan haben, was im Gegenzug die Soviets in Osteuropa getan haben. Was die Japs getan haben. Was die Kolonialmächte getan haben. Was noch heute in Syrien durch die faschistische russische Streitkräfte dort mit Streubomben und Massenvernichtungswaffen getan wird, wie die Söldnerheere von Assad die hauptsächlich NICHT aus Syrer besteht alle Syrer entweder schlachtet oder sie auf Transport nach Europa schickt.. wo ist da Menschenwürde?

    Will Herr Bendel mir sagen Russen sind keine Menschen sondern autonomen Waffensysteme?

    "Die Schwelle für die Entscheidung, eine militärische Auseinandersetzung zu führen, könnte herabgesetzt werden. Wenn ich die Möglichkeit habe, auf Knopfdruck zum Beispiel Drohnenschwärme loszuschicken, dann ist die Schwelle relativ niedrig."

    Das hat nichts mit Drohnen zu tun sondern das sehen wir seit Jahrtausende menschlicher Geschichte auch ohne Drohnen und ist einfach eine Folge: einer ist stärker und weiß der Andere kann eh nichts gegen ihn tun.

    "Zur Aussage, dass Roboter nicht plündern, brandschatzen und vergewaltigen, habe ich ein Gegenargument: Maschinen haben zwar kein eigenes Interesse daran. Aber man programmiert ihnen bestimmte Ziele ein, und natürlich könnte man ihnen auch das einprogrammieren. Das wäre besonders perfide und brutal."
    Als ob ganze Armeen der Nazis, Soviets oder jetzt die russische Armee in Syrien nicht ebenfalls programmiert wurde von der Propagandamaschinerie der Nazis, Soviets und das Lawrow Propagandaministerium aktuell an der Smolenskaja.


    "Und schließlich: Ich bin vor zwei Jahren im Silicon Valley dem Überwachungsroboter K5 begegnet. Wenn man vor ihm steht, versucht man, nicht verdächtig zu wirken. Das möchte ich gern übertragen: Wenn autonome Kampfroboter über Landstriche ziehen, fragen sich Zehntausende Menschen: Was dürfen wir jetzt nicht tun? Was hat die Maschine jetzt gelernt? Was hat sie vor? Ich kann mir vorstellen, dass das großer Psychoterror ist. Der Mensch muss sich an die Logik der Maschinen anpassen."

    Aha, und als die Nazis den Osten Europas alles plattmachten und Frauen vergewaltigten und Kindern töteten, die Besatzungstruppen die einfache Zivilisten als Example hinrichten, oder als im Gegenzug die Soviets ganz Osteuropa besetzten und alles mit anderer Meinung ausradierten, das ist kein Psychoterror? Das ist vorbehalten ausschließlich für autonomen Systemen?

    Ich sehe hier kein einziger Grund der nicht auch auf menschliche Armeen zutreffen würde.

    Alles was Herr Bendel anführt wird schon seit Jahrtausenden von Menschen gemacht. Oder will Herr Bendel mir sagen seit Jahrtausenden kämpfen schon autonome Kampfroboter? Ich meine da wäre ich interessiert an seine Geschichtsbücher!

    Mein Argument gegen solche Systeme ist ein Szenario wie im Terminator. Was wenn die Systeme irgendwie deren AI derart mit einander verknüpfen können, dass ohne wir es bemerken und wissen dieses komplexe Netz von einzelnen AI zusammen addiert eine neue höhere AI die selbst denkend wird erzeugt und dabei gleichzeitig eine Leistung bekommt die selbst unsere besten Forscher zur Amöbe degradieren?

    Deswegen bin ich da skeptisch.

    Aber wegen, Moral, Ethik, Hemmschwellen, usw? Das gilt schon seit es Menschen gibt und hat wirklich gar nichts mit autonomen Kampfsystemen zu tun.

  2. Re: Komische Begründungen

    Autor: gfa-g 12.05.18 - 18:12

    > "Und schließlich: Ich bin vor zwei Jahren im Silicon Valley dem
    > Überwachungsroboter K5 begegnet. Wenn man vor ihm steht, versucht man,
    > nicht verdächtig zu wirken. Das möchte ich gern übertragen: Wenn autonome
    > Kampfroboter über Landstriche ziehen, fragen sich Zehntausende Menschen:
    > Was dürfen wir jetzt nicht tun? Was hat die Maschine jetzt gelernt? Was hat
    > sie vor? Ich kann mir vorstellen, dass das großer Psychoterror ist. Der
    > Mensch muss sich an die Logik der Maschinen anpassen."
    Fühle mich ähnlich wenn ich bewaffnete Polizisten oder Soldaten sehe.
    Kampfroboter wäre aber wohl noch schlimmer.

    > Aber wegen, Moral, Ethik, Hemmschwellen, usw? Das gilt schon seit es
    > Menschen gibt und hat wirklich gar nichts mit autonomen Kampfsystemen zu
    > tun.
    Es ist nochmals eine größere Distanz. Mehr Distanz zu den Konsequenzen macht es leichter etwas Fragwürdiges zu tun.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Polizeipräsidium Westhessen, Wiesbaden
  2. KRAFTFAHRER-SCHUTZ e. V./ AUXILIA Rechtsschutz-Versicherungs-AG, München
  3. Kassenärztliche Vereinigung Rheinland-Pfalz, Koblenz, Mainz, Trier
  4. CSS AG, deutschlandweit

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. täglich neue Deals bei Alternate.de


Haben wir etwas übersehen?

E-Mail an news@golem.de