1. Foren
  2. Kommentare
  3. Politik/Recht
  4. Alle Kommentare zum Artikel
  5. › Künstliche Intelligenz: Forscher…

Nichtmal ansatzweise so gefährlich wie der Mensch

Das Wochenende ist fast schon da. Zeit für Quatsch!
  1. Thema

Neues Thema Ansicht wechseln


  1. Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Dwalinn 28.07.15 - 11:00

    Eine Maschine kann deutlich schneller Entscheiden ob jemand Freund oder Feind ist und im Gegensatz zu einem Menschen platz ihr auch nicht so schnell der Kragen.
    Sieht man ja in den USA in der man schnell mal niedergeschossen wird weil ein Polizist sich bedroht fühlt (weil man ja auch immer auf lebenswichtige Organe Zielen muss).

    Soldaten den es schlecht geht neigen auch dazu zu Plündern oder schlimmeres (so geschieht es überall auf der Welt auch im 2. Weltkrieg war das keine Seltenheit)

    Und nur mal nebenbei die Kamikaze Angriffe der Japaner oder auch die Selbstmordattentate in den letzten 30 Jahren zeigen das es Menschen gibt die bereit sind zu Sterben wozu da noch ein teure KI Systeme bauen?

    Noch was anderes bei den 3 Revolutionen vermisse ich irgendwie die Flugzeuge. Wer die Lufthoheit hat kann den Feind schnell die Versorgung abschneiden)

  2. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Trollversteher 28.07.15 - 11:04

    >Eine Maschine kann deutlich schneller Entscheiden ob jemand Freund oder Feind ist und im Gegensatz zu einem Menschen platz ihr auch nicht so schnell der Kragen.
    Sieht man ja in den USA in der man schnell mal niedergeschossen wird weil ein Polizist sich bedroht fühlt (weil man ja auch immer auf lebenswichtige Organe Zielen muss).

    Ach. Und wer programmiert die Maschinen?
    Mal abgesehen davon, dass das so nicht stimmt - eine Maschine kann keinesfalls schneller oder besser erkennen, ob jemand Freund oder Feind ist. Nur, wenn die Soldaten (oder Polizisten) indoktriniert und auf Hass konditioniert werden, dann darf man sich nicht wundern. Für mich hiesse die Lösung daher: Bessere psychologische Vorbereitung und vor allem weniger und kürzere Einsätze (gerade die US Soldaten sind durchschnittlich mit Abstand am längsten im Dauereinsatz unterwegs) statt die "Drecksarbeit" von Maschinen erledigen zu lassen.

  3. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: violator 28.07.15 - 11:14

    Dwalinn schrieb:
    --------------------------------------------------------------------------------
    > Eine Maschine kann deutlich schneller Entscheiden ob jemand Freund oder
    > Feind ist

    Aha, können sie das? Auch bei Menschen? Gut dass sich Feinde nie verkleiden oder tarnen...

  4. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Anonymer Nutzer 28.07.15 - 11:21

    Eine Maschine ist nur so schlau, wie die Menschen, die sie programmiert haben. Sie entscheiden nur nach Algorithmen, die die Menschen ihnen eingepflanzt haben.

  5. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: theonlyone 28.07.15 - 11:25

    Trollversteher schrieb:
    --------------------------------------------------------------------------------
    > Ach. Und wer programmiert die Maschinen?

    Sicherlich keine Soldaten im kriegsgebiet ...

    *Man kann schon davon ausgehen das ein mensch in tatsächlichen Gefahrensituationen viel eher sein eigenes Leben wert schätzt und dann eben abdrückt, eine Maschine muss das nicht machen.

    **Gerade Amerika hat da einige ziemlich klare Menschenrechtsverletzungen mit ihren Soldaten, die schlichtweg Menschen abknallen und eigentlich komplett untauglich sind. Da macht man sich also einiges vor, zu denken der Mensch würde immer tiefgründig nachdenken was zu tun ist.

    > Mal abgesehen davon, dass das so nicht stimmt - eine Maschine kann
    > keinesfalls schneller oder besser erkennen, ob jemand Freund oder Feind
    > ist.

    Schneller auf jeden Fall, den letztlich, "wie" will man den wirklich sagen was ein Feind ist ? Eine Möglichkeit ist die reine Erkennung über Kleidung, das kann die Maschine. Erkennungs Markierungen extra für Maschinen wäre ebenfalls eine Möglichkeit, die "Dog-Tags" und ähnliches bei Soldaten könnte man dazu ja auch benutzen.

    Ansonsten wird im Zweifel eben NICHT geschoßen. Ein Mensch hat wie gesagt immer das Problem das man im Zweifel eben doch für sein eigenes Leben entscheidet und abdrückt, eine Maschine muss das einfach nicht machen.

    > Nur, wenn die Soldaten (oder Polizisten) indoktriniert und auf Hass
    > konditioniert werden, dann darf man sich nicht wundern. Für mich hiesse die
    > Lösung daher: Bessere psychologische Vorbereitung und vor allem weniger und
    > kürzere Einsätze (gerade die US Soldaten sind durchschnittlich mit Abstand
    > am längsten im Dauereinsatz unterwegs) statt die "Drecksarbeit" von
    > Maschinen erledigen zu lassen.

    Theoretisch will man Konflikte sowieso vermeiden, dann braucht man garkeine Soldaten. Will man dann zumindest einen "sauberen" Krieg haben, bräuchte man perfekt ausgebildete Soldaten, da hat man aber nicht genug und deshalb funktioniert diese wunsch vorstellung nicht.

    Für reine Überwachung werden schon lange Selbstschußanlagen eingesetzt, auch für Raketenabwehr usw. usw. ; den letztlich sind die Leben der "eigenen" Soldaten erstmal wichtiger als die der anderen , demnach wird man überall Maschinen einsetzen wo es geht, einfach damit da keine Menschenleben auf der eigenen Seite gefährdet sind.

    In vielen Szenarien macht das ja auch alles Sinn. Ob man diese maschinen dann wirklich "autonom" entscheiden lassen sollte, DAS ist dann die Frage in der es bei dem Artikel geht.

    Klar, irgendwer muss so eine maschine entwickeln, aber sobald sie autonom losläuft trifft sie eben die Entscheidung.

  6. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: JackSlater191 28.07.15 - 11:25

    Dwalinn schrieb:
    --------------------------------------------------------------------------------
    > Und nur mal nebenbei die Kamikaze Angriffe der Japaner oder auch die
    > Selbstmordattentate in den letzten 30 Jahren zeigen das es Menschen gibt
    > die bereit sind zu Sterben wozu da noch ein teure KI Systeme bauen?

    Weil ein Mensch deutlich teurer sein kann und dies fast immer ist, die Kamikazeangriffe der Japaner haben ihnen selbst deutlich mehr geschadet als dem Feind, man verliert einen erfahrenen Piloten (man muss da ja ordentlich Geld reinpumpen) und man verliert teures Material (Flugzeug). Und die Durchschlagskraft war mehr als dürftig. Zusätzlich ist es bspw. auch viel leichter für eine Regierung, den Verlust von 2 Mio. Dollar teuren Drohnen zu verantworten, als verkünden zu müssen, das 20 Soldaten bei einem Einsatz um ihr Leben kamen.

  7. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Trollversteher 28.07.15 - 11:32

    >Sicherlich keine Soldaten im kriegsgebiet ...

    Aber die gleichen, die dafür verantwortlich sind wie sich Soldaten im Kriegsgebiet verhalten.

    >*Man kann schon davon ausgehen das ein mensch in tatsächlichen Gefahrensituationen viel eher sein eigenes Leben wert schätzt und dann eben abdrückt, eine Maschine muss das nicht machen.

    Man kann aber auch davon ausgehen, dass ein moralisch halbwegs gefestigter Mensch in gewissen, eindeutig unmoralischen Situationen den Befehl verweigert. Das hat es immer wieder, sowohl in der Wehrmacht als auch in Vietnam und später in Afghanistan und dem Irak gegeben. Eine militärische Maschine wird immer tun, was ihr befohen wird.

    >**Gerade Amerika hat da einige ziemlich klare Menschenrechtsverletzungen mit ihren Soldaten, die schlichtweg Menschen abknallen und eigentlich komplett untauglich sind. Da macht man sich also einiges vor, zu denken der Mensch würde immer tiefgründig nachdenken was zu tun ist.

    Dann frag Dich doch mal, warum das so ist, und warum es zB. bei deutschen Einsätzen im Gegensatz dazu zu deutlich weniger "friendly fire", "Kolateralschäden" oder erniedrigenden Folterszenen kommt - weil ein solches Verhalten hier geächtet wird, während zB Gestalten wie Rumsfeld damals jedes noch so abartige Mittel war, wenn es darum ging seine Ziele durchzusetzen - und solche Verantwortlichen werden es auch sein, die über die Standards für die Programmierung/Zielauswahl von autonomen Kampfsystemen bestimmen werden.

  8. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: theonlyone 28.07.15 - 11:44

    Trollversteher schrieb:
    --------------------------------------------------------------------------------
    > Man kann aber auch davon ausgehen, dass ein moralisch halbwegs gefestigter
    > Mensch in gewissen, eindeutig unmoralischen Situationen den Befehl
    > verweigert. Das hat es immer wieder, sowohl in der Wehrmacht als auch in
    > Vietnam und später in Afghanistan und dem Irak gegeben. Eine militärische
    > Maschine wird immer tun, was ihr befohen wird.

    Wenn wir anfangen in maschinen moralische Vorstellungen einzubauen dürfte das noch ganz andere Effekte haben.

    Da lob ich mir dann doch meine deterministische Maschine die auch das macht was man erwartet das sie tut.

    Den genauso wie es moralisch korrekte befehlsverweigerung gibt, hat es auch die krassen ausreißer auf der Gegenseite ; da ist also nichts gewonnen.

    Am Ende bin ich der Meinung das Maschinen den knalleren Vorteil haben das sie ihre Befehle ausführen ; den in der Hinsicht sind es dann nur Instrumente, wie jede Waffe in der Hand eines Soldaten eben auch.

    *Ich würde sogar erwarten das jemand der so eine Entscheidungsgewalt zugesprochen bekommt, noch viel eher kontrolliert und auf seine "psychische" tauglichkeit geprüft wird und vor allem, nicht unter so einem Druck steht irgendwelche unüberlegten handlungen auszuführen ; wie bei jedem Menschen ist das nicht immer der Fall, deshalb muss es auch hier immer Menschen geben die solche Befehlsgewalt auch hinterfragen, den ganz alleine führt niemand einen Krieg, da gehören schon deutlich mehr Menschen dazu.

    > ... und solche Verantwortlichen werden es auch sein, die über
    > die Standards für die Programmierung/Zielauswahl von autonomen
    > Kampfsystemen bestimmen werden.

    Eine Möglichkeit wäre es wohl das man Maschinen schlichtweg mit "nicht-tödlichen" Waffen ausstattet, oder gezielt wenn überhaupt auf nicht-lebenswichtige Körperteile schießt. Das hätte dann auf jeden Fall mal den Vorteil das man alle Beteiligten vor ein Gericht bringen kann, anstatt direkt Tote zu verzeichnen.

  9. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Oldy 28.07.15 - 12:47

    Parlan schrieb:
    --------------------------------------------------------------------------------
    > Eine Maschine ist nur so schlau, wie die Menschen, die sie programmiert
    > haben. Sie entscheiden nur nach Algorithmen, die die Menschen ihnen
    > eingepflanzt haben.

    Und haben keine Skrupel ihren Befehl auszuführen.
    Autonome Waffen kommen, ob mal will oder nicht.

  10. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Dwalinn 28.07.15 - 13:02

    Wenn jemand eine Waffe zieht und auf Soldaten oder Zivilisten anlegt (ich gehe davon aus das solch eine Einheit nicht alleine ist sondern Zivilisten beschützt oder Soldaten unterstützt) kann die Maschine das Feuer deutlich schneller eröffnen als ein Soldat.

    Reicht dir das aus? Nein nicht?

    Wie wäre es wenn jemand aus einem Fenster schießt und während die Soldaten in Deckung gehen und die Quelle der Gefahr suchen hat der Roboter bereits auf das Mündungsfeuer im Fenster gezielt....

    So eine Maschine ist nicht unfehlbar aber es geht auch nicht darum alle sonder viele/die meisten zu retten.

  11. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Dwalinn 28.07.15 - 13:06

    Das mag für viele Staaten gelten allerdings nicht für alle.

    Wenn man von einen Anführer (Nord Korea) oder von der Religion (IS usw.) verblendet ist geht man eher in den Freitod.

    (ich sage es deshalb weil die günstigen kosten ja auch als Gefahr eingestuft wurden)

  12. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: FreiGeistler 28.07.15 - 13:09

    > Sie entscheiden nur nach Algorithmen, die die Menschen ihnen
    > eingepflanzt haben.
    Zurzeit.
    Im Artikel geht es aber um künftige Technologien die autonom entscheiden können.

  13. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Dwalinn 28.07.15 - 13:23

    Oldy schrieb:
    --------------------------------------------------------------------------------
    > Parlan schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Eine Maschine ist nur so schlau, wie die Menschen, die sie programmiert
    > > haben. Sie entscheiden nur nach Algorithmen, die die Menschen ihnen
    > > eingepflanzt haben.
    >
    > Und haben keine Skrupel ihren Befehl auszuführen.
    > Autonome Waffen kommen, ob mal will oder nicht.

    Du bist in einer von 10 Soldaten, plötzlich rennt ein Kind mit einer sichtbaren Bombe auf euch zu. Wie reagierst du?
    1. Das Kind schonen? Vielleicht ist es nur ne attrappe, wenn nicht sterben 11 Leute.
    2. Das Kind erschießen? Auch wenn es eine echte Bombe war und ich 9 Leuten das leben gerettet habe... froh wäre ich wohl nicht mehr in meinen Leben.

    Ein Roboter kann durchaus so ausgestattet sein das er neben tödlicher Munition auch ungefährliche hat. Zudem kann er schneller denken und wählt hoffentlich einen ungefährlichen weg an den du vielleicht nicht gedacht hättest weil du so schnell reagieren musst (z.B. den Fuß verletzen damit das Kind nicht näher kommt)

    Das beispiel könnte zwar aus einen Hollywood B-Movie kommen aber ich will damit sagen das man nicht gleich die Technik verteufeln soll. Ein Mensch kann schließlich auch skrupellos sein.

  14. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Oldy 28.07.15 - 13:34

    Dwalinn schrieb:
    --------------------------------------------------------------------------------

    > Du bist in einer von 10 Soldaten, plötzlich rennt ein Kind mit einer
    > sichtbaren Bombe auf euch zu. Wie reagierst du?
    > 1. Das Kind schonen? Vielleicht ist es nur ne attrappe, wenn nicht sterben
    > 11 Leute.
    > 2. Das Kind erschießen? Auch wenn es eine echte Bombe war und ich 9 Leuten
    > das leben gerettet habe... froh wäre ich wohl nicht mehr in meinen Leben.

    Deshalb ..., eine autonome Waffe würde die Bombe identifizieren und keine Skrupel haben das Kind zu erschießen.
    Ein wichtiger Grund für die Millitärs.
    Und deshalb wird es zweifellos zum Wettrüsten kommen, bzw. sind schon mitten dabei.

  15. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Dwalinn 28.07.15 - 13:40

    Wodurch aber min. 10 Leute gerettet wurden.

  16. Re: Nichtmal ansatzweise so gefährlich wie der Mensch

    Autor: Oldy 28.07.15 - 13:58

    Dwalinn schrieb:
    --------------------------------------------------------------------------------
    > Wodurch aber min. 10 Leute gerettet wurden.

    Natürlich, so etwas hat wie alles zwei Seiten der Medaille.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Kreis Paderborn, Paderborn
  2. ALDI International Services GmbH & Co. oHG, Mülheim an der Ruhr, Duisburg, Düsseldorf, Dortmund
  3. NEW AG, Mönchengladbach
  4. Statistisches Bundesamt, Wiesbaden

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. 7,99€
  2. 16,49€
  3. 28,99€
  4. 9,29€


Haben wir etwas übersehen?

E-Mail an news@golem.de