Abo
  1. Foren
  2. Kommentare
  3. Wissenschaft
  4. Alle Kommentare zum Artikel
  5. › Digitalisierung: Nein, Ethik kann…

Also wenn schon der erste Absatz Unsinn ist...

  1. Thema

Neues Thema Ansicht wechseln


  1. Also wenn schon der erste Absatz Unsinn ist...

    Autor: twothe 11.12.18 - 10:45

    Natürlich lässt sich Ethik programmieren, dazu gibt es auch schon unzählige Beispiele. Ethik ist das Vergleichen von Werten und Gütern, daraus werden Regeln formuliert (sog. Gesetze) und diese Regeln kann man problemlos jedem Computer beibringen.

    "Du sollst nicht töten!" ist eine sehr einfache Regel. Diese einem Computer einzuprogrammieren ist simpel und findet in praktisch jedem Spiel Anwendung, bei der NPCs einer bestimmten Fraktion keinen Schaden zufügen sollen. Ich sehe hier eher ein Horizont-Problem beim Autor als ein technisches.

    Der nächste Schritt wäre dann diese Regel mit KI so weit aufzuweichen, dass sie auch komplexere Fälle verarbeiten kann. Beispielsweise die Frage ob lieber 2 Menschen oder 10 Menschen getötet werden sollen, wenn der Tod unvermeidlich ist. Auch das ist eine simple Anwendung von Regeln (gewichte Menge, Alter, Gesundheit zu einem Ergebnis), die bei Autos nur deswegen durch einen Zufallsgenerator ersetzt wurden, weil man ansonsten ja auch die Schuld für die Toten auf sich nimmt.

    Sorry @Golem, aber der Artikel ist wirklich Quatsch.

  2. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: Peter Remmers 11.12.18 - 10:52

    twothe schrieb:
    --------------------------------------------------------------------------------

    > "Du sollst nicht töten!" ist eine sehr einfache Regel. Diese einem Computer einzuprogrammieren ist simpel

    Das das nicht stimmt, hat schon Isaac Asimov gezeigt.

    > Auch das ist eine simple Anwendung von Regeln (gewichte Menge, Alter, Gesundheit zu einem Ergebnis), die bei Autos nur deswegen durch einen Zufallsgenerator ersetzt wurden, weil man ansonsten ja auch die Schuld für die Toten auf sich nimmt.

    Wenn es so einfach wäre... und bei welchem Auto wurde diese Frage durch einen Zufallsgenerator entschieden? Quelle?

  3. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: honna1612 11.12.18 - 10:56

    Nee jetzt troll nicht rum der Artikel ist quatsch.

  4. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: Peter Remmers 11.12.18 - 11:13

    honna1612 schrieb:
    --------------------------------------------------------------------------------
    > Nee jetzt troll nicht rum der Artikel ist quatsch.

    Ist er nicht!


    Nein, jetzt mal ehrlich, es ist einer der wenigen guten Artikel, die ich zu dem Thema bisher gelesen habe. Alleine die Vorstellung, dass"Du sollst nicht töten" eine simple Regel wäre, ist so täuschend, dass ein Autor wie Asimov daraus interessante Geschichten machen konnte. Wie sieht der Code für diese Regel aus? Was heißt "töten"? Dürfen auch Tiere nicht getötet werden? Was ist, wenn die Kausalkette meiner Handlungen irgendwann den Tod einer Person zur Folge hat, während die Handlung selbst aber völlig harmlos und alltäglich ist? - Die Regel richtet sich an Menschen, die sie vor dem Hintergrund ihrer Kultur und der Umstände interpretieren. Diese Interpretation in Code zu fassen, ist hochkomplex (und vor allem anwendungsspezifisch).

    Abgesehen davon ist das allgemeine Mordverbot bei weitem nicht das einzige Thema, dass u.a. durch KI-Technologien berührt wird. Im Artikel geht es z.B. um Diskriminierung - ein viel sensibleres Thema, das erst recht nicht mehr simpel ist. Hier hat man ja schon das Problem, gerechte und funktionierende Regeln zu finden.

  5. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: MrTridac 11.12.18 - 12:58

    twothe schrieb:
    --------------------------------------------------------------------------------
    > "Du sollst nicht töten!" ist eine sehr einfache Regel. Diese einem Computer
    > einzuprogrammieren ist simpel und findet in praktisch jedem Spiel
    > Anwendung, ...

    Das ist Unsinn. Wo ziehst Du denn da die Grenze?
    Darf man Pflanzen töten? Oder Schimmel?
    Was wenn mein KI-Auto über eine Ameise fährt, ist das dann moralisch und ethisch vertretbar?
    Oder die vielen toten Insekten auf Frontscheiben. Das ist Massenmord - theoretisch.

    "Du sollst nicht töten!" ist definitiv keine "sehr einfache Regel".

  6. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: naja123 11.12.18 - 13:29

    Aboslute Zustimmung. Die Begründung ist, dass Ethik zu komplex sei und das bisherige Systeme keine vernünftigen Ergebnisse geliefert haben. Geradezu ärmlich, das technische Verständnis des Autors.

  7. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: twothe 11.12.18 - 19:56

    MrTridac schrieb:
    --------------------------------------------------------------------------------
    > "Du sollst nicht töten!" ist definitiv keine "sehr einfache Regel".

    Siehe Absatz 2, den du wohl nicht mehr gelesen hast.

    Kleines Beispiel: aus rechtlichen Gründen müssen Maschinen - z.b. eine Kreissäge in einer Fabrik - so gebaut werden, dass Personen- und Sachschaden ausgeschlossen ist. Was macht also ein modernes System das erkennt das ein Mensch zu nahe an die Sägeblätter kommt? Es schaltet sich ab. Die Regel wurde also erfolgreich einprogrammiert. Ja, so simpel ist das, und schon ist der Artikel als Unsinn entlarvt.

    Jetzt könnte es hypothetisch passieren, dass ein irrer Massenmörder gerade plant ein Krankenhaus in die Luft zu sprengen während er neben besagter Kreissäge steht, doch ein Sägewerkmitarbeiter fasst sich ein Herz und stößt ihn in die Maschine, die sich prompt abschaltet, und der Mörder sprengt daraufhin wütend das Krankenhaus. Wäre es hier besser gewesen wenn die Säge an geblieben wäre, den Mörder getötet hätte und das Krankenhaus mit all den Leuten darin noch stehen würde?

    Die Antwort auf diese Frage ist derart komplex, dass selbst der Mensch für solche Situationen keine Regeln finden kann. Rechtlich wird so ein Mord aus Notwehr schlicht nur entschuldigt, aber wie generell in einer solchen Situation zu verfahren ist steht in keinem Gesetzbuch. Technisch könnte man problemlos einer KI einprogrammieren über Gesichtserkennung bei gesuchten Mördern nicht abzuschalten, oder schlicht auf Zuruf an zu bleiben. Es gibt zwei Gründe warum das nicht gemacht wird: erstens sind solche Sonderfeatures zu teuer und zweitens würde man dann Mord in eine Maschine programmieren und die Verantwortlichen würden dann bei jedem Fehlverhalten die Strafe dafür bekommen.

  8. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: Jakelandiar 11.12.18 - 21:51

    naja123 schrieb:
    --------------------------------------------------------------------------------
    > Aboslute Zustimmung. Die Begründung ist, dass Ethik zu komplex sei und das
    > bisherige Systeme keine vernünftigen Ergebnisse geliefert haben. Geradezu
    > ärmlich, das technische Verständnis des Autors.

    Ich nur bis hierhin gelesen:

    "Die Vorstellung, dass sich Ethik in einfache Regeln gießen lässt, mag in Videospielen funktionieren. In der realen Welt sind ethische Entscheidungsprozesse aber komplexe soziale und psychologische Vorgänge, die trotz identischer ethischer Regeln je nach sozialem, politischem, religiösem oder kulturellem Hintergrund der entscheidenden Person zu ganz unterschiedlichen Ergebnissen führen können."

    Dann wusste ich das der Rest Müll sein wird. Es heißt der Computer kann keine Ethik haben, weil dem Autor das Ergebnis nicht gefallen hat, sagt dann aber einen Absatz später das es das gleiche Ergebnis praktisch auch bei menschen gibt und das jeder Mensch ein anderes Ergebnis hat das ihm ebenso nicht gefällt.

    Dann kann die Maschine Definitiv auch Ethik haben. Den Rest braucht man nicht mehr lesen.

  9. Re: Also wenn schon der erste Absatz Unsinn ist...

    Autor: HighZ 19.12.18 - 23:03

    Ethik wird in den Kommentaren nur auf "töten oder nicht" begrenzt.
    (Thema Kreissäge: Die hält auch bei ner Wurst an, geht da um Prüfströme die fließen.
    Von "Das ist ein mensch ich halte an" sind wir da noch recht weit entfernt.
    Geschweige denn: Mörder wird gekillt, Arbeiterhand nicht.)

    Es wird doch aber in dem Artikel eindeutig folgende Aussage getroffen: Selbst wenn man alle
    ethischen Punkte eines Menschen benutzt, diskriminiert man alleine dadurch, dass die Programmierer festlegen was "ethisch korrekt" ist. Und selbst das ist nicht einfach.

    Meiner Meinung nach ein guter Artikel. Vielleicht sollte man das "es wird niemals gehen" etwas einschränken, aber aktuell auf jeden Fall vollsten Zuspruch.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Hochland SE, Heimenkirch, Schongau
  2. DLR Deutsches Zentrum für Luft- und Raumfahrt e.V., Neustrelitz
  3. AL-KO Geräte GmbH, Kötz
  4. BOS GmbH & Co. KG, Ostfildern

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 1.149,00€ (Bestpreis!)
  2. 74,90€ (zzgl. Versand)
  3. 124,90€ (Bestpreis!)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Smarte Wecker im Test: Unter den Blinden ist der Einäugige König
Smarte Wecker im Test
Unter den Blinden ist der Einäugige König

Einen guten smarten Wecker zu bauen, ist offenbar gar nicht so einfach. Bei Amazons Echo Show 5 und Lenovos Smart Clock fehlen uns viele Basisfunktionen. Dafür ist einer der beiden ein besonders preisgünstiges und leistungsfähiges smartes Display.
Ein Test von Ingo Pakalski

  1. Nest Hub im Test Google vermasselt es 1A

Indiegames-Rundschau: Epische ASCII-Abenteuer und erlebnishungrige Astronauten
Indiegames-Rundschau
Epische ASCII-Abenteuer und erlebnishungrige Astronauten

In Stone Story RPG erwacht ASCII-Art zum Leben, die Astronauten in Oxygen Not Included erleben tragikomische Slapstick-Abenteuer, dazu kommen Aufbaustrategie plus Action und Sammelkartenspiele: Golem.de stellt neue Indiegames vor.
Von Rainer Sigl

  1. Indiegames-Rundschau Von Bananen und Astronauten
  2. Indiegames-Rundschau Verloren im Sonnensystem und im Mittelalter
  3. Indiegames-Rundschau Drogen, Schwerter, Roboter-Ritter

Google Maps: Karten brauchen Menschen statt Maschinen
Google Maps
Karten brauchen Menschen statt Maschinen

Wenn Karten nicht mehr von Menschen, sondern allein von Maschinen erstellt werden, erfinden diese U-Bahn-Linien, Hochhäuser im Nationalpark und unmögliche Routen. Ein kurze Liste zu den Grenzen der Automatisierung.
Von Sebastian Grüner

  1. Kartendienst Google bringt AR-Navigation und Reiseinformationen in Maps
  2. Maps Duckduckgo mit Kartendienst von Apple
  3. Google Maps zeigt Bikesharing in Berlin, Hamburg, Wien und Zürich

  1. Edag Citybot: Wandelbares Auto mit Rucksackmodulen gegen Verkehrsprobleme
    Edag Citybot
    Wandelbares Auto mit Rucksackmodulen gegen Verkehrsprobleme

    Der Edag Citybot ist ein Konzept für das Auto der Zukunft, das autonom fahren kann - und das möglichst rund um die Uhr, um keinen Parkraum zu okkupieren. Anhänger- und Rucksackmodule machen es universell einsetzbar.

  2. Recruiting: Alle Einstellungsprozesse sind fehlerhaft
    Recruiting
    Alle Einstellungsprozesse sind fehlerhaft

    Worauf sollen Unternehmen achten, wenn sie Entwickler einstellen? Das wird derzeit heftig diskutiert. Und alles hat seine Nachteile.

  3. Fyrtur und Kadrilj: Ikeas smarte Rollos zu Anfang mit Homekit inkompatibel
    Fyrtur und Kadrilj
    Ikeas smarte Rollos zu Anfang mit Homekit inkompatibel

    Ikeas smarte Rollos Fyrtur und Kadrilj sind zunächst nicht mit Apples Heimautomatisierunglösung Homekit kompatibel. Das teilte das Ikea-Supportteam mit.


  1. 09:30

  2. 09:03

  3. 08:46

  4. 08:35

  5. 08:01

  6. 07:52

  7. 07:41

  8. 07:19