1. Foren
  2. Kommentare
  3. Automobil
  4. Alle Kommentare zum Artikel
  5. › Verkehrsminister: Dobrindt gründet…

Ethik und Computer funktionieren nicht

  1. Thema

Neues Thema Ansicht wechseln


  1. Ethik und Computer funktionieren nicht

    Autor: Sharra 12.09.16 - 10:25

    Man fährt. Vor einem ein Kind, links und rechts Erwachsene. Zum bremsen ist der Abstand schon zu kurz.

    Wer entscheidet jetzt, wessen Gesundheit, oder Leben, mehr, oder weniger wert ist?
    Fährt man das Kind um? Fährt man links oder rechts gleich mehrere Leute um, um ja nicht das Kind zu erwischen?

    Nach welchen Faktoren wägt der Computer das ab?

    Der Mensch entscheidet hier instinktiv. Ob falsch oder richtig ist egal, er entscheidet, und wenn es die Entscheidung ist, sich nicht für eine Option zu entscheiden.

    Wer übernimmt aber die Haftung für die Computerentscheidung?
    Der Fahrer kann es nicht sein, denn der entscheidet nicht.
    Der Hersteller wird sich absichern, und nach Gesetzen schreien, die das eindeutig regeln. Aber wie will man das regeln? Dazu müsste man Menschen mit Werten belegen.

    Und selbst im allerblödesten Fall, wenn der Gesetzgeber sagen würde, das Kind dürfe auf keinen Fall Schaden nehmen, woher will der Computer wissen, wer, oder was, die Leute am Rand sind? Sind es die Eltern des Kindes links, und rechts stehen keine Verwandte? Keine Ahnung. Ist die Gruppe rechts der Verein "Todkranke Krebspatienten auf dem Marsch zum Hospiz"? Woher soll man das wissen?

    Es gibt dafür, de facto, keine akzeptable Lösung. Nein, auch nicht mit KI.

  2. Re: Ethik und Computer funktionieren nicht

    Autor: deraal 12.09.16 - 10:38

    versuch dich mal etwas mehr da rein zu denken.
    1. in welchem Szenario soll das passieren dass in der mitte der Fahrbahn ein Kind steht und links und rechts erwachsene ohne dass man das vorher sehen könnte? falls alle auf die Straße rennen plötzlich kann das eine maschine viel früher erkennnen als ein Mensch.
    2. Ein Mensch entscheidet in dem fall auch nicht, wenn er unaufmerksam ist und ein Mann rennt auf die Straße dann weicht er erstmal aus, auch wenn plötzlich eine Schulklasse da ist wo er hinfahren wollte, er überlegt sich nicht ganz in ruhe wessen leben weniger wert ist.
    3. es geht nicht darum dass maschinen in seltenen extremfällen die richtige entscheidung treffen. wenn selbstfahrende Autos insgesamt weniger menschen umfahren ist das schon was wert.

  3. Re: Ethik und Computer funktionieren nicht

    Autor: pk_erchner 12.09.16 - 10:40

    Sharra schrieb:
    --------------------------------------------------------------------------------
    > Man fährt. Vor einem ein Kind, links und rechts Erwachsene. Zum bremsen ist
    > der Abstand schon zu kurz.
    >
    > Wer entscheidet jetzt, wessen Gesundheit, oder Leben, mehr, oder weniger
    > wert ist?

    die Regeln, die der Hersteller einbaut

    der Hersteller ist eine Gruppe von Menschen

    > Fährt man das Kind um? Fährt man links oder rechts gleich mehrere Leute um,
    > um ja nicht das Kind zu erwischen?
    >
    > Nach welchen Faktoren wägt der Computer das ab?
    >

    darum geht es ja gerade - das gemeinsam festzulegen

    > Der Mensch entscheidet hier instinktiv. Ob falsch oder richtig ist egal, er
    > entscheidet, und wenn es die Entscheidung ist, sich nicht für eine Option
    > zu entscheiden.

    viele Menschen entscheiden überhaupt nicht - sondern reagieren vielleicht oder nicht

    da sind "logische", rationale Regeln, die in 5 ms ausgewertet können, schon sinnvoller

    natürlich können da auch Fehler passieren ... zB. mit den Sensoren .. aber das ist ein (bedauernswerter) Sonderfall

    >
    > Wer übernimmt aber die Haftung für die Computerentscheidung?

    der Hersteller bzw. der Betreiber des Fahrzeugs :-)

    oder eine 3rd Party, die dafür Geld nimmt

    Versicherungen z.B.

    > Der Fahrer kann es nicht sein, denn der entscheidet nicht.

    auch ein menschlicher Fahrer haftet bei Vorsatz und grober Fahrlässigkeit

    kennst Du KFZ Versicherungen ?

    > Der Hersteller wird sich absichern, und nach Gesetzen schreien, die das
    > eindeutig regeln. Aber wie will man das regeln? Dazu müsste man Menschen
    > mit Werten belegen.

    dann ist es nicht Job des Herstellers die Regeln zu definieren
    sondern der Gesellschaft

    und genau das macht der Verkehrsminister doch gerade

    >
    > Und selbst im allerblödesten Fall, wenn der Gesetzgeber sagen würde, das
    > Kind dürfe auf keinen Fall Schaden nehmen, woher will der Computer wissen,
    > wer, oder was, die Leute am Rand sind? Sind es die Eltern des Kindes links,
    > und rechts stehen keine Verwandte? Keine Ahnung. Ist die Gruppe rechts der
    > Verein "Todkranke Krebspatienten auf dem Marsch zum Hospiz"? Woher soll man
    > das wissen?

    es können nur im Moment messbare Fakten berücksichtigt werden

    so einfach

    >
    > Es gibt dafür, de facto, keine akzeptable Lösung. Nein, auch nicht mit KI.

    deshalb arbeitet man ja daran

    es wird keine perfekte Lösung geben
    aber eine akzeptable

    wie auch heute im Strassenverkehr

    oder willst Du alle Autos verbieten, weil es Ammokfahrer geben kann?

  4. Re: Ethik und Computer funktionieren nicht

    Autor: wasabi 12.09.16 - 10:57

    > 3. es geht nicht darum dass maschinen in seltenen extremfällen die richtige
    > entscheidung treffen.

    Aber die Frage stellt sich doch zwangsläufig trotzdem. Es sei denn, du glaubst dass KI schon so weit ist, dass da Programmierer keinen Einfluss darauf haben. Ich gehe momentan noch davon aus, dass die Entwickler festlegen müssen: Wie soll das Auto reagieren, wenn dies und jenes passiert? Ich halte es für notwendig, dass ein autonomes Auto in der Lage ist, verschiedene Arten von Hindernissen zu unterscheiden. Und die Entwickler dann festlegen, was das Auto in der entsprechenden Situation tun soll. Z.B. einem Kind ausweichen und dafür in einen Pappkarton zu fahren.

    Oder meinst du, die programmierer sollten für solche Situationen einfach Random-Funktionen einbauen?

  5. Re: Ethik und Computer funktionieren nicht

    Autor: Trollversteher 12.09.16 - 11:09

    >versuch dich mal etwas mehr da rein zu denken. 1. in welchem Szenario soll das passieren dass in der mitte der Fahrbahn ein Kind steht und links und rechts erwachsene ohne dass man das vorher sehen könnte? falls alle auf die Straße rennen plötzlich kann das eine maschine viel früher erkennnen als ein Mensch.

    Nein, kann sie nichtg. Der Mensch kann aufgrund seiner Intuition und seiner Erfahrung Vorzeichen erkennen - ein Spielzeug am Strassenrand, der berühmte rollende Ball etc - das werden Maschinen in ein paar Jahren vermutlich auch können, noch sind sie davon aber noch weit entfernt.

    >2. Ein Mensch entscheidet in dem fall auch nicht, wenn er unaufmerksam ist und ein Mann rennt auf die Straße dann weicht er erstmal aus, auch wenn plötzlich eine Schulklasse da ist wo er hinfahren wollte, er überlegt sich nicht ganz in ruhe wessen leben weniger wert ist.

    Richtig - aber irgendeine Entscheidung müssen die Maschinen ja treffen - sich einfach abschalten geht nun mal nicht.

    >3. es geht nicht darum dass maschinen in seltenen extremfällen die richtige entscheidung treffen. wenn selbstfahrende Autos insgesamt weniger menschen umfahren ist das schon was wert.

    Trotzdem bleibt ein Computer ein Computer, und der trifft auf Basis seiner Sensordaten und vorgegebenen Priorisierungen Entscheidungen, und über diese Priorisierungen muss man nun mal diskutieren...

  6. Re: Ethik und Computer funktionieren nicht

    Autor: theonlyone 12.09.16 - 14:33

    Trollversteher schrieb:
    --------------------------------------------------------------------------------
    > >versuch dich mal etwas mehr da rein zu denken. 1. in welchem Szenario soll
    > das passieren dass in der mitte der Fahrbahn ein Kind steht und links und
    > rechts erwachsene ohne dass man das vorher sehen könnte? falls alle auf die
    > Straße rennen plötzlich kann das eine maschine viel früher erkennnen als
    > ein Mensch.
    >
    > Nein, kann sie nichtg. Der Mensch kann aufgrund seiner Intuition und seiner
    > Erfahrung Vorzeichen erkennen - ein Spielzeug am Strassenrand, der berühmte
    > rollende Ball etc - das werden Maschinen in ein paar Jahren vermutlich auch
    > können, noch sind sie davon aber noch weit entfernt.

    http://fortune.com/2016/05/24/google-tests-self-driving-cars/

    Grundsätzlich ist das lernen von Gefahrensituationen ein völlig normales Lernen.

    Die offensichtlichen Dinge wie ein Ball der auf die Straße rollt sind da abgedeckt.

    Völlig irrationale Handlungen hingegen sind gefährlich, aber das ist bei normalen Menschen genau das gleiche (den man hat eine gewisse Erfahrung wie sich Menschen verhalten, wenn da plötzlich jemand vom Gehweg schlagartig auf die Fahrbahn springt ist das eben etwas mit dem man NICHT gerechnet hat, die Möglichkeit das es passiert einzukalkulieren wird ein Mensch eher nicht machen, den dann könnte man gar kein Auto mehr fahren, der Computer kann das durchaus).

    Es ist durchaus drin das man das Auto extrem vorsichtig fahren lässt, dann hält man im Zweifel eben auch bei sehr viel vermeintlichen Kleinigkeiten, weil "potenziell" das Risiko existiert.

    Grundsätzlich wäre es sehr gut, wenn sich alle so genau an Regeln halten würden. Das ist aber nicht der Fall, weshalb man letztlich nicht drum herum kommt das man mit einem gewissen Risiko immer unterwegs ist (gerade wenn irrationale Handlungen dazu kommen, die kann man schlichtweg nicht ständig ernst nehmen, wenn man daran durch sein Handeln nichts ändern kann, sprich jemand der dir vor der Karren fährt, auch wenn du still stehst, der ist schlichtweg Schuld).

    > >2. Ein Mensch entscheidet in dem fall auch nicht, wenn er unaufmerksam ist
    > und ein Mann rennt auf die Straße dann weicht er erstmal aus, auch wenn
    > plötzlich eine Schulklasse da ist wo er hinfahren wollte, er überlegt sich
    > nicht ganz in ruhe wessen leben weniger wert ist.
    >
    > Richtig - aber irgendeine Entscheidung müssen die Maschinen ja treffen -
    > sich einfach abschalten geht nun mal nicht.

    Gefahrenvermeidung ist eben immer das Wichtigste.
    Das kann der Computer einfach viel besser als der Mensch.

    Ob man dann das Kind umfährt oder den alten Mann, dürfte grundsätzlich keine Rolle spielen, da man keinen Menschen diskriminieren darf (ergo alle gleich wertvoll).

    > >3. es geht nicht darum dass maschinen in seltenen extremfällen die
    > richtige entscheidung treffen. wenn selbstfahrende Autos insgesamt weniger
    > menschen umfahren ist das schon was wert.
    >
    > Trotzdem bleibt ein Computer ein Computer, und der trifft auf Basis seiner
    > Sensordaten und vorgegebenen Priorisierungen Entscheidungen, und über diese
    > Priorisierungen muss man nun mal diskutieren...

    Grundsätzlich dürfte man hier keine Entscheidung durch "Priorisierung" zulassen.

    Wenn das Auto irgendwo reinfährt, dann fährt es da rein, wenn jede andere Handlung genauso irgendwo Menschenleben kostet, deal with it.

    Den wenn man anfängt hier eine Priorisierung einzuführen ist das automatisch auch eine Diskriminierung, da man anfängt Menschenleben eine Priorisierung zu geben.

    Am Ende muss man schauen das man solche Situation komplett vermeidet.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Universitätsmedizin der Johannes Gutenberg-Universität Mainz, Mainz
  2. Flottweg SE, Vilsbiburg bei Landshut
  3. operational services GmbH & Co. KG, verschiedene Standorte
  4. Formel D GmbH, Köln

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. 19,99€
  2. 27,99€
  3. (u. a. Train Sim World 2020 für 9,99€, Train Simulator 2021 für 12,75€, Fishing Sim World...
  4. 16,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Google vs. Oracle: Das wichtigste Urteil der IT seit Jahrzehnten
Google vs. Oracle
Das wichtigste Urteil der IT seit Jahrzehnten

Der Prozess Google gegen Oracle wird in diesem Jahr enden. Egal welche Seite gewinnt, die Entscheidung wird die IT-Landschaft langfristig prägen.
Eine Analyse von Sebastian Grüner


    Spitzenglättung: Die Pläne zur Zwangsabschaltung von Wallboxen gehen zu weit
    Spitzenglättung
    Die Pläne zur Zwangsabschaltung von Wallboxen gehen zu weit

    Die Netzbetreiber wollen in großem Umfang in die Anschlüsse der Verbraucher eingreifen. Das macht die Elektromobilität unnötig teuer und kompliziert.
    Ein IMHO von Friedhelm Greis

    1. CD Projekt Red Crunch trifft auf Cyberpunk 2077
    2. Open Source Niemand hat die Absicht, Sicherheitslücken zu schließen
    3. Disney+ Disney muss seinen Katalog aufstocken

    Notebook-Displays: Tschüss 16:9, hallo 16:10!
    Notebook-Displays
    Tschüss 16:9, hallo 16:10!

    Endlich schwenken die Laptop-Hersteller auf Displays mit mehr Pixeln in der Vertikalen um. Das war überfällig - ist aber noch nicht genug.
    Ein IMHO von Marc Sauter

    1. Microsoft LTE-Laptops für Schüler kosten 200 US-Dollar
    2. Galaxy Book Flex2 5G Samsungs Notebook unterstützt S-Pen und 5G
    3. Expertbook B9 (B9400) Ultrabook von Asus nutzt Tiger Lake und Thunderbolt 4