1. Foren
  2. Kommentare
  3. Automobil
  4. Alle Kommentare zum Artikel
  5. › Verkehrsminister: Dobrindt gründet…

Ethik und Computer funktionieren nicht

  1. Thema

Neues Thema Ansicht wechseln


  1. Ethik und Computer funktionieren nicht

    Autor: Sharra 12.09.16 - 10:25

    Man fährt. Vor einem ein Kind, links und rechts Erwachsene. Zum bremsen ist der Abstand schon zu kurz.

    Wer entscheidet jetzt, wessen Gesundheit, oder Leben, mehr, oder weniger wert ist?
    Fährt man das Kind um? Fährt man links oder rechts gleich mehrere Leute um, um ja nicht das Kind zu erwischen?

    Nach welchen Faktoren wägt der Computer das ab?

    Der Mensch entscheidet hier instinktiv. Ob falsch oder richtig ist egal, er entscheidet, und wenn es die Entscheidung ist, sich nicht für eine Option zu entscheiden.

    Wer übernimmt aber die Haftung für die Computerentscheidung?
    Der Fahrer kann es nicht sein, denn der entscheidet nicht.
    Der Hersteller wird sich absichern, und nach Gesetzen schreien, die das eindeutig regeln. Aber wie will man das regeln? Dazu müsste man Menschen mit Werten belegen.

    Und selbst im allerblödesten Fall, wenn der Gesetzgeber sagen würde, das Kind dürfe auf keinen Fall Schaden nehmen, woher will der Computer wissen, wer, oder was, die Leute am Rand sind? Sind es die Eltern des Kindes links, und rechts stehen keine Verwandte? Keine Ahnung. Ist die Gruppe rechts der Verein "Todkranke Krebspatienten auf dem Marsch zum Hospiz"? Woher soll man das wissen?

    Es gibt dafür, de facto, keine akzeptable Lösung. Nein, auch nicht mit KI.

  2. Re: Ethik und Computer funktionieren nicht

    Autor: deraal 12.09.16 - 10:38

    versuch dich mal etwas mehr da rein zu denken.
    1. in welchem Szenario soll das passieren dass in der mitte der Fahrbahn ein Kind steht und links und rechts erwachsene ohne dass man das vorher sehen könnte? falls alle auf die Straße rennen plötzlich kann das eine maschine viel früher erkennnen als ein Mensch.
    2. Ein Mensch entscheidet in dem fall auch nicht, wenn er unaufmerksam ist und ein Mann rennt auf die Straße dann weicht er erstmal aus, auch wenn plötzlich eine Schulklasse da ist wo er hinfahren wollte, er überlegt sich nicht ganz in ruhe wessen leben weniger wert ist.
    3. es geht nicht darum dass maschinen in seltenen extremfällen die richtige entscheidung treffen. wenn selbstfahrende Autos insgesamt weniger menschen umfahren ist das schon was wert.

  3. Re: Ethik und Computer funktionieren nicht

    Autor: pk_erchner 12.09.16 - 10:40

    Sharra schrieb:
    --------------------------------------------------------------------------------
    > Man fährt. Vor einem ein Kind, links und rechts Erwachsene. Zum bremsen ist
    > der Abstand schon zu kurz.
    >
    > Wer entscheidet jetzt, wessen Gesundheit, oder Leben, mehr, oder weniger
    > wert ist?

    die Regeln, die der Hersteller einbaut

    der Hersteller ist eine Gruppe von Menschen

    > Fährt man das Kind um? Fährt man links oder rechts gleich mehrere Leute um,
    > um ja nicht das Kind zu erwischen?
    >
    > Nach welchen Faktoren wägt der Computer das ab?
    >

    darum geht es ja gerade - das gemeinsam festzulegen

    > Der Mensch entscheidet hier instinktiv. Ob falsch oder richtig ist egal, er
    > entscheidet, und wenn es die Entscheidung ist, sich nicht für eine Option
    > zu entscheiden.

    viele Menschen entscheiden überhaupt nicht - sondern reagieren vielleicht oder nicht

    da sind "logische", rationale Regeln, die in 5 ms ausgewertet können, schon sinnvoller

    natürlich können da auch Fehler passieren ... zB. mit den Sensoren .. aber das ist ein (bedauernswerter) Sonderfall

    >
    > Wer übernimmt aber die Haftung für die Computerentscheidung?

    der Hersteller bzw. der Betreiber des Fahrzeugs :-)

    oder eine 3rd Party, die dafür Geld nimmt

    Versicherungen z.B.

    > Der Fahrer kann es nicht sein, denn der entscheidet nicht.

    auch ein menschlicher Fahrer haftet bei Vorsatz und grober Fahrlässigkeit

    kennst Du KFZ Versicherungen ?

    > Der Hersteller wird sich absichern, und nach Gesetzen schreien, die das
    > eindeutig regeln. Aber wie will man das regeln? Dazu müsste man Menschen
    > mit Werten belegen.

    dann ist es nicht Job des Herstellers die Regeln zu definieren
    sondern der Gesellschaft

    und genau das macht der Verkehrsminister doch gerade

    >
    > Und selbst im allerblödesten Fall, wenn der Gesetzgeber sagen würde, das
    > Kind dürfe auf keinen Fall Schaden nehmen, woher will der Computer wissen,
    > wer, oder was, die Leute am Rand sind? Sind es die Eltern des Kindes links,
    > und rechts stehen keine Verwandte? Keine Ahnung. Ist die Gruppe rechts der
    > Verein "Todkranke Krebspatienten auf dem Marsch zum Hospiz"? Woher soll man
    > das wissen?

    es können nur im Moment messbare Fakten berücksichtigt werden

    so einfach

    >
    > Es gibt dafür, de facto, keine akzeptable Lösung. Nein, auch nicht mit KI.

    deshalb arbeitet man ja daran

    es wird keine perfekte Lösung geben
    aber eine akzeptable

    wie auch heute im Strassenverkehr

    oder willst Du alle Autos verbieten, weil es Ammokfahrer geben kann?

  4. Re: Ethik und Computer funktionieren nicht

    Autor: wasabi 12.09.16 - 10:57

    > 3. es geht nicht darum dass maschinen in seltenen extremfällen die richtige
    > entscheidung treffen.

    Aber die Frage stellt sich doch zwangsläufig trotzdem. Es sei denn, du glaubst dass KI schon so weit ist, dass da Programmierer keinen Einfluss darauf haben. Ich gehe momentan noch davon aus, dass die Entwickler festlegen müssen: Wie soll das Auto reagieren, wenn dies und jenes passiert? Ich halte es für notwendig, dass ein autonomes Auto in der Lage ist, verschiedene Arten von Hindernissen zu unterscheiden. Und die Entwickler dann festlegen, was das Auto in der entsprechenden Situation tun soll. Z.B. einem Kind ausweichen und dafür in einen Pappkarton zu fahren.

    Oder meinst du, die programmierer sollten für solche Situationen einfach Random-Funktionen einbauen?

  5. Re: Ethik und Computer funktionieren nicht

    Autor: Trollversteher 12.09.16 - 11:09

    >versuch dich mal etwas mehr da rein zu denken. 1. in welchem Szenario soll das passieren dass in der mitte der Fahrbahn ein Kind steht und links und rechts erwachsene ohne dass man das vorher sehen könnte? falls alle auf die Straße rennen plötzlich kann das eine maschine viel früher erkennnen als ein Mensch.

    Nein, kann sie nichtg. Der Mensch kann aufgrund seiner Intuition und seiner Erfahrung Vorzeichen erkennen - ein Spielzeug am Strassenrand, der berühmte rollende Ball etc - das werden Maschinen in ein paar Jahren vermutlich auch können, noch sind sie davon aber noch weit entfernt.

    >2. Ein Mensch entscheidet in dem fall auch nicht, wenn er unaufmerksam ist und ein Mann rennt auf die Straße dann weicht er erstmal aus, auch wenn plötzlich eine Schulklasse da ist wo er hinfahren wollte, er überlegt sich nicht ganz in ruhe wessen leben weniger wert ist.

    Richtig - aber irgendeine Entscheidung müssen die Maschinen ja treffen - sich einfach abschalten geht nun mal nicht.

    >3. es geht nicht darum dass maschinen in seltenen extremfällen die richtige entscheidung treffen. wenn selbstfahrende Autos insgesamt weniger menschen umfahren ist das schon was wert.

    Trotzdem bleibt ein Computer ein Computer, und der trifft auf Basis seiner Sensordaten und vorgegebenen Priorisierungen Entscheidungen, und über diese Priorisierungen muss man nun mal diskutieren...

  6. Re: Ethik und Computer funktionieren nicht

    Autor: theonlyone 12.09.16 - 14:33

    Trollversteher schrieb:
    --------------------------------------------------------------------------------
    > >versuch dich mal etwas mehr da rein zu denken. 1. in welchem Szenario soll
    > das passieren dass in der mitte der Fahrbahn ein Kind steht und links und
    > rechts erwachsene ohne dass man das vorher sehen könnte? falls alle auf die
    > Straße rennen plötzlich kann das eine maschine viel früher erkennnen als
    > ein Mensch.
    >
    > Nein, kann sie nichtg. Der Mensch kann aufgrund seiner Intuition und seiner
    > Erfahrung Vorzeichen erkennen - ein Spielzeug am Strassenrand, der berühmte
    > rollende Ball etc - das werden Maschinen in ein paar Jahren vermutlich auch
    > können, noch sind sie davon aber noch weit entfernt.

    http://fortune.com/2016/05/24/google-tests-self-driving-cars/

    Grundsätzlich ist das lernen von Gefahrensituationen ein völlig normales Lernen.

    Die offensichtlichen Dinge wie ein Ball der auf die Straße rollt sind da abgedeckt.

    Völlig irrationale Handlungen hingegen sind gefährlich, aber das ist bei normalen Menschen genau das gleiche (den man hat eine gewisse Erfahrung wie sich Menschen verhalten, wenn da plötzlich jemand vom Gehweg schlagartig auf die Fahrbahn springt ist das eben etwas mit dem man NICHT gerechnet hat, die Möglichkeit das es passiert einzukalkulieren wird ein Mensch eher nicht machen, den dann könnte man gar kein Auto mehr fahren, der Computer kann das durchaus).

    Es ist durchaus drin das man das Auto extrem vorsichtig fahren lässt, dann hält man im Zweifel eben auch bei sehr viel vermeintlichen Kleinigkeiten, weil "potenziell" das Risiko existiert.

    Grundsätzlich wäre es sehr gut, wenn sich alle so genau an Regeln halten würden. Das ist aber nicht der Fall, weshalb man letztlich nicht drum herum kommt das man mit einem gewissen Risiko immer unterwegs ist (gerade wenn irrationale Handlungen dazu kommen, die kann man schlichtweg nicht ständig ernst nehmen, wenn man daran durch sein Handeln nichts ändern kann, sprich jemand der dir vor der Karren fährt, auch wenn du still stehst, der ist schlichtweg Schuld).

    > >2. Ein Mensch entscheidet in dem fall auch nicht, wenn er unaufmerksam ist
    > und ein Mann rennt auf die Straße dann weicht er erstmal aus, auch wenn
    > plötzlich eine Schulklasse da ist wo er hinfahren wollte, er überlegt sich
    > nicht ganz in ruhe wessen leben weniger wert ist.
    >
    > Richtig - aber irgendeine Entscheidung müssen die Maschinen ja treffen -
    > sich einfach abschalten geht nun mal nicht.

    Gefahrenvermeidung ist eben immer das Wichtigste.
    Das kann der Computer einfach viel besser als der Mensch.

    Ob man dann das Kind umfährt oder den alten Mann, dürfte grundsätzlich keine Rolle spielen, da man keinen Menschen diskriminieren darf (ergo alle gleich wertvoll).

    > >3. es geht nicht darum dass maschinen in seltenen extremfällen die
    > richtige entscheidung treffen. wenn selbstfahrende Autos insgesamt weniger
    > menschen umfahren ist das schon was wert.
    >
    > Trotzdem bleibt ein Computer ein Computer, und der trifft auf Basis seiner
    > Sensordaten und vorgegebenen Priorisierungen Entscheidungen, und über diese
    > Priorisierungen muss man nun mal diskutieren...

    Grundsätzlich dürfte man hier keine Entscheidung durch "Priorisierung" zulassen.

    Wenn das Auto irgendwo reinfährt, dann fährt es da rein, wenn jede andere Handlung genauso irgendwo Menschenleben kostet, deal with it.

    Den wenn man anfängt hier eine Priorisierung einzuführen ist das automatisch auch eine Diskriminierung, da man anfängt Menschenleben eine Priorisierung zu geben.

    Am Ende muss man schauen das man solche Situation komplett vermeidet.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. generic.de software technologies AG, Karlsruhe
  2. Proximity Technology GmbH, Hamburg
  3. Adecco Personaldienstleistungen GmbH, München
  4. operational services GmbH & Co. KG, Nürnberg, Dresden, Berlin, Frankfurt am Main, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 57,99€ (Bestpreis!)
  2. (u. a. HP Pavilion Gaming-Notebook 17,3 Zoll FHD IPS 144Hz i5-10300H 16GB für 895,83€, Xiaomi Mi...
  3. (u. a. Crucial MX500 SATA-SSD 2TB für 156,99€)
  4. (u. a. Samsung 860 Evo Basic SATA-SSD 1TB für 86,76€, Sandisk Ultra 3D 138,89€ (mit...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Next-Gen: Tolle Indiegames für PS5 und Xbox Series X/S
Next-Gen
Tolle Indiegames für PS5 und Xbox Series X/S

Kaum ein unabhängiger Entwickler hat Dev-Kits für PS5 und Xbox Series X/S - aber The Pathinder und Falconeer sind tolle Next-Gen-Indiegames!
Von Rainer Sigl

  1. Indiegames-Rundschau Raumschiffknacker im Orbit
  2. Rollenspiel Fans übersetzen Disco Elysium ins Deutsche
  3. Indiegames-Rundschau Einmal durchspielen in 400 Tagen

Futuristische Schwebebahn im Testbetrieb: Verkehrsmittel der Zukunft für die dritte Dimension
Futuristische Schwebebahn im Testbetrieb
Verkehrsmittel der Zukunft für die dritte Dimension

Eine Schwebebahn für die Stadt, die jeden Passagier zum Wunschziel bringt - bequem, grün, ohne Stau und vielleicht sogar kostenlos. Ist das realistisch?
Ein Bericht von Werner Pluta

  1. ÖPNV Infraserv Höchst baut Wasserstofftankstelle für Züge

Weiterbildung: Was IT-Führungskräfte können sollten
Weiterbildung
Was IT-Führungskräfte können sollten

Wenn IT-Spezialisten zu Führungskräften aufsteigen, müssen sie Fachwissen in fremden Gebieten aufbauen - um Probleme im neuen Job zu vermeiden.
Ein Bericht von Manuel Heckel

  1. IT-Profis und Visualisierung Sag's in Bildern
  2. IT-Jobs Die schwierige Suche nach dem richtigen Arbeitgeber
  3. Digitalisierung in Firmen Warum IT-Teams oft übergangen werden