Abo
  1. Foren
  2. Kommentare
  3. Automobil
  4. Alle Kommentare zum Artikel
  5. › Alexander Dobrindt: VZBV kritisiert…

ethikmodul

  1. Thema

Neues Thema Ansicht wechseln


  1. ethikmodul

    Autor: foho 05.01.17 - 13:35

    wie schaut es eigentlich, aus wurde das ethik-dilemma bei KI im auto mittlerweile "behoben"? oder macht man erstmal und schaut wie man sich dann hinterher mit dem geringsten schaden rausreden kann?

  2. Re: ethikmodul

    Autor: User_x 05.01.17 - 13:50

    die Verantwortung wird auf den Fahrer/Halter übertragen.

  3. Re: ethikmodul

    Autor: RicoBrassers 05.01.17 - 14:15

    User_x schrieb:
    --------------------------------------------------------------------------------
    > die Verantwortung wird auf den Fahrer/Halter übertragen.

    Zumindest nach dem aktuellen Entwurf. Aber da wirft sich ja gerade (zum Glück) die VZBV dazwischen. ;)

  4. Re: ethikmodul

    Autor: s.bona 05.01.17 - 14:21

    Hoffen wir mal dass es auch was bringt. Die Autoindustrie hat in Deutschland eine ziemlich starke Lobby...

  5. Re: ethikmodul

    Autor: mnementh 05.01.17 - 14:51

    foho schrieb:
    --------------------------------------------------------------------------------
    > wie schaut es eigentlich, aus wurde das ethik-dilemma bei KI im auto
    > mittlerweile "behoben"? oder macht man erstmal und schaut wie man sich dann
    > hinterher mit dem geringsten schaden rausreden kann?
    Das Dilemma wird massiv übertrieben. Derzeit kann die Software nicht so gut unterscheiden, dass so eine Entscheidung überhaupt anstünde. Nee, die Software steigt in die Eisen und versucht gegebenenfalls auszuweichen. Führt das Ausweichen auch zur Kollision bleibt der Kurs.

    Abgesehen davon werden auf dem Markt derzeit nur Assistenzsysteme rausgegeben, die richtigen autonomen Fahrzeuge sind noch 5 Jahre entfernt.

  6. Re: ethikmodul

    Autor: IncredibleAlk 05.01.17 - 14:56

    Schiebt man die Verantwortung dem Hersteller zu, wird der entweder das System deaktivieren oder man wird eine Vereinbarung unterschreiben in der steht, dass der Hersteller eben nicht zur Verwantwortung gezogen werden kann.

    Ist das eigentlich rechtliches Neuland? Wie ist das bei Flugzeugen? Wird im Falle des Falles der Hersteller für irgendwas haften? Es gibt doch bestimmt noch andere Industriezweige die komplett autonom sind. Wie ist das da gelöst?

  7. Re: ethikmodul

    Autor: Trockenobst 05.01.17 - 17:30

    foho schrieb:
    --------------------------------------------------------------------------------
    > wie schaut es eigentlich, aus wurde das ethik-dilemma bei KI im auto
    > mittlerweile "behoben"? oder macht man erstmal und schaut wie man sich dann
    > hinterher mit dem geringsten schaden rausreden kann?

    Ich kann bei spaßigen Drohnen hunderte von Meldungen im Netz finden, wo einer beim rumspacken irgendwen schlimm verletzt hat. Oder weil die Drohne mangels Akkuladung jemanden auf dem Kopf gefallen ist.

    Warum sollte da der Hersteller schuld sein? Hier ist es genauso. Der Hersteller aktiviert das Auto nicht, dass tut der Fahrer. Es gibt daher auch kein "ethisches" Dilemma. Ein Auto dass kann extreme Aktionen machen und damit vielleicht Insassen verletzten oder töten, die ein Mensch nicht machen würde weil er einen Überlebensdrang hat.

    Das Ziel ist immer und direkt, erst mal den Fahrer des Wagens und der Insassen zu opfern, bevor man jemand anderem schadet. Alles andere wäre auch moralischer Humbug. Wer das nicht will muss selbst fahren oder ein anderen Transportationsmittel wählen wo er nicht die Verantwortung trägt. So einfach ist das.

  8. Re: ethikmodul

    Autor: HubertHans 06.01.17 - 10:07

    Trockenobst schrieb:
    --------------------------------------------------------------------------------
    > foho schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > wie schaut es eigentlich, aus wurde das ethik-dilemma bei KI im auto
    > > mittlerweile "behoben"? oder macht man erstmal und schaut wie man sich
    > dann
    > > hinterher mit dem geringsten schaden rausreden kann?
    >
    > Ich kann bei spaßigen Drohnen hunderte von Meldungen im Netz finden, wo
    > einer beim rumspacken irgendwen schlimm verletzt hat. Oder weil die Drohne
    > mangels Akkuladung jemanden auf dem Kopf gefallen ist.
    >
    Was hat das mit Autonomen Fahren zu tun? Das auf den Nutzer zu uebertragen ist grenzdebil. Dann wuerde keiner diese Systeme einsetzen. Nur ein echt daemlicher Vollhorst wuerde mittig auf dieses Messer huepfen.

    > Warum sollte da der Hersteller schuld sein? Hier ist es genauso. Der
    > Hersteller aktiviert das Auto nicht, dass tut der Fahrer. Es gibt daher
    > auch kein "ethisches" Dilemma. Ein Auto dass kann extreme Aktionen machen
    > und damit vielleicht Insassen verletzten oder töten, die ein Mensch nicht
    > machen würde weil er einen Überlebensdrang hat.
    >
    Der Hersteller ist fuer die Programmierung verantwortlich. Also hat er auch fuer Fehlentscheidungen des Systems zu haften.

    > Das Ziel ist immer und direkt, erst mal den Fahrer des Wagens und der
    > Insassen zu opfern, bevor man jemand anderem schadet. Alles andere wäre
    > auch moralischer Humbug. Wer das nicht will muss selbst fahren oder ein
    > anderen Transportationsmittel wählen wo er nicht die Verantwortung trägt.
    > So einfach ist das.

    Sag mal, wie bist du denn drauf? Ganz sicher ist es nicht des Fahrzeugs Ziel, zuerst die Insassen zu opfern... Das System wird externe Schaeden vermeiden so gut es geht. Aber Prioritaet hat der Schutz der Insassen. Wie becknackt waere es, wenn zig autonome Autos untereinander suizidgefaehrdet Gefahrensituationen aushandeln? Das ist so daemlich, das tut weh!

    Man muesste alle Autos durch autonomoe Fahrzeuge ersetzen. Das wuerde automatisch zu weniger Unfaellen fuehren, wenn die Systeme ausgereift sind.

    Und falls dann mal ein Depp oder ein Kind vors Fahrzeug rennt, wird das Auto eben versuchen, den Schaden so gering wie moeglich zu halten und die Insassen dabei nicht zu gefaerhden. Wenn derjenige dann so vors Fahrzeug rennt, das nichts mehr zu machen ist, dann ist da nichts mehr zu machen. Und auch das laesst sich dann viel besser ermitteln. Denn aktuelll ist es ja leider so, das in solchen Faellen der Fahrer komplett auseinandergenommen wird. Egal ob er Schuld hat oder nicht.



    1 mal bearbeitet, zuletzt am 06.01.17 10:10 durch HubertHans.

  9. Re: ethikmodul

    Autor: HubertHans 06.01.17 - 10:29

    Achso: Und falls der Halter des Fahrzeugs durch fahrlaessiges Verhalten den Betrieb des Fahrzeugs stoehrt und DAMIT andere Leute gefaehrdet, dann kann man ihn auch weiterhin in Haftung nehmen.

    Sowas wie: falsche Reifen, vernachlaessigte Wartung des Fahrzeug, Betrieb bei offensichtlichen Schaeden usw.

  10. Re: ethikmodul

    Autor: Trockenobst 07.01.17 - 15:12

    HubertHans schrieb:
    --------------------------------------------------------------------------------
    > Was hat das mit Autonomen Fahren zu tun? Das auf den Nutzer zu uebertragen
    > ist grenzdebil. Dann wuerde keiner diese Systeme einsetzen. Nur ein echt
    > daemlicher Vollhorst wuerde mittig auf dieses Messer huepfen.

    Deswegen fährt auch keiner mit einem sehr scharfen Mähdrescher mit aktivieren Klingen durch die Stadt. Der Bauer weiß was er da hat und welche Verantwortung er trägt.

    Es ist am Menschen zu entscheiden ob die Autopiloten dann sicher genug sind und er sie einsetzen will.

    > Der Hersteller ist fuer die Programmierung verantwortlich. Also hat er auch
    > fuer Fehlentscheidungen des Systems zu haften.

    Das "ethische Dilemma" ist aber keine Fehlentscheidung. Wenn es dich um den Baum wickelt, weil ein Sensor diesen nicht erkannt hat, ist anderen nichts passiert. Das hat nichts mit Ethik zu tun, dass ist ein Fehler im Sensorsystem.

    > vermeiden so gut es geht. Aber Prioritaet hat der Schutz der Insassen. Wie
    > becknackt waere es, wenn zig autonome Autos untereinander suizidgefaehrdet
    > Gefahrensituationen aushandeln? Das ist so daemlich, das tut weh!

    Ja, genau. Das ist ein Stau-Ende, was tun wir? Rechts raus aufs Feld oder direkt auf den nächsten Combi mit 3 Kindern drin. Auf dem Feld könnten wir uns ja überschlagen, mal sehen ob die Kids die hinten sitzen Glück haben. Das ist ja für den Fahrer sicherer.

    Ich mag dämlich sein, du bist widerlich. Andere für den Fehlerzustand zu opfern, den du mit dem einschalten des Autos erzeugt hast, ist keine Basis für eine autonome Zukunft. Wer einschaltet, ist erst mal selbst dran. So einfach ist das.

    > Und falls dann mal ein Depp oder ein Kind vors Fahrzeug rennt, wird das
    > Auto eben versuchen, den Schaden so gering wie moeglich zu halten und die
    > Insassen dabei nicht zu gefaerhden.

    Das ist aber nicht der Fall den wir hier diskutieren. Wir diskutieren das die Bremsen kaputt sind und es drei Optionen gibt:

    a) rechts die Gruppe von Kindern
    b) die Gruppe von alten Leuten
    c) die Betonwand

    Du sagst: Kinder oder alte Leute. Betonwand ist aber die moralisch und ethisch einzige korrekte Antwort.

  11. Re: ethikmodul

    Autor: HubertHans 10.01.17 - 14:12

    Trockenobst schrieb:
    --------------------------------------------------------------------------------
    > HubertHans schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Was hat das mit Autonomen Fahren zu tun? Das auf den Nutzer zu
    > uebertragen
    > > ist grenzdebil. Dann wuerde keiner diese Systeme einsetzen. Nur ein echt
    > > daemlicher Vollhorst wuerde mittig auf dieses Messer huepfen.
    >
    > Deswegen fährt auch keiner mit einem sehr scharfen Mähdrescher mit
    > aktivieren Klingen durch die Stadt. Der Bauer weiß was er da hat und welche
    > Verantwortung er trägt.

    Das ist Muell. Wer sein Autonomes Auto unsachgemaeß handhabt ist auch schuld.
    >
    > Es ist am Menschen zu entscheiden ob die Autopiloten dann sicher genug sind
    > und er sie einsetzen will.
    >
    Nein. Wenn die Autos in Zukunft autonom sind, dann ist der Mensch noch mehr ein Risiko als jetzt.

    > > Der Hersteller ist fuer die Programmierung verantwortlich. Also hat er
    > auch
    > > fuer Fehlentscheidungen des Systems zu haften.
    >
    > Das "ethische Dilemma" ist aber keine Fehlentscheidung. Wenn es dich um den
    > Baum wickelt, weil ein Sensor diesen nicht erkannt hat, ist anderen nichts
    > passiert. Das hat nichts mit Ethik zu tun, dass ist ein Fehler im
    > Sensorsystem.

    Das ist kein Dilemme. Defekte Sensoren hat das System zu erkennen. Der Benutzer hat sein Auto zu warten. Ist der Halter fahrlaessig dann bekommt er die Schuld. Wo ist das Problem?
    >
    > > vermeiden so gut es geht. Aber Prioritaet hat der Schutz der Insassen.
    > Wie
    > > becknackt waere es, wenn zig autonome Autos untereinander
    > suizidgefaehrdet
    > > Gefahrensituationen aushandeln? Das ist so daemlich, das tut weh!
    >
    > Ja, genau. Das ist ein Stau-Ende, was tun wir? Rechts raus aufs Feld oder
    > direkt auf den nächsten Combi mit 3 Kindern drin. Auf dem Feld könnten wir
    > uns ja überschlagen, mal sehen ob die Kids die hinten sitzen Glück haben.
    > Das ist ja für den Fahrer sicherer.
    >
    Hast du noch mehr Schmalztriefende Szenarien auf Lager? Wir reden hier von Autonomen Autos. Warum sollte ein autonomes Auto in ein Stauende hineinrasen? Fehler des programmierers oder Fehler in deiner bluehenden Fantasie? Wenn die AUtos autonom sind dann wissen die Autos bereits, das da ein Stau ist. Wer in dem mit Pech betroffenem Auto sitzt ist dabei wurscht. Ist egal ob Kinder oder Frauen oder MAenner. Personenschaeden sind schlecht.


    > Ich mag dämlich sein, du bist widerlich. Andere für den Fehlerzustand zu
    > opfern, den du mit dem einschalten des Autos erzeugt hast, ist keine Basis
    > für eine autonome Zukunft. Wer einschaltet, ist erst mal selbst dran. So
    > einfach ist das.
    >
    Wer opfert hier was? Es wird die guenstigste Moeglichkeit ausgewaehlt und gut. und der Schutz der eigenen Insassen hat Prio. Das trifft fuer die anderen Fahrzeuge auch zu. Mit Widerlichkeit hat das nichts zu tun.

    > > Und falls dann mal ein Depp oder ein Kind vors Fahrzeug rennt, wird das
    > > Auto eben versuchen, den Schaden so gering wie moeglich zu halten und
    > die
    > > Insassen dabei nicht zu gefaerhden.
    >
    > Das ist aber nicht der Fall den wir hier diskutieren. Wir diskutieren das
    > die Bremsen kaputt sind und es drei Optionen gibt:
    >
    > a) rechts die Gruppe von Kindern
    > b) die Gruppe von alten Leuten
    > c) die Betonwand
    >

    Du raffst einfach nicht, das es keine defekten Bremsen geben wird. Das Auto hat Sensoren.

    > Du sagst: Kinder oder alte Leute. Betonwand ist aber die moralisch und
    > ethisch einzige korrekte Antwort.

    Nein. ich betrachte das sachlich. Du solltest weniger Science Fiction-Serien schauen. Scheinbar kannst du Realitaet und Fiktion nicht unterscheiden und bist an moralische Vorstellungen gefesselt, die dir per langjaehriger Indoktrinierung durch Feminsiten & Co eingetrichtert wurden. hast bestimmt auch bei der Stoehrerhaftung und generellen Mitschuld die Hand hochgehalten, oder?

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Stadtwerke Karlsruhe Netzservice GmbH, Karlsruhe
  2. Landesbetrieb Mobilität Rheinland-Pfalz, Koblenz
  3. über experteer GmbH, Raum Heidelberg / Rhein-Neckar
  4. über experteer GmbH, Heilbronn

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 49,70€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Ryzen 7 3800X im Test: Der schluckt zu viel
Ryzen 7 3800X im Test
"Der schluckt zu viel"

Minimal mehr Takt, vor allem aber ein höheres Power-Budget für gestiegene Frequenzen unter Last: Das war unsere Vorstellung vor dem Test des Ryzen 7 3800X. Doch die Achtkern-CPU überrascht negativ, weil AMD es beim günstigeren 3700X bereits ziemlich gut meinte.
Ein Test von Marc Sauter

  1. Agesa 1003abba Microcode-Update taktet Ryzen 3000 um 50 MHz höher
  2. Agesa 1003abb Viele ältere Platinen erhalten aktuelles UEFI für Ryzen 3000
  3. Ryzen 5 3400G und Ryzen 3 3200G im Test Picasso passt

Astronomie: K2-18b ist weder eine zweite Erde noch super
Astronomie
K2-18b ist weder eine zweite Erde noch super

Die Realität sieht anders aus, als manche Überschrift vermuten lässt. Die neue Entdeckung von Wasser auf einem Exoplaneten deutet nicht auf Leben hin, dafür aber auf Probleme im Wissenschaftsbetrieb.
Von Frank Wunderlich-Pfeiffer

  1. Interview Heino Falcke "Wir machen Wettermodelle für schwarze Löcher"

Verkehrssicherheit: Die Lehren aus dem tödlichen SUV-Unfall
Verkehrssicherheit
Die Lehren aus dem tödlichen SUV-Unfall

Soll man tonnenschwere SUV aus den Innenstädten verbannen? Oder sollten technische Systeme schärfer in die Fahrzeugsteuerung eingreifen? Nach einem Unfall mit vier Toten in Berlin mangelt es nicht an radikalen Vorschlägen.
Eine Analyse von Friedhelm Greis

  1. Torc Robotics Daimler-Tochter testet selbstfahrende Lkw
  2. Edag Citybot Wandelbares Auto mit Rucksackmodulen gegen Verkehrsprobleme
  3. Tusimple UPS testet automatisiert fahrende Lkw

  1. Mobilfunkpakt: Vodafone schaltet 5G-Standorte früher frei
    Mobilfunkpakt
    Vodafone schaltet 5G-Standorte früher frei

    In Hessen geht es jetzt zügig weiter. Vodafone hat drei Standorte früher freigeschaltet. Auch die Telekom ist in dem Bundesland schon mit 5G aktiv.

  2. Creative Assembly: Das nächste Total War spielt im antiken Troja
    Creative Assembly
    Das nächste Total War spielt im antiken Troja

    Viele Gerüchte gab es bereits um das nächste Total-War-Spiel. Jetzt ist es offiziell: A Total War Story: Troy erzählt die Sage um Achilles, Hector, Odysseus und die antike Stadt Troja. Der Titel soll 2020 erscheinen.

  3. Facebook-Urteil: Künast muss übelste Beschimpfungen hinnehmen
    Facebook-Urteil
    Künast muss übelste Beschimpfungen hinnehmen

    Die Grünen-Politikerin Renate Künast will die Verfasser von Hasskommentaren auf Facebook gerichtlich belangen. Doch das soziale Netzwerk muss die Nutzerdaten nicht herausgeben.


  1. 17:55

  2. 17:42

  3. 17:29

  4. 16:59

  5. 16:09

  6. 15:59

  7. 15:43

  8. 14:45