1. Foren
  2. Kommentare
  3. Automobil
  4. Alle Kommentare zum Artikel
  5. › Gesetzentwurf: Autonome Autos dürfen…

Nicht lernen dürfen...

Helft uns, die neuen Foren besser zu machen! Unsere kleine Umfrage dauert nur wenige Sekunden!
  1. Thema

Neues Thema Ansicht wechseln


  1. Nicht lernen dürfen...

    Autor: Vögelchen 09.02.21 - 08:41

    Wenn das Auto also vor dem Bahnübergang bremst und merkt: Verdammt, das war rutschig und verdammt knapp, fast wäre ich mit dem Zug kollidiert!
    Dann darf es daraus nicht lernen, dass es nächstes mal vielleicht lieber langsamer heran fährt und früher bremst, wie jeder vernünftige Mensch es tun würde?

    Na dann viel Spaß!



    1 mal bearbeitet, zuletzt am 09.02.21 08:41 durch Vögelchen.

  2. Re: Nicht lernen dürfen...

    Autor: Viego 09.02.21 - 08:54

    Witzig an dem Thema ist ja vor allem, dass das Fahrzeug auf der einen Seite nicht selbst lernen darf, aber auf der anderen Seite Daten sammeln und nach Hause schicken, damit es besser wird ist auch nicht erlaubt wegen Datenschutz.

    Also am Ende muss entweder der Über-Programmierer den perfekten Code schreiben oder der Hersteller wird in datenschutzärmeren Regionen auf der Welt die Daten sammeln und für Deutschland extrapolieren. Hört sich nach einer richtig guten Idee an ...

  3. Das Beobachten und Anlernen durch den Hersteller bleibt ja - ist aber ne Softwareänderung

    Autor: senf.dazu 09.02.21 - 08:54

    Doch soll es dürfen wie im Artikel beschrieben. Aber über den Umweg - es teilt dem Hersteller diese Beobachtung (wie sicher auch die ganzen Veränderungen an der Straßenführung und Beschilderung) mit und der bereitet ein Softwareupdate vor das dann vom KBA zugelassen wird.

    Ansonsten könnte man wohl auch gleich die Zulassung von Auto und Software - sprich den Nachweis der Hersteller das ihre Autos betriebssicher sind bevor man sie auf die Straße - gänzlich weglassen.

    Außerdem, letztlich liefert auch die Funkverbindung Informationen die zum Fahren hilfreich sein können. Genauso wie die übrigen Sensoren. Welche dieser Infos bei z.B. welchem Wetter wertvoller sind als andere darüber kann man sich gut streiten wenn man keine Autohersteller ist. Ich vermute aber das selbst bei den Autoherstellern der eine Experte dies der andere das sagt. Den Autoherstellern erlauben sich nur um eine mangelhafte Funkverbindung zu kümmern und sie nur halbherzig auszubauen und zu betreiben führt aber dazu das die Hersteller genau das tun. Sagen z.B. die Erfahrungen im Abgasskandal. Also muß man's ihnen vorschreiben - sonst kommt das 0 Verkehrstote Ziel unter die Räder.



    5 mal bearbeitet, zuletzt am 09.02.21 09:06 durch senf.dazu.

  4. Re: Nicht lernen dürfen...

    Autor: Isodome 09.02.21 - 09:13

    Es ist so offensichtlich, dass das nicht gemeint ist. Soll das ein Trollversuch sein?

    Selbstverständlich darf die Software, die im Auto läuft, zur Laufzeit einen Zustand haben. Genauso wie die Software sich merken darf, dass doch auf dem letzten Kameraframe ein Fussgaenger war oder wohin gerade überhaupt navigiert wird.

    Es geht um eine automatisierte Veränderung der Software. Un das ist durchaus nachvollziehbar. ML Models werden quasi immer mehrmals trainiert. Da mit zufälligen Gewichten gestartet wird, ist auch das Ergebnis immer ein anderes. Manchmal klappt es besser, manchmal schlechter. Und jedes Model muss evaluiert werden. Da kann schon ruhig noch mal ein Mensch drüber schauen.

    Weiteres Problem: Trainingsdaten, die das Auto unterwegs sammelt sind nicht repräsentativ.

  5. Re: Nicht lernen dürfen...

    Autor: captain_spaulding 09.02.21 - 09:24

    Als Laie mag man so sehen dass Lernen im Auto erforderlich ist.
    Das ist aber keineswegs so und auch gar nicht praktikabel.
    Teslas lernen auch nicht selbst. Alle haben das gleiche Neuronale Netzwerk.
    Das ist vor allem aus Sicherheitsgründen sehr sinnvoll, da das trainieren einer KI keineswegs so simpel ist wie bei einem Mensch. Da lernt die KI gerne mal das falsche und daher muss das Trainingsergebnis nachher natürlich nochmal getestet werden. Das Auto selbst hat aber überhaupt nicht die nötige Rechenkapazität und auch nicht die erforderlichen Testdaten.

    Aus technischer und aus Safety-Sicht ist selbstlernen also Quatsch. KI arbeitet eben grundsätzlich anders als ein Mensch.

  6. Re: Nicht lernen dürfen...

    Autor: \pub\bash0r 09.02.21 - 09:35

    captain_spaulding schrieb:
    --------------------------------------------------------------------------------
    > Das ist vor allem aus Sicherheitsgründen sehr sinnvoll, da das trainieren
    > einer KI keineswegs so simpel ist wie bei einem Mensch.

    Das ist auch beim Mensch nicht einfach. Siehst du an den vielen "Biases" die's gibt. Viele Fehler und Fehlentscheidungen passieren, weil der Mensch glaubt, er wüsste etwas oder könne die Lage richtig einschätzen. Hinterher weiß er dann: "huch, das war ne doofe Idee".

    (Und natürlich "Neunmalkluge". Denen kannst du etwas erklären und belegen und sie meinen trotzdem, sie hätten die Weisheit mit Löffeln gefressen und hätten ein besseres Verständnis eines Themas als tausende Wissenschaftler.)

  7. Re: Nicht lernen dürfen...

    Autor: Mimus Polyglottos 09.02.21 - 09:59

    captain_spaulding schrieb:
    --------------------------------------------------------------------------------

    > [...] Das Auto selbst hat aber überhaupt nicht
    > die nötige Rechenkapazität und auch nicht die erforderlichen Testdaten.

    Das war auch mein Gedanke - durch die Regelung wird verhindert, dass die Autohersteller die Rechenlast für das Nachtrainieren der Netze auf die Autos verlagern, was dann am Ende die Käufer bezahlen.

    Die wirklich problematischen Punkte sind das Herunterfahren in einen risikominimalen Modus, wenn die Funkverbindung abbricht sowie die IMO seltsame Forderung, dass das Fahrzeug von außen jederzeit deaktiviert werden kann.

  8. Re: Nicht lernen dürfen...

    Autor: captain_spaulding 09.02.21 - 10:08

    Mimus Polyglottos schrieb:
    --------------------------------------------------------------------------------
    > Das war auch mein Gedanke - durch die Regelung wird verhindert, dass die
    > Autohersteller die Rechenlast für das Nachtrainieren der Netze auf die
    > Autos verlagern, was dann am Ende die Käufer bezahlen.
    Das halte ich aber für unnötig. Bei dem Preisdruck in der Autobranche wird niemals etwas teureres als nötig eingebaut werden. Schon gar nicht im großen Stil. Wenn sich irgendwo 5 Cent sparen lassen, dann wird das gemacht.
    Mal davon abgesehen dass fürs Lernen und Testen ganze Rechenzentren notwendig sind. Passt gar nicht ins Auto.

  9. Re: Nicht lernen dürfen...

    Autor: thinksimple 09.02.21 - 10:11

    captain_spaulding schrieb:
    --------------------------------------------------------------------------------
    > Als Laie mag man so sehen dass Lernen im Auto erforderlich ist.
    > Das ist aber keineswegs so und auch gar nicht praktikabel.
    > Teslas lernen auch nicht selbst. Alle haben das gleiche Neuronale
    > Netzwerk.
    > Das ist vor allem aus Sicherheitsgründen sehr sinnvoll, da das trainieren
    > einer KI keineswegs so simpel ist wie bei einem Mensch. Da lernt die KI
    > gerne mal das falsche und daher muss das Trainingsergebnis nachher
    > natürlich nochmal getestet werden. Das Auto selbst hat aber überhaupt nicht
    > die nötige Rechenkapazität und auch nicht die erforderlichen Testdaten.
    >
    > Aus technischer und aus Safety-Sicht ist selbstlernen also Quatsch. KI
    > arbeitet eben grundsätzlich anders als ein Mensch.

    Komm nicht mit Fakts.
    Für die meisten ist ne KI doch ne totale Intelligenz im Auto.
    Kann allea selbst lernen. Unf nach ein paar mal fahren kanns alles. Wenns ne KI hätte würde es einfach stehen bleiben.....
    Wenn Tesla und Co. selbst lernen könnten würde doch endlich mal das Verkehrsschild rechts richtig erkannt sein...
    Und das nach dem hundertsten Male vorbeifahren noch nicht.....
    Und mit dem bisschen Rechner was da drin ist kann man zwar nette Spielchen spielen aber für autonomes fahren brauchts dann doch mehr. Nicht umsonst kommt jetzt dann HW 4 bei Tesla. Dann müsste wieder umgerüstet werden....
    Und klar direkte Softwareänderungenbsillten vorher erklärt werden.....wenn die unintelligente meint sie müsste plötzlich den Ablauf beim Bremsen ändern solöte das schon vorher bekannt sein...

    Aber autonom wird eh ewigkeiten brauchen.
    Man kann ja noch nichtmal 1000km gradeausfahren ohne irgendwelche Vorschriften zu verletzen und zig Eingriffe zu brauchen.....

    Alleinfahrende Autos hin oder her,
    aber Backpapierzuschnitte sind schon eine geile Erfindung.

  10. Re: Nicht lernen dürfen...

    Autor: chefin 09.02.21 - 10:19

    Vögelchen schrieb:
    --------------------------------------------------------------------------------
    > Wenn das Auto also vor dem Bahnübergang bremst und merkt: Verdammt, das war
    > rutschig und verdammt knapp, fast wäre ich mit dem Zug kollidiert!
    > Dann darf es daraus nicht lernen, dass es nächstes mal vielleicht lieber
    > langsamer heran fährt und früher bremst, wie jeder vernünftige Mensch es
    > tun würde?
    >
    > Na dann viel Spaß!

    Dann lassen wir das Auto mal lernen. Es bremst mit 100kmh 100m vor dem Bahnübergang, kommt 60m vor dem Übergang zum Stillstand, fährt an, bremst, fährt an, bremst...Position erreicht. Es lernt, das 100m zu viel ist. Es bremst 80m vorher...es bremst 60m vorher, es bremst 40m vorher....zu dumm das es gerade geregnet hat. Alles Gelernte wurde gerade von 1000t Güterzug zerfetzt.

    Also wo genau soll es was lernen dürfen und was nicht. Und wer bewertet ob das gelernte nun auch in jeder erfassbaren Situation passt. Kann es zb den Reibwert der Strasse erfassen, zb den Sand sehen, den der LKW verloren hat, die Restfeuchtigkeit obwohl gerade die Sonne scheint(April halt), das glitzern des Rauhreif vom Staub unterscheiden der an und an auf der Strasse liegt?

    Wir Menschen lernen das lange bevor wir Auto fahren. Kinder fallen hin, lernen das Schnee manchmal glatt ist, manchmal aber nicht. Wir führen permanent eine optische Objekterkennung durch um jedes Objekt das wir sehen zu klassifizieren. Bäume, Fusspuren, ja sogar das Alter der Fusspur...weil uns gerade ein Kind zwischen den Autos hervor läuft, aber wir die Fusspuren am Rand schon erfasst hatten und das sie trotz Schneetreiben noch frisch waren. Nix passiert...während der Computer erst bremst wenn er das Kind sieht....und das wäre zu spät.

    Irgendwann werden Computer diese Bilderkennungsspeed haben. Dann können sie anfangen Rückschlüsse zu ziehen und wirklich uns zu schlagen. Aktuell schlagen sie uns nur, wenn wir Fehler machen. Solange ich keinen Fehler mache verhindere ich 10x soviel Unfälle als der Computer. Weil ich nunmal Dinge mit einbeziehe die eigentlich irrelevant scheinen. Der Typ mit dem Fahrrad, sieht aus wie ein Junkie oder Rotzbesoffener, könnte gleich auf die Strasse rennen. Der andere Typ mit dem Fahrrad trägt Anzug, hat ein teuer aussehendes Fahrrad, der passt auf. Wir klassifizieren Menschen bereits am Äusseren und berechnen eine Wahrscheinlichkeit. Der Computer ist gerade mal in der Lage einen Menschen von einem Fahnenmasten zu unterscheiden. Bereits bei LKW erkennt er teilweise Strassenschilder.

  11. Re: Nicht lernen dürfen...

    Autor: Max Level 09.02.21 - 10:19

    > Das ist vor allem aus Sicherheitsgründen sehr sinnvoll, da das trainieren
    > einer KI keineswegs so simpel ist wie bei einem Mensch. Da lernt die KI
    > gerne mal das falsche und daher muss das Trainingsergebnis nachher
    > natürlich nochmal getestet werden.

    Das generelle Problem bei neuronalen Netzen ist ja, dass die nicht mehr zu debuggen sind. Ganz prinzipiell jetzt. Weil da eben nicht Code läuft, bei dem man sagen kann "An dieser Stelle bei jenen Daten geht was schief", sondern beim neuronalen Netz werden Eingangswerte gewichtet und das Ergebnis für bare Münze genommen. Man weiß also gar nicht recht, warum(!) das NN zu einem bestimmten Ergebnis kommt und wie überhaupt.
    Deswegen trainiert man das ja, statt es zu programmieren. Man zeigt ihm so lange Verkehrszeichen, bis es seine internen Gewichte so verändert hat, dass eine erwünschte Ausgabe herauskommt. Aber man weiß nicht, welche Werte da jetzt *wirklich* wie wichtig sind und wie das alles eigentlich geht. Liegt nicht an den Leuten, sondern an der Struktur der Sache. Falls da also ein falsches Ergebnis rauskommt, kann man das nicht debuggen und irgendetwas deterministisch korrigieren, sondern nur "nachtrainieren".
    Es wird hier also aus Safety-Sicht bereits der deterministische Ansatz durch einen probabilistischen ersetzt.

  12. Re: Nicht lernen dürfen...

    Autor: Nogul 09.02.21 - 10:40

    Schau doch mal an was aus den Leuten werden nachdem sie den Führerschein in die Hand gedrückt bekommen.

    Die einen lernen linke Spur blockieren ist ok, andre 120 km/h in der Stadt macht Spaß...

    Dass überhaupt jemand auf die Idee kommen könnte ein Auto dürfe selbständig lernen wie es fährt ist wenig durchdacht.

    Was wenn es lernt Fußgänger zu jagen ist der beste Weg um die gestellte Aufgabe zu lösen?

    Rein praktisch ist es auch nicht so unproblematisch.

    Das Lernen erfordert so viel mehr Ressourcen als das gelernte umzusetzen. Gelernt wird in Rechenzentren mit MW Stromanschluss. Das gelernte kann man auf ein paar Chips unterbringen und mit W Strom abrufen.

  13. Re: Nicht lernen dürfen...

    Autor: Benutztername12345 09.02.21 - 10:42

    Artikel gründlich lesen hilft;)

  14. Re: Nicht lernen dürfen...

    Autor: Avarion 09.02.21 - 13:03

    Och, wenn nachts tausende Autos in der Garage stehen könnten manche Hersteller durchaus auf die Idee kommen die Bordrechner zu verwenden.

  15. Re: Nicht lernen dürfen...

    Autor: JensM 09.02.21 - 14:46

    Max Level schrieb:
    --------------------------------------------------------------------------------
    > Das generelle Problem bei neuronalen Netzen ist ja, dass die nicht mehr zu
    > debuggen sind.

    Und spätestens bei einem Unfall wird das interessant. Was man bei der Unfallanalyse doch will, ist, dass man sich die Logdateien des Unfallfahrzeugs zieht (wie es bei Flugzeugabstürzen ja auch gemacht wird) und dann schaut man sich alle Sensorwerte zum gesuchten Zeitpunkt an. Wenn mand eterministische Algorithmen per Softwareupdate ausgerollt hat (egal ob die programmiert wurden oder per "KI" im Vorfeld zusammentrainiert waren) kann man anhand Sensorwerte und Code nachvollziehen, warum das auto was gemacht hat. Dann findet man raus ob vielleicht der andere oder irgendwelche unlösbaren Probleme Schuld waren oder die Software noch Nachbesserungspotential hat. Wenn letzteres, kann diese Inforamtion zur Verbesserung des Systems verwendet werden.

    So eine Analyse wird schwierig, wenn jedes Auto da draussen einen völlig anderen, individuellen "Wissensstand" hat.

  16. Re: Nicht lernen dürfen...

    Autor: GLuv 09.02.21 - 14:53

    Wenn du denkst das Maschienenlernen so funktioniert, dann ist es wirklichbesser das es Menschen gibt, die KIs von Menschen wie dir Fern halten wollen.

  17. Re: Nicht lernen dürfen...

    Autor: Max Level 09.02.21 - 15:51

    > Wenn
    > mand eterministische Algorithmen per Softwareupdate ausgerollt hat (egal ob
    > die programmiert wurden oder per "KI" im Vorfeld zusammentrainiert waren)
    > kann man anhand Sensorwerte und Code nachvollziehen, warum das auto was
    > gemacht hat.

    Die KI trainiert keinen Algorithmus! Das ist ein wichtiger Unterschied. Was so ein Neurales Netzwerk macht, ist (ganz grob): Es rechnet A*x + B*y = C. Dieses Konstrukt ist ein Neuron. A und B sind Eingabewerte, die kommen irgendwo her. C ist die Ausgabe, die geht weiter und wird Eingabe für ein nächstes Neuron (oder mehrere). So, und die Gewichte x und y, *die* werden trainiert. Also so lange verändert, bis am Ende ein Verkehrszeichen richtig erkannt wurde. Und das können tausende Neuronen sein, die sehr komplex zusammenhängen.
    Und wenn jetzt ein Stopschild nicht erkannt wird, kann man nicht mehr nachvollziehen, welcher Wert denn nun falsch war oder gar, warum. Denn die Werte sind ja Gott-weiß-wie zustande gekommen, andere Trainingsdaten, andere Werte. Das ist also etwa so, als würde man nach dem Suizid herauskriegen wollen, warum der Mensch gesprungen ist. Man kann das vermuten, aber nicht wissen. Es passiert einfach.

  18. Re: Nicht lernen dürfen...

    Autor: Keep The Focus 09.02.21 - 18:19

    richtig

  19. Re: Nicht lernen dürfen...

    Autor: JensM 09.02.21 - 20:36

    Ich meinte das etwas anderes mit der Nachvollziehbarkeit. Natürlich kannst Du nicht sagen "ah da steht ein if falsch". Dennoch kannst Du, sofern die Autos nicht individuell weiterlernen sondern nur den "gelernten" aber fertigen Zustand des neuronalen Netztes übernehmen, nachvollziehen was passiert ist.

    Also Du kannst theoretisch die Sensorwerte, die das Auto bis zum Unfall aufgezeichnet hat, nehmen, dazu einen "Autosimulator" mit der selben Softwareversion wie das verunfallte Auto und im Simulator sollte es die gleiche Entscheidung fällen. Das macht einen Unfall "nachstellbar".

    Welche schlüsse man daraus schließt sei dann dahingestellt. Vielleicht lag das Problem tatsächlich in einem programmierten Teil, dann kann da was geändert werden. Vielleicht lags aber auch in den Tiefen des neuronalen Netztes. Entweder ein Experte schafft es, da reinzuschauen was sich da "blöd trainiert hat" oder man muss das Training wegwerfen und neu anfangen. Wie auch immer, zumindest weiß man dann, warum es passiert ist.

  20. Re: Nicht lernen dürfen...

    Autor: Vögelchen 11.02.21 - 15:07

    chefin schrieb:

    > Dann lassen wir das Auto mal lernen. Es bremst mit 100kmh 100m vor dem
    > Bahnübergang, kommt 60m vor dem Übergang zum Stillstand, fährt an, bremst,
    > fährt an, bremst...Position erreicht. Es lernt, das 100m zu viel ist. Es
    > bremst 80m vorher...es bremst 60m vorher, es bremst 40m vorher....zu dumm
    > das es gerade geregnet hat. Alles Gelernte wurde gerade von 1000t Güterzug
    > zerfetzt.

    Kein Fahrlehrer würde jemals den Fahrschüler die Zielvorgabe mitgeben, dass er immer die knappest mögliche Vollbremsung zu machen hat und kaum ein Kunde würde es spaßig finden, bei jeder Bremsung im Wagen herum geschleudert zu werden. Kein Amt würde eine solche Zielvorgabe zulassen. Wie kommst du also darauf, dass eine solche Zielvorgabe einprogrammiet würde und was denkst du dir bei solchen Vergleichen?



    1 mal bearbeitet, zuletzt am 11.02.21 15:08 durch Vögelchen.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Porsche AG, Weilimdorf
  2. KRATZER AUTOMATION AG, Unterschleißheim
  3. HOTTGENROTH & TACOS GmbH, Münsterland
  4. Schaeffler Automotive Buehl GmbH & Co. KG, Bühl

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 759€ (Bestpreis)
  2. (u. a. be quiet! Straight Power 11 Platinum 850Watt PC-Netzteil für 154,90€, Heitronic...
  3. 172,90€
  4. (u. a. Razer Basilisk Ultimate Wireless Gaming-Maus und Mouse Dock für 129€, Asus ROG Strix G17...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme