1. Foren
  2. Kommentare
  3. Automobil-Forum
  4. Alle Kommentare zum Artikel
  5. › Sicherheitssysteme: Tesla…

Fehlende Einordnung zu Dan O'Dowd

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema

Neues Thema


  1. Fehlende Einordnung zu Dan O'Dowd

    Autor: delphi 10.08.22 - 20:11

    Mit Verlaub, aber Kernaufgabe von Journalismus ist es, Meldungen einzuordnen, und nicht bloß irgendwelche Verlautbarungen weitgehend unkommentiert wiederzugeben.

    Dan O'Dowd ist mitnichten (irgend)ein "Sicherheitsaktivist", sondern Multimilliardär und unter anderem Gründer und Besitzer einer Firma namens "Green Hills Software", die Software-Zulieferer für diverse Tesla-Konkurrenten ist (u.a. Toyota und BMW). Daneben kandidiert er grade für den US-Senat, und ist entsprechend erpicht auf mediale Aufmerksamkeit.

    https://www.cbsnews.com/losangeles/news/senate-candidate-santa-barbara-tech-millionaire-dan-odowd-unleashes-ad-campaign-targeted-at-tesla/

    Es ist durchaus möglich (und IMO auch wahrscheinlich) dass seine Testergebnisse valide sind, wenn auch sicherlich gezielt "optimiert" auf das gewünschte Ergebnis (z.B. indem der Testaufbau so gewählt ist, dass das kamerabasierte System direkt in die Sonne reinfährt/reinfilmt). Dass O'Dowds Kampagne gegen Tesla wohl eher nicht von reinem Altruismus getrieben ist, gehört IMO trotzdem zur Einordnung dazu.



    1 mal bearbeitet, zuletzt am 10.08.22 20:11 durch delphi.

  2. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: PrinzessinArabella 10.08.22 - 20:15

    delphi schrieb:
    --------------------------------------------------------------------------------
    > Mit Verlaub, aber Kernaufgabe von Journalismus ist es, Meldungen
    > einzuordnen, und nicht bloß irgendwelche Verlautbarungen weitgehend
    > unkommentiert wiederzugeben.
    >
    > Dan O'Dowd ist mitnichten (irgend)ein "Sicherheitsaktivist", sondern
    > Multimilliardär und unter anderem Gründer und Besitzer einer Firma namens
    > "Green Hills Software", die Software-Zulieferer für diverse
    > Tesla-Konkurrenten ist (u.a. Toyota und BMW). Daneben kandidiert er grade
    > für den US-Senat, und ist entsprechend erpicht auf mediale Aufmerksamkeit.
    >
    > www.cbsnews.com
    >
    > Es ist durchaus möglich (und IMO auch wahrscheinlich) dass seine
    > Testergebnisse valide sind, wenn auch sicherlich gezielt "optimiert" auf
    > das gewünschte Ergebnis (z.B. indem der Testaufbau so gewählt ist, dass das
    > kamerabasierte System direkt in die Sonne reinfährt/reinfilmt). Dass
    > O'Dowds Kampagne gegen Tesla wohl eher nicht von reinem Altruismus
    > getrieben ist, gehört IMO trotzdem zur Einordnung dazu.

    Danke für den Hinweis :), bestimmt auch kein Zufall das Kinder dummies ausgewählt wurden als dummies die idyllisch vor einer tiefen Sonne aufgestellt wurden. Trotzdem ist es schon Casino was Tesla da spielt. Nur eine Frage der Zeit das mal nicht der Fahrer bei einem tödlichen Unfall betroffen ist sondern ein Passant.

  3. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: delphi 10.08.22 - 20:23

    PrinzessinArabella schrieb:
    --------------------------------------------------------------------------------
    > Danke für den Hinweis :), bestimmt auch kein Zufall das Kinder dummies
    > ausgewählt wurden als dummies die idyllisch vor einer tiefen Sonne
    > aufgestellt wurden. Trotzdem ist es schon Casino was Tesla da spielt. Nur
    > eine Frage der Zeit das mal nicht der Fahrer bei einem tödlichen Unfall
    > betroffen ist sondern ein Passant.

    Natürlich. Auch wenn man sich IMO durchaus fragen kann, ob der durchschnittliche Rentner über 80 mit Führerschein aber ohne medizinische Fahrtüchtigkeitsprüfung nicht vielleicht ein vergleichbares Risiko für die Sicherheit im Straßenverkehr darstellt. Ich hatte genau so nen Fall in der näheren Verwandtschaft, wo kurz nach dem Autounfall bei der betreffenden Person ne Demenz festgestellt wurde, die aber auch vorher schon deutlich erkennbar war, sodass der Unfall eigentlich vermeidbar gewesen wäre.

  4. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: ml (golem.de) 10.08.22 - 20:32

    delphi schrieb:
    --------------------------------------------------------------------------------


    > Dan O'Dowd ist mitnichten (irgend)ein "Sicherheitsaktivist", sondern
    > Multimilliardär und unter anderem Gründer und Besitzer einer Firma namens
    > "Green Hills Software", die Software-Zulieferer für diverse
    > Tesla-Konkurrenten ist (u.a. Toyota und BMW). Daneben kandidiert er grade
    > für den US-Senat, und ist entsprechend erpicht auf mediale Aufmerksamkeit.
    >
    Danke für den Hinweis.

  5. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: bifi 10.08.22 - 20:37

    Aber wäre es nicht genau die Aufgabe eines Notbremsassistenten Situationen zu erkennen und entsprechend zu reagieren, die ein Mensch ggf. nicht erkennt? Also z.B. Fahrt gehen tiefstehende Sonne. Maximale Blendung der Optik (menschliche: Auge oder technische: Kamera).

    Gerade so ein Beispiel zeigt ja sogar, dass der Tesla Ansatz mit „Kamera Only“ schlecht ist. Die Kamera kann in einer Situation, in welcher die Optik beeinträchtigt ist, nicht besser reagieren als der Mensch, dessen Optik genauso beeinträchtigt ist.
    Hätte das Auto als zusätzliche/alternative Sensorik ein Radar oder LIDAR gehabt, dann wäre der Sonnenstand schlichtweg egal.

    Zumal in dem Video doch auch ein anderes Auto zu sehen war, welches exakt parallel gefahren ist und korrekt gebremst hat.

    Korrektur: das mit dem zweiten Auto war ein anders Video:
    https://9gag.com/gag/aDDy7xO?ref=ios

    (Ich weiß, 9gag ist sicher nicht die zuverlässigste Quelle ;))



    1 mal bearbeitet, zuletzt am 10.08.22 20:39 durch bifi.

  6. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: bplhkp 10.08.22 - 20:39

    delphi schrieb:
    -------------------------------------------------------------------------------
    >
    >
    > Es ist durchaus möglich (und IMO auch wahrscheinlich) dass seine
    > Testergebnisse valide sind, wenn auch sicherlich gezielt "optimiert" auf
    > das gewünschte Ergebnis (z.B. indem der Testaufbau so gewählt ist, dass das
    > kamerabasierte System direkt in die Sonne reinfährt/reinfilmt).

    Ja und?
    Der Testaufbau wäre nur dann zu kritisieren wenn der Teslafahrer mit seiner Beta-Fahrerassistenz morgens nur in Richtung Westen fährt und Abends nur in Richtung Osten.
    Mein kamerabasierter Spurhalteassistent hat übrigens auch massive Probleme wenn ich in die Sonne reinfahre, der Notbremsassistent sollte dank Radar trotzdem funktionieren. Daraus könnte man dann folgern dass der Verzicht auf Radar und LIDAR dann doch kein volles Potenzial für Full Self Driving ist, sondern einfach nur eine Maßnahe zur Senkung der Herstellkosten bei Tesla.

  7. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: Fudanti 10.08.22 - 21:54

    bifi schrieb:
    --------------------------------------------------------------------------------
    > Aber wäre es nicht genau die Aufgabe eines Notbremsassistenten Situationen
    > zu erkennen und entsprechend zu reagieren, die ein Mensch ggf. nicht
    > erkennt? Also z.B. Fahrt gehen tiefstehende Sonne. Maximale Blendung der
    > Optik (menschliche: Auge oder technische: Kamera).
    >
    > Gerade so ein Beispiel zeigt ja sogar, dass der Tesla Ansatz mit
    > „Kamera Only“ schlecht ist. Die Kamera kann in einer Situation,
    > in welcher die Optik beeinträchtigt ist, nicht besser reagieren als der
    > Mensch, dessen Optik genauso beeinträchtigt ist.
    > Hätte das Auto als zusätzliche/alternative Sensorik ein Radar oder LIDAR
    > gehabt, dann wäre der Sonnenstand schlichtweg egal.
    >
    > Zumal in dem Video doch auch ein anderes Auto zu sehen war, welches exakt
    > parallel gefahren ist und korrekt gebremst hat.
    >
    > Korrektur: das mit dem zweiten Auto war ein anders Video:
    > 9gag.com
    >
    > (Ich weiß, 9gag ist sicher nicht die zuverlässigste Quelle ;))

    Muss nicht unbedingt sein. Man kann per Software schon ziemlich viel regeln wenn man sich Fotos ansieht die direkt gegen die Sonne fotografiert wurden.
    Eine AI kann die Bilder auch viel schneller verarbeiten und reagieren als der Mensch. Da ist ein Kamerasystem dem menschlichen Auge immer noch weit überlegen weil das Thema Reaktionszeit ganz andere Dimensionen annimmt. Ob es die Mischung aus Radar/Optik mal ausgleichen kann ist aber noch nicht bewiesen.

    Das Problem ist dass Golem wieder ungeprüfte und nicht recherchierte Infos veröffentlicht von einem von der Konkurrenz beauftragten Typ der es sich zur Aufgabe gemacht hat gegen Tesla zu wettern und dies auch noch als Wahlkampfthema zu formulieren.

    Es gibt keinerlei Hinweise wie die Tests durchgeführt wurden, unter welchen Bedingungen und Einstellungen etc. außer von den Kurzvideos. Natürlich kann es immer noch sein dass diese Szenarien bei einer Beta auftreten. Im schlimmsten Fall stellt Tesla die Gegebenheiten nach und kann es fixen.
    Aber Dan O'Dowd hat auch schon Videos hoch geladen in denen Teslas FSD Fehlverhalten angezeigt wird obwohl FSD nicht einmal aktiviert ist.
    Die Motivation hinter dem Kerl halte ich daher für äußerst fragwürdig.

    Mittlerweile ist von Fahrern begleitete FSD bei ungefähr 70.000.000 km gefahrenen Kilometern.
    Es gab noch keine Verletzten oder Tote seit Beginn der FSD Beta.
    Statistisch gesehen ist es nur eine Frage der Zeit bis etwas passiert. Das wird dann natürlich medial ausgeschlachtet und alles in Frage gestellt.
    Dass bisher nichts passiert ist ist natürlich auch den Fahrern zu verdanken. Aber es gab auch viele Situationen wo wiederrum FSD den Fahrer vor Schaden bewahrt hat.

    Dennoch versucht Dan O'Dowd einem weiss zu machen dass dies die schlechteste und unsicherste Software wäre die er je gesehen hat. Und das Worte zu einem Betaprogramm.
    Von daher sind die Testergebnisse durchaus hinterfragenswert und Rückschlüsse auf finale FSD verfrüht.
    Jeder Hersteller braucht früher oder später Daten aus dem Feld. Man kann unmöglich eine AI im Labor trainieren mit erdachten Simulationen. Die Realität wird die AI ansonsten immer wieder mit Absurditäten überraschen an die keiner denkt.
    Von daher bleibt die Frage ob man FSD wirklich stoppen sollte so wie Dan O'Dowd fordert und das Potential für eine der Änderungen, die wohl seit Jahrzehnten das größte Sicherheitsverbesserungspotential birgt, verwirft.

  8. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: Inori-Senpai 10.08.22 - 22:44

    Fudanti schrieb:
    --------------------------------------------------------------------------------

    > Von daher bleibt die Frage ob man FSD wirklich stoppen sollte so wie Dan
    > O'Dowd fordert und das Potential für eine der Änderungen, die wohl seit
    > Jahrzehnten das größte Sicherheitsverbesserungspotential birgt, verwirft.


    Stoppen nicht, aber nicht irgendwelche Amateure damit ausstatten. Das muss Elon halt mal in den sauren Apfel beißen und professionelle Leute einstellen

  9. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: Hans Dieter 11.08.22 - 09:25

    Warum sollte er Leute einstellen, die schon eingestellt sind?
    Meinst du die Entwickler machen den letzten Satz im Code Fertig und geben dann direkt das Update für alle frei die Beta Tester sind?
    Nur weil Öffentlich getestet wird, glauben alle, dass Tesla keine internen Tests durchführt. Wie Naiv kann man bitte sein?

  10. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: Fudanti 11.08.22 - 11:42

    Inori-Senpai schrieb:
    --------------------------------------------------------------------------------
    > Fudanti schrieb:
    > ---------------------------------------------------------------------------
    > -----
    >
    > > Von daher bleibt die Frage ob man FSD wirklich stoppen sollte so wie Dan
    > > O'Dowd fordert und das Potential für eine der Änderungen, die wohl seit
    > > Jahrzehnten das größte Sicherheitsverbesserungspotential birgt,
    > verwirft.
    >
    > Stoppen nicht, aber nicht irgendwelche Amateure damit ausstatten. Das muss
    > Elon halt mal in den sauren Apfel beißen und professionelle Leute
    > einstellen

    Das wird aber nicht funktionieren. Aktuell sind ca 100.000 Betatester unterwegs und es werden noch weitaus mehr nötig sein um umfassendes AI Trainingsmaterial weltweit zu sammeln. Bislang ist FSD ja auf USA/Nordamerika beschränkt.

    Das Auswahlverfahren ist jedoch sehr hart und bevorzugt nur sehr sichere Fahrer. Ob da "professionelle Leute" ein besseres Ergebnis liefern würden bezweifle ich wenn über 70 Millionen Km noch niemand verletzt wurde (stand aktuell). Allein die Anzahl überhaupt zusammen zu bringen wird schon unmöglich bei Einstellungsverfahren. Die Leute müssten auch quer über die USA und später die Welt verteilt sein um das Objektlabeling umfassend durch Videomaterial voran zu bringen.

    Google/Waymo, BMW, Mercedes usw. trainieren über eigene Fahrer. Was dann bei raus kommt ist nicht eine Lösung die skalierbar und weltweit anwendbar sein wird.
    Alle sonstigen Lösungen sind bislang sehr stark regional auf bestimmte Städte, Straßen, geogemappte Bereiche beschränkt. Außerhalb dieser engen Grenzen können die Fahrzeuge nicht autonom fahren.

  11. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: jkow 11.08.22 - 18:55

    Danke zu den hinweisen bzgl. Dan O'Dowd, der hier sicherlich seine eigene Anti-Tesla-Agenda hat. Andererseits werden Sicherheitsforscher ganz allgemein betrachtet auch immer eine Anti-System-Strategie verfolgen und die Randfälle betrachten. Insofern mag seine Agenda problematisch für Tesla oder günstig für seine eigenen Vorteile sein, aus dem Blickwinkel der Sicherheitsforschung aber durchaus OK.

    delphi schrieb:
    --------------------------------------------------------------------------------
    > Es ist durchaus möglich (und IMO auch wahrscheinlich) dass seine
    > Testergebnisse valide sind, wenn auch sicherlich gezielt "optimiert" auf
    > das gewünschte Ergebnis (z.B. indem der Testaufbau so gewählt ist, dass das
    > kamerabasierte System direkt in die Sonne reinfährt/reinfilmt).

    In welchem optimierten Testszenario wäre es denn akzeptabel, dass der Tesla ein Kind nicht erkennt und überfährt?

    Mal nur zu Deinem Beispiel, Gegenlicht: jeder normale Autofahrer müsste etwas unternehmen, wenn er wegen Gegenlichts nichts sieht. Sonnenbrille, langsam fahren oder im Zweifel gar nicht fahren. Blind auf öffentlicher Straße unterwegs sein, ist keine akzeptable Option.

    Ich denke: Das Tesla-System sollte erkennen, wenn es unfähig ist, die Straßen zu erkennen. Es sollte dann entsprechend vorsichtig agieren oder sich deaktivieren und dies dem Fahrer zu erkennen geben.

  12. Re: Fehlende Einordnung zu Dan O'Dowd

    Autor: Fudanti 11.08.22 - 20:16

    jkow schrieb:
    --------------------------------------------------------------------------------

    > In welchem optimierten Testszenario wäre es denn akzeptabel, dass der Tesla
    > ein Kind nicht erkennt und überfährt?
    >
    > Mal nur zu Deinem Beispiel, Gegenlicht: jeder normale Autofahrer müsste
    > etwas unternehmen, wenn er wegen Gegenlichts nichts sieht. Sonnenbrille,
    > langsam fahren oder im Zweifel gar nicht fahren. Blind auf öffentlicher
    > Straße unterwegs sein, ist keine akzeptable Option.
    >
    > Ich denke: Das Tesla-System sollte erkennen, wenn es unfähig ist, die
    > Straßen zu erkennen. Es sollte dann entsprechend vorsichtig agieren oder
    > sich deaktivieren und dies dem Fahrer zu erkennen geben.

    FSD war nicht aktiviert bei den Tests. Hatte Golem ja auch verbessert und nachgetragen.
    Daher lässt sich auch gar nicht sagen ob und was FSD hier falsch gemacht haben könnte.

    Die Kameras können aber Gegenlicht ziemlich gut weg stecken. Wenn so etwas auftreten würde dann würde es aktuell eher an den noch nicht ausreichenden Trainingdaten liegen. War auch so bei einem kleinen Rempler den FSD verursacht hat gegen einen Pylon. Die Kamera hat den Gegenstand gut gesehen aber hintergründig eingeordnet.
    Das gleiche war bei einem Video zu sehen von vor 2 Jahren, bei dem ein Dummykind nicht als Kind sondern Erwachsener erkannt wurde. Dadurch wurde die Person als weiter entfernt interpretiert und das Fahrzeug ist nur knapp vor dem Dummy zum Stillstand gekommen.
    Seitdem ist aber FSD deutlich besser geworden. Der Artikel sagt nichts dazu aus wie gut oder schlecht Tesla bei Gegenlicht reagiert wenn FSD an ist.

  1. Thema

Neues Thema


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Mitarbeiter für den IT-Support (m/w/d)
    Hans-Weinberger-Akademie der AWO e.V., München
  2. Revisor (m/w/d)
    Dirk Rossmann GmbH, Burgwedel
  3. IT Security Architect (m/w/d)
    Knorr-Bremse Services GmbH, Berlin
  4. Technischer IT-Support (m/w/d)
    Europäische Schule München, München-Neuperlach

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. ab 59,99€
  2. 359,99€ (Release: 04.11.)
  3. 109,99€
  4. 37,99€ (günstig wie nie)


Haben wir etwas übersehen?

E-Mail an news@golem.de