1. Foren
  2. Kommentare
  3. Automobil-Forum
  4. Alle Kommentare zum Artikel
  5. › Full Self-Driving: Tesla…
  6. T…

Wie löst man dieses Problem?

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Re: Wie löst man dieses Problem?

    Autor: MarcusK 28.07.21 - 11:26

    smonkey schrieb:
    --------------------------------------------------------------------------------
    > Kameras fixieren aber kein Objekt. Sie verändern auch nicht ihre Winkel.
    > Sie sind fest fixiert. Wahrnehmung in der Tiefe resultieren aus
    > Abweichungen zwischen zwei Bildern.

    wenn es so einfach ist, warum braucht man dann noch Lidar?

  2. Re: Wie löst man dieses Problem?

    Autor: smonkey 28.07.21 - 11:38

    MarcusK schrieb:
    --------------------------------------------------------------------------------
    > wenn es so einfach ist, warum braucht man dann noch Lidar?

    Über Sinn von Lidar kann man vortrefflich streiten. Ich bin prinzipiell ja ein Befürworter, will hier aber nicht die 1000. Diskussion dazu aufmachen.

    Auf jeden Fall nicht zur Unterscheidung des Mondes zu Ampeln. Ich schrieb ja Anfangs von "selbst mit".

  3. Re: Wie löst man dieses Problem?

    Autor: MarcusK 28.07.21 - 11:49

    smonkey schrieb:
    --------------------------------------------------------------------------------
    > MarcusK schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > wenn es so einfach ist, warum braucht man dann noch Lidar?
    >
    > Über Sinn von Lidar kann man vortrefflich streiten. Ich bin prinzipiell ja
    > ein Befürworter, will hier aber nicht die 1000. Diskussion dazu aufmachen.
    >
    > Auf jeden Fall nicht zur Unterscheidung des Mondes zu Ampeln. Ich schrieb
    > ja Anfangs von "selbst mit".

    hast du ein Dokument wo man lesen kann, das man überhaupt die Abstand von Objekte mit Hilfe vom ausgerichtet Kameras bestimmt?
    Es mag ja theoretisch funktionieren, aber besonders linsen im Randbereich haben Verzerrungen, deswegen glaube ich nicht so recht daran, das es in der Praxis so gemacht wird.

  4. Re: Wie löst man dieses Problem?

    Autor: dbettac 28.07.21 - 12:29

    Gelöst wird das Problem durch die Entwicklung einer echten KI, die dann das Fahren übernimmt. Oder die sich einen menschlichen Chauffeur leistet.

  5. Re: Wie löst man dieses Problem?

    Autor: dbettac 28.07.21 - 12:30

    Deine Überlegung scheitert schon daran, dass wir keine KI Ansätze haben. Wir haben statt dessen ein paar komplexe Scripte und jede Menge Marketing.

  6. Re: Wie löst man dieses Problem?

    Autor: smonkey 28.07.21 - 13:05

    Ich weiß nicht wie es in der Praxis ist. Experimentell scheint es aber relativ zuverlässig zu funktionieren:

    https://arxiv.org/pdf/1812.07179.pdf

  7. Re: Wie löst man dieses Problem?

    Autor: Schattenwerk 28.07.21 - 13:54

    Tesla verwendet in letzter Zeit zunehmend nur noch Kameras und kein Lidar mehr.

    Außerdem ist kein Lidar in einem mehr bekannten Fahrzeug auf die Höhe ausgelegt, dass man eine hoch hängende Ampelanlage erfassen könnte.

  8. Re: Wie löst man dieses Problem?

    Autor: Schattenwerk 28.07.21 - 13:55

    Bitte einmal eine Differenzierung eines "echten" und "nicht echten" KI im Kontext des Telsa Fahrzeugs liefern :)

  9. Re: Wie löst man dieses Problem?

    Autor: Schattenwerk 28.07.21 - 13:58

    Vermutlich wird man das Training des Systems dahin verändern müssen, dass bei Tageslicht mehr als nur ein Licht zu einer Ampel gehört. Um das Licht herum muss ja ein Gehäuse oder ähnliches sein.

    Im Dunkeln, wo meist nur die Lichter zu sehen sind, wird aber auch dies nicht funktionieren.

    Eher als Workaround könnte man Dinge machen wie "Auf einem Highway gibt es keine Ampeln" oder "Wir überprüfen fortan nun auch die Position des Mondes in Relation zum Fahrzeug".

    So richtig wird man das Problem vermutlich nie lösen können, da die derzeitig echtzeitfähigen Techniken nicht die notwendige "Intelligenz" haben um dieses Problem immer zweifelsfrei zu lösen.

  10. Re: Wie löst man dieses Problem?

    Autor: icepear 28.07.21 - 17:37

    MarcusK schrieb:
    --------------------------------------------------------------------------------
    > smonkey schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Kameras fixieren aber kein Objekt. Sie verändern auch nicht ihre Winkel.
    > > Sie sind fest fixiert. Wahrnehmung in der Tiefe resultieren aus
    > > Abweichungen zwischen zwei Bildern.
    >
    > wenn es so einfach ist, warum braucht man dann noch Lidar?

    Die theoretische Entfernungsgenauigkeit die man mit Stereo Kameras bzw. Stereo sehen erreichen kann nimmt mit der Entfernung ab und hängt von der Stereobasis (der Abstand zwischen den Kameras) ab. Menschen können daher eigentlich auch nicht besonders weit, mithilfe des Stereosehens Entfernungen halbwegs exakt bestimmen. Danach ist es eher eine Kombination aus erlernten Wissen (wir wissen wie groß bestimmte Dinge in Entfernung X sein sollten) und vielleicht dem, was in der Photogrammetrie, als "Structure from Motion" bezeichnet wird, sprich es wird die Parallaxe berücksichtigt, also wie sich die Perspektive bei Bewegung der Kameras / Augen verändert. LiDAR Sensoren haben zumindest bei größeren Entfernungen weit höhere Genauigkeiten, was die Bestimmung der Entfernung angeht. Vermutlich haben sie das sogar grundsätzlich, der Fehler liegt dort eher im Bereich weniger cm für LiDAR-Sensoren wie sie für das autonome fahren eingesetzt werden. Bei LiDAR-Sensoren, die eher in der Vermessung bzw. Erfassung von Gebäuden genutzt werden, ist es sogar noch weniger.

  11. Re: Wie löst man dieses Problem?

    Autor: icepear 28.07.21 - 17:46

    MarcusK schrieb:
    --------------------------------------------------------------------------------
    > Es mag ja theoretisch funktionieren, aber besonders linsen im Randbereich
    > haben Verzerrungen, deswegen glaube ich nicht so recht daran, das es in der
    > Praxis so gemacht wird.

    Wenn ich deine Frage gerade nicht falsch verstanden habe, sind das alles ziemliche Standardverfahren. Wegen der genannten Verzerrungen kalibriert man die Kameras vorher. Dabei werden eine Kameramatrix und eine Reihe von Verzeichnungsparametern ermittelt. Wenn man diese hinterher in das passende mathematische Modell einsetzt, kann man für jeden Pixel seine entzerrte Position bestimmen. Oder auf den 3D-Raum bezogen einen Strahl mit dem Ursprung in der Kamera auf dem der Pixel bzw. eigentlich das was der Pixel darstellt, liegt. Einfach ausgedrückt bei Stereokameras hat man dann zwei dieser Strahlen, die sich irgendwo Treffen. Das sollte dann die korrekte Position des dargestellten Objekts im 3D-Raum sein.

    Falls du es mal ausprobieren möchtest kann ich an die OpenCV Library verweisen, in der steckt das alles (Kalibrierung, Stereokameras und sehr viel mehr) drin: https://docs.opencv.org/4.5.3/d9/db7/tutorial_py_table_of_contents_calib3d.html

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Senior Manager (m/w/d) - CRM & Sales Processes
    Villeroy & Boch AG Hauptverwaltung, Mettlach
  2. Young Professional Technology Consultant (m/w/d)
    CONSILIO GmbH, Walldorf
  3. IT-Schnittstellenentwickler Subsystemanbindungen (m/w/d)
    Helios IT Service GmbH, Berlin-Buch, deutschlandweit
  4. IT-Systemadministrator (m/w/d)
    GRAMMER System GmbH, Zwickau

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. 499,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de