Abo
  1. Foren
  2. Kommentare
  3. Automobil
  4. Alle Kommentare zum Artikel
  5. › Neuer Bordrechner: Elon Musk kündigt…
  6. Thema

In den knapp 3h wurden SEHR viele technische Details genannt

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: picaschaf 24.04.19 - 08:29

    AllDayPiano schrieb:
    --------------------------------------------------------------------------------
    > Das menschliche Auge erreicht etwa 4 mal so hohe Blendstufen wie eine
    > aktuelle Profi-Kamera für zig tausend Euro. Der Mensch hat mit dem Auge
    > soviel Brennweite, wie man bei einem Vollformatsensor mit 55mm Objektiv
    > hätte, das in einem Auto gar keinen Platz hätte. Dazu kommt, dass das Auge
    > fast 170° Blickwinkel hat, auch wenn es die Information im Randbereich
    > schlecht sieht - so wird hier Bewegung wahrgenommen. Weiterhin hat das
    > menschliche Auge eine äquivalente Auflösung von etwa 12 Megapixel bei etwa
    > 25 Bilder pro Sekunde. Und die kann es nicht nur sehen, sondern auch
    > verarbeiten, was der Punkt ist, an dem es hardwaremäßig richtig richtig
    > richtig aufwendig wird.
    >
    > Wenn ich mir hier so die über 1000 Euro teuren Kameras von µEye oder
    > Pointgrey ansehe, so stelle ich fest, dass sie noch ganz ganz ganz weit
    > entfernt vom menschlichen Auge sind.
    >
    > Klar könnte man in ein Auto 4 Nikon D850 einbauen, aber dann würden ja
    > schon die Kameras über 10000 Euro kosten und man hätte trotzdem erst 1/4
    > des Dynamikumfangs des Autos.
    >
    > Also wo - und das mit Quelle bitte - sind die Kameras in den Teslas gleich
    > gut oder besser als das menschliche Auge?


    Ich weiß nicht wie es mit deinen Augen ist, aber ich kann nicht innerhalb von ms, oder überhaupt, abdunkeln sobald ich direkt in die Sonne blicke. Im Gegenteil, ich muss meine Augen zusammenkneifen, sehe noch weniger und schädige sie zudem.

    Und die Aufmerksamkeit ist ausschließlich im kleinen, direkten Sichtfeld. Das periphäre Sehen trägt 0 bei. Was denkst du warum sonst jede andere Tätigkeit ablenkt und der Kopf und oder Augen bewegt werden müssen.

    Und der Mensch verarbeitet nicht alles was er sieht, ganz im Gegenteil. Das Gehirn führt massive Vereinfachungen durch, dichtet sich Informationen dazu und handelt reflexartig. Das ist auch der Grund warum Zeugenaussagen bei Verkehrsunfällen äußerst schlecht sind und Menschen so viel übersehen, er kann nur in eine Richtung sehen und auch da nur einen kleinen Teil bewusst überhaupt verarbeiten. Die Maschine hat das komplette Umfeld ständig im Blick, bei einer *wesentlich* höheren Bildrate noch dazu.

  2. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: PiranhA 24.04.19 - 09:02

    picaschaf schrieb:
    --------------------------------------------------------------------------------
    > Was meinst du was ein Mensch macht und der kann komischerweise auch fahren.

    Ein Mensch hat zumindest Stereo-Vision ;)
    Aber der Mensch sollte auch nicht die Messlatte sein. Wie schlecht wir für diese Aufgabe geeignet sind, sehen wir ja jeden Tag.

    > Btw. "schätzen" Computer Vision Systeme nicht, sondern triangulieren die
    > Entfernung. Das funktioniert, nicht nur in der Autowelt, wunderbar.

    Mehr als schätzen ist das nicht. Selbst bei Stereo-Kameras ist das Verfahren relativ ungenau. Bei Mono-Cams muss man erst das Objekt identifizieren, dann die Größe abschätzen und daraus die Entfernung berechnen. Da ist jede Menge Spielraum.

    > Weil die allermeisten dieser "Experten" direkt oder indirekt mit
    > Zulieferern verbandelt sind und natürlich nur an einem neuen Zusatzsystem
    > verdienen.

    Das ist doch lächerlich. Waymo, Uber, MobileEye, die Chinesen und jedes Startup dieser Welt haben sich also einer Verschwörung angeschlossen, deren einziger Zweck es ist die Lidar-Industrie zu retten?
    Daimler wollte zuerst auch auf Lidar verzichten und nur mit der Kombi aus Radar und Kamera arbeiten. Haben sie dann irgendwann aufgegeben, obwohl die da viel Arbeit investiert haben.

    > Egal wie mans dreht und wendet, CV muss zwangsläufig immer ein Teil eines
    > autonom fahrenden Autos sein und zudem muss es sowieso höher Prior als alle
    > anderen Systeme sein. Oder willst du, dass dein Auto wegen einer
    > Plastiktüte eine Vollbremsung hinlegt? Und wenn Vision sowieso die höhere
    > Priorität hat kann man Ballast wie Lidar auch weglassen.

    Eigentlich hat Kamera die niedrigste Prio, ist aber natürlich genauso notwendig. Erst in der Kombination erreicht man die notwenige Sicherheit. Radar und Lidar dienen der Objekterkennung und die Kamera der Objektklassifizierung.

    > Lidar hat keinen Vorteil bei schlechter Sicht, es sind immernoch Photonen
    > nahe dem sichtbaren Spektrum. Einzig Radar hat gewisse Vorteile weshalb es
    > ja auch verbaut wird.

    Lidar sieht halt auch ohne Licht. Wenn zB Tiere oder betrunkene Partygänger nachts kreuzen. Und Radar braucht es deswegen eben mindestens 8 Stück in jede Richtung (je vier für nah und fern).

  3. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: AllDayPiano 24.04.19 - 09:26

    Ja das ist jetzt alles schön und gut (aber teilweise auch schlicht falsch) - nur ... wo ist die Antwort auf meine Frage?

  4. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: picaschaf 24.04.19 - 11:12

    PiranhA schrieb:
    --------------------------------------------------------------------------------
    > picaschaf schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Was meinst du was ein Mensch macht und der kann komischerweise auch
    > fahren.
    >
    > Ein Mensch hat zumindest Stereo-Vision ;)
    > Aber der Mensch sollte auch nicht die Messlatte sein. Wie schlecht wir für
    > diese Aufgabe geeignet sind, sehen wir ja jeden Tag.

    Ja, bis etwa 60cm Entfernung. Zum Fahren vollkommen irrelevant. Und besser als der Mensch sensorisch zu sein ist nicht schwer.

    >
    > > Btw. "schätzen" Computer Vision Systeme nicht, sondern triangulieren die
    > > Entfernung. Das funktioniert, nicht nur in der Autowelt, wunderbar.
    >
    > Mehr als schätzen ist das nicht. Selbst bei Stereo-Kameras ist das
    > Verfahren relativ ungenau. Bei Mono-Cams muss man erst das Objekt
    > identifizieren, dann die Größe abschätzen und daraus die Entfernung
    > berechnen. Da ist jede Menge Spielraum.

    Nope. Du hast dich offenbar weder mit den Verfahren noch der Technik beschäftigt.

    >
    > > Weil die allermeisten dieser "Experten" direkt oder indirekt mit
    > > Zulieferern verbandelt sind und natürlich nur an einem neuen
    > Zusatzsystem
    > > verdienen.
    >
    > Das ist doch lächerlich. Waymo, Uber, MobileEye, die Chinesen und jedes
    > Startup dieser Welt haben sich also einer Verschwörung angeschlossen, deren
    > einziger Zweck es ist die Lidar-Industrie zu retten?
    > Daimler wollte zuerst auch auf Lidar verzichten und nur mit der Kombi aus
    > Radar und Kamera arbeiten. Haben sie dann irgendwann aufgegeben, obwohl die
    > da viel Arbeit investiert haben.

    Nein, das ist nicht das worauf ich hinaus wollte. Die Zulieferer pushen es weil sie was verkaufen wollen. Waymo und Co. setzen auf Lidar weil sie schnell hübsche Demos liefern wollten/mussten.

    >
    > > Egal wie mans dreht und wendet, CV muss zwangsläufig immer ein Teil
    > eines
    > > autonom fahrenden Autos sein und zudem muss es sowieso höher Prior als
    > alle
    > > anderen Systeme sein. Oder willst du, dass dein Auto wegen einer
    > > Plastiktüte eine Vollbremsung hinlegt? Und wenn Vision sowieso die
    > höhere
    > > Priorität hat kann man Ballast wie Lidar auch weglassen.
    >
    > Eigentlich hat Kamera die niedrigste Prio, ist aber natürlich genauso
    > notwendig. Erst in der Kombination erreicht man die notwenige Sicherheit.
    > Radar und Lidar dienen der Objekterkennung und die Kamera der
    > Objektklassifizierung.

    Falsch. Wenn die Kamera die niedrigste Prio hat (was alleine schon im Bezug auf die Realität vollkommener Unsinn ist), bekommst du einen Haufen Probleme. Davon ist die Plastiktüte noch das Geringste. Lidar sagt Hindernis, Kamera sagt da ist irgendwas, Radar sagt da ist nichts. Bei einer Verteilung von 50:10:30 wird das Auto eine Vollbremsung hinlegen. Bei 40:20:40 wird es wahlweise eine Vollbremsung hinlegen, oder in ein falsch erkanntes Auto rasen.

    Die Kamera muss Objekte richtig klassifizieren und das zuverlässig und wenn sie das macht, ist der Rest nutzlos.

    >
    > > Lidar hat keinen Vorteil bei schlechter Sicht, es sind immernoch
    > Photonen
    > > nahe dem sichtbaren Spektrum. Einzig Radar hat gewisse Vorteile weshalb
    > es
    > > ja auch verbaut wird.
    >
    > Lidar sieht halt auch ohne Licht. Wenn zB Tiere oder betrunkene Partygänger
    > nachts kreuzen. Und Radar braucht es deswegen eben mindestens 8 Stück in
    > jede Richtung (je vier für nah und fern).

    Schon wieder Unsinn. Wozu sollte man ohne Licht fahren? Und Lidar kann dennoch lediglich schwarz/weiß Punktwolken erkennen. Ein autonomes Fahrzeug fährt einfach so wie es das Gesetz ohnehin fordert - reaktionsbereit. Es sieht 100m weit also fährt es maximal so schnell, dass es in der Entfernung anhalten kann. Und das ist schon deutlich schneller als ein Mensch fahren dürfte wegen der wesentlich geringeren Reaktionszeit. Wir müssen nicht mit 200 durch die Stadt knallern können.

  5. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: PiranhA 24.04.19 - 11:37

    picaschaf schrieb:
    --------------------------------------------------------------------------------
    > Nein, das ist nicht das worauf ich hinaus wollte. Die Zulieferer pushen es
    > weil sie was verkaufen wollen. Waymo und Co. setzen auf Lidar weil sie
    > schnell hübsche Demos liefern wollten/mussten.

    Deswegen entwickelt Waymo also eigene Lidar Sensoren? Weil die so blöd alle sind?

    > Falsch. Wenn die Kamera die niedrigste Prio hat (was alleine schon im Bezug
    > auf die Realität vollkommener Unsinn ist), bekommst du einen Haufen
    > Probleme. Davon ist die Plastiktüte noch das Geringste. Lidar sagt
    > Hindernis, Kamera sagt da ist irgendwas, Radar sagt da ist nichts. Bei
    > einer Verteilung von 50:10:30 wird das Auto eine Vollbremsung hinlegen. Bei
    > 40:20:40 wird es wahlweise eine Vollbremsung hinlegen, oder in ein falsch
    > erkanntes Auto rasen.

    So funktionert das doch nicht. Du hast nicht drei Ergebnisse, die du miteinander multiplizierst, sondern nutzt alle Daten zur Identifikation. Wenn das Lidar ein Objekt erkennt, das Radar aber nicht, weiß ich schonmal dass es nicht metallisch ist. Wenn die Kamera dann sagt, das ist ein Vogel oder eine Plastiktüte, kann ich Entwarnung geben. Wenn das Kamera nichts sieht, muss ich bremsen. Ich kann es nicht klassifizieren, aber ich weiß dass da etwas ist. Genau den Fall kann ich nicht abfangen, wenn ich mich nur auf die Kamera verlasse.

    > Die Kamera muss Objekte richtig klassifizieren und das zuverlässig und wenn
    > sie das macht, ist der Rest nutzlos.

    Und genau da habe ich, und der Rest der Fachwelt, erhebliche Zweifel. Das funktioniert bisher einfach nicht gut genug und es gibt erhebliche Zweifel, dass das in den nächsten Jahren funktioniert. Deshalb braucht es eben den ganzen Rest.

  6. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: E-Mover 24.04.19 - 13:27

    AllDayPiano schrieb:
    --------------------------------------------------------------------------------
    > Ja das ist jetzt alles schön und gut (aber teilweise auch schlicht falsch)
    > - nur ... wo ist die Antwort auf meine Frage?

    Kommt darauf an, welches menschliche Auge Du meinst: Bei meinen Dioptrien brauchst Du jedenfalls keine Quelle um zu glauben, dass die Kameras besser sind. Und das nicht nur im Tesla ;-)

    Mit Brille sieht das vielleicht schon wieder anders aus, aber wozu die ganze Diskussion? Es geht doch darum, was das neuronale Netz aus den Aufnahmen macht. Und beim Autofahren kommt es sicher nicht auf die Auflösung im letzten Detail an, sondern die richtige Einschätzung der Gesamtsituation, oder?

  7. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: AllDayPiano 24.04.19 - 13:47

    Darum geht es nicht. Die beste KI kann außer Ratestunde zu spielen aus schlechten Aufnahmen keine guten machen.

  8. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: SJ 24.04.19 - 16:00

    norbertgriese schrieb:
    --------------------------------------------------------------------------------
    > Wurde denn auch erklärt, warum der Autopilot bis jetzt in erbärmlichem
    > Zustand ist und nicht in der Stadt benutzt werden darf?

    Ich hätte gerne für diese beiden Behauptungen einen Beleg.

    --
    Wer all meine Fehler findet und die richtig zusammensetzt, erhält die geheime Formel wie man Eisen in Gold umwandeln kann.

  9. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: SJ 24.04.19 - 16:05

    E-Mover schrieb:
    --------------------------------------------------------------------------------
    > Behalten Sie die vorausliegende Straße jederzeit im Blick, und
    > seien Sie immer bereit zum Eingreifen. Andernfalls kann es zu schweren bis
    > tödlichen Verletzungen kommen."

    Steht nicht sowas ähnliches ebenfalls in der StVO?

    --
    Wer all meine Fehler findet und die richtig zusammensetzt, erhält die geheime Formel wie man Eisen in Gold umwandeln kann.

  10. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: SJ 24.04.19 - 16:09

    PerilOS schrieb:
    --------------------------------------------------------------------------------
    > Es ist mir bis heute schleierhaft wie man so unverantwortlich sein kann an
    > einem LIDAR zu sparen, was absolut zuverlässig und ausgereift ist und alles
    > erkennt, was ein Auto erkennen muss.

    Nur tut es das eben nicht:

    "Disadvantages of LiDAR

    High operating costs in some applications: Although LiDAR is cheap when used in huge applications, it can be expensive when applied in smaller areas when collecting data.

    Ineffective during heavy rain or low hanging clouds: LiDAR pulses may be affected by heavy rains or low hanging clouds because of the effects of refraction. However the data collected can still be used for analysis.

    Degraded at high sun angles and reflections: LiDAR technology does not work well in areas or situations where there are high sun angles or huge reflections since the laser pulses depend on the principle of reflection.

    [...]

    The laser beams may affect human eye in cases where the beam is powerful: The Laser beams used by LiDAR pulses are usually powerful in some instances and these may affect the human eye.

    [...]
    "

    http://lidarradar.com/info/advantages-and-disadvantages-of-lidar

    --
    Wer all meine Fehler findet und die richtig zusammensetzt, erhält die geheime Formel wie man Eisen in Gold umwandeln kann.

  11. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: AllDayPiano 25.04.19 - 06:31

    Abgesehen davon, dass Satz 1 für mich irgendwie überhaupt keinen Sinn ergibt...

    Na und? Kein System ist perfekt. Dann gibt es nunmal Bedingungen unter denen die Assistenz wegfällt.

    Wir stehen ganz ganz ganz weit am Anfang mit autonomen Autos.

  12. Re: In den knapp 3h wurden SEHR viele technische Details genannt

    Autor: gadthrawn 25.04.19 - 07:03

    picaschaf schrieb:
    --------------------------------------------------------------------------------
    > AllDayPiano schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Das menschliche Auge erreicht etwa 4 mal so hohe Blendstufen wie eine
    > > aktuelle Profi-Kamera für zig tausend Euro. Der Mensch hat mit dem Auge
    > > soviel Brennweite, wie man bei einem Vollformatsensor mit 55mm Objektiv
    > > hätte, das in einem Auto gar keinen Platz hätte. Dazu kommt, dass das
    > Auge
    > > fast 170° Blickwinkel hat, auch wenn es die Information im Randbereich
    > > schlecht sieht - so wird hier Bewegung wahrgenommen. Weiterhin hat das
    > > menschliche Auge eine äquivalente Auflösung von etwa 12 Megapixel bei
    > etwa
    > > 25 Bilder pro Sekunde. Und die kann es nicht nur sehen, sondern auch
    > > verarbeiten, was der Punkt ist, an dem es hardwaremäßig richtig richtig
    > > richtig aufwendig wird.
    > >
    > > Wenn ich mir hier so die über 1000 Euro teuren Kameras von µEye oder
    > > Pointgrey ansehe, so stelle ich fest, dass sie noch ganz ganz ganz weit
    > > entfernt vom menschlichen Auge sind.
    > >
    > > Klar könnte man in ein Auto 4 Nikon D850 einbauen, aber dann würden ja
    > > schon die Kameras über 10000 Euro kosten und man hätte trotzdem erst 1/4
    > > des Dynamikumfangs des Autos.
    > >
    > > Also wo - und das mit Quelle bitte - sind die Kameras in den Teslas
    > gleich
    > > gut oder besser als das menschliche Auge?
    >
    > Ich weiß nicht wie es mit deinen Augen ist, aber ich kann nicht innerhalb
    > von ms, oder überhaupt, abdunkeln sobald ich direkt in die Sonne blicke. Im
    > Gegenteil, ich muss meine Augen zusammenkneifen, sehe noch weniger und
    > schädige sie zudem.
    >
    > Und die Aufmerksamkeit ist ausschließlich im kleinen, direkten Sichtfeld.
    > Das periphäre Sehen trägt 0 bei. Was denkst du warum sonst jede andere
    > Tätigkeit ablenkt und der Kopf und oder Augen bewegt werden müssen.
    >
    > Und der Mensch verarbeitet nicht alles was er sieht, ganz im Gegenteil. Das
    > Gehirn führt massive Vereinfachungen durch, dichtet sich Informationen dazu
    > und handelt reflexartig. Das ist auch der Grund warum Zeugenaussagen bei
    > Verkehrsunfällen äußerst schlecht sind und Menschen so viel übersehen, er
    > kann nur in eine Richtung sehen und auch da nur einen kleinen Teil bewusst
    > überhaupt verarbeiten. Die Maschine hat das komplette Umfeld ständig im
    > Blick, bei einer *wesentlich* höheren Bildrate noch dazu.

    Und die Teslas sehen nach aktueller Anleitung mit den Kameras bei hellem Licht ist Scheinwerfern oder Regen oder Schnee ebenfalls teilweise gar nichts...

  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. dreisechzig ITC GmbH, Dreieich
  2. VPV Versicherungen, Stuttgart
  3. Stadt Regensburg, Regensburg
  4. SOPAT GmbH, Berlin

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. 5,55€
  2. (u. a. GRAND THEFT AUTO V: PREMIUM ONLINE EDITION 13,99€, Shadows: Awakening 12,50€)
  3. (aktuell u. a. Monitore, Mäuse, CPUs)
  4. mit Gutschein: NBBCORSAIRPSP19


Haben wir etwas übersehen?

E-Mail an news@golem.de


Mobile-Games-Auslese: Magischer Dieb trifft mogelnden Doktor
Mobile-Games-Auslese
Magischer Dieb trifft mogelnden Doktor

Ein Dieb mit Dolch in Daggerhood, dazu ein (historisch verbürgter) Arzt in Astrologaster sowie wunderschön aufbereitetes Free-to-Play-Mittelalter in Marginalia Hero: Golem.de stellt die spannendsten neuen Mobile Games vor.
Von Rainer Sigl

  1. Hyper Casual Games 30 Sekunden spielen, 30 Sekunden Werbung
  2. Mobile-Games-Auslese Rollenspiel-Frühling mit leichten Schusswechseln
  3. Gaming Apple Arcade wird Spiele-Flatrate für iOS und MacOS

5G-Auktion: Warum der Preis der 5G-Frequenzen so hoch war
5G-Auktion
Warum der Preis der 5G-Frequenzen so hoch war

Dass die Frequenzen für den 5G-Mobilfunk teuer wurden, lasten Telekom, Vodafone und Telefónica dem Newcomer United Internet an. Doch dies ist laut dem Netzplaner Kai Seim nicht so gewesen.
Eine Analyse von Achim Sawall

  1. Funklöcher Hohe Bußgelder gegen säumige Mobilfunknetzbetreiber
  2. Bundesnetzagentur 5G-Frequenzauktion erreicht 6,5 Milliarden Euro
  3. 5G-Auktion Etablierte wollen Preis für 1&1 Drillisch hochtreiben

Ocean Discovery X Prize: Autonome Fraunhofer-Roboter erforschen die Tiefsee
Ocean Discovery X Prize
Autonome Fraunhofer-Roboter erforschen die Tiefsee

Öffentliche Vergaberichtlinien und agile Arbeitsweise: Die Teilnahme am Ocean Discovery X Prize war nicht einfach für die Forscher des Fraunhofer Instituts IOSB. Deren autonome Tauchroboter zur Tiefseekartierung schafften es unter die besten fünf weltweit.
Ein Bericht von Werner Pluta

  1. JAB Code Bunter Barcode gegen Fälschungen

  1. Registries: Die Verwalter der Top-Level-Domains
    Registries
    Die Verwalter der Top-Level-Domains

    Top-Level-Domains (TLDs) sind ein wichtiger Bestandteil jeder Internetadresse. Jeder kennt und benutzt sie, aber wer oder was dahintersteht, wissen wohl nur wenige. Dabei haben die Registries, also die Betreiber von TLDs, eine verantwortungsvolle Aufgabe.

  2. Quartalsbericht: Amazon verrät versehentlich deutschen Marketplace-Umsatz
    Quartalsbericht
    Amazon verrät versehentlich deutschen Marketplace-Umsatz

    Eine Werbe-E-Mail an Amazon-Marketplace-Händler in Deutschland enthält eine wichtige Rechenhilfe. Damit kann der genaue Umsatz für den Bereich in Deutschland erstmals berechnet werden. Das wurde bislang geheim gehalten.

  3. Verbraucherschutz: Vodafone-Pass muss auch im EU-Ausland gelten
    Verbraucherschutz
    Vodafone-Pass muss auch im EU-Ausland gelten

    Wer einen Vodafone-Tarif mit Vodafone-Pass hat, kann bestimmte Apps ohne Anrechnung auf das Datenvolumen nutzen. Das ging bisher nur in Deutschland, muss aber auch für das EU-Ausland gelten, hat das Landgericht Düsseldorf entschieden.


  1. 12:11

  2. 12:05

  3. 11:35

  4. 11:03

  5. 10:48

  6. 10:36

  7. 10:10

  8. 09:40