Abo
  1. Foren
  2. Kommentare
  3. Foto
  4. Alle Kommentare zum Artikel
  5. › Multi-Shot-Kamera: Hasselblad macht 400…

Verstehe ich nicht

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Verstehe ich nicht

    Autor: Anonymer Nutzer 18.01.18 - 14:05

    Wenn ich den Sensor um 1 Pixel verschiebe, dann erhalte ich doch das gleiche Bild, nur auf einer Seite ein Pixel mehr und auf der anderen ein Pixel weniger?

    Und wenn ich den Sensor um 0,5 Pixel verschiebe, dann erhalte ich im Endeffekt eine Interpolation aus zwei benachbarten Pixeln, was sich auch mit Software lösen würde? Oder sind die Pixel entsprechend klein, dass damit "Zwischenraum", der sonst nicht erfasst wird, abgelichtet wird?

  2. Re: Verstehe ich nicht

    Autor: ad (Golem.de) 18.01.18 - 14:23

    HerrMannelig schrieb:
    --------------------------------------------------------------------------------
    > Wenn ich den Sensor um 1 Pixel verschiebe, dann erhalte ich doch das
    > gleiche Bild, nur auf einer Seite ein Pixel mehr und auf der anderen ein
    > Pixel weniger?
    >
    > Und wenn ich den Sensor um 0,5 Pixel verschiebe, dann erhalte ich im
    > Endeffekt eine Interpolation aus zwei benachbarten Pixeln, was sich auch
    > mit Software lösen würde? Oder sind die Pixel entsprechend klein, dass
    > damit "Zwischenraum", der sonst nicht erfasst wird, abgelichtet wird?


    Schauen sie sich mal die neue Animation an, dann wird es klarer.

  3. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 14:33

    Ich stehe leider auch auf dem Schlauch. Alle sechs Bilder nehmen das gleiche auf, nur um ein bzw ein halbes Pixel verschoben. Wo kommen die neuen Informationen her?

  4. Re: Verstehe ich nicht

    Autor: FreierLukas 18.01.18 - 14:45

    Es geht hier um die Subpixel. Die sind Rot, Grün und Blau. Man schiebt den Roten Pixel quasi auf den Blauen und den Grünen und dazwischen auch. Damit nutzt man praktisch die gesamte Sensorfläche für alle Farben aus. Normalerweise nutzt eine Farbe weniger als ein Drittel der Sensorfläche zumal zwischen den Pixeln ein gewisser Isolationabstand sein muss. Je größer der ist desto weniger Leak gibt es von einem auf den anderen Pixel. Durch diese Technik kann man den Abstand vergrößern und gleichzeitig trotzdem die gesamte Fläche nutzen. Ich bin mir sicher dass der Subpixelabstand auf dem Sensor hier besonders groß ist. Das ist aber nur eine Vermutung.



    2 mal bearbeitet, zuletzt am 18.01.18 14:48 durch FreierLukas.

  5. Re: Verstehe ich nicht

    Autor: PiranhA 18.01.18 - 14:48

    Siehe das Bild von Heise:


    Ein Pixel im Sensor besteht ja aus Subpixeln. Also Rot, Grün und Blau, wobei Grün doppelt vorkommt. Durch die Drehung des Sensors nimmt also jeder Subpixel nicht mehr nur an einer Ecke des Pixels auf, sondern an allen vier Ecken. Man teilt also den Pixel noch mal auf in seine Subpixel.
    Durch die Verschiebung um jeweils einen halben Pixel, nimmt man auch noch die Zwischenräume auf.

  6. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 15:09

    Der sensor wird ja nicht gedreht!
    Nur nimmt jedes subpixel jetzt alle rgb-werte auf, so das ich aus der bayer-matrix echte rgb werte im bild habe, was die qualität der bilder enorm steigert.
    Die verschiebung um einen halben pixel sehe ich allerdings als sinnfreie aufblähung der dateigröße an, wenn dort nicht ebenfalls alle rgbwert ermittelt werden, um dann aus den 2 "komplettbildern" ein bild zusammen zu rechnen.

  7. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 15:11

    Heh, die statischen heise-bilder lassen das in der tat verständlicher aussehen als die golem-disco.

    Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für mich nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal 100 meter abstand wäre ja sogar schon die lichtbrechung durch luftfeuchtigkeit zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum? ahrg.

    Ich bleibe bei quantenphysik, die versteht man wenigstens auf Anhieb nicht *g*

    danke für den Versuch :)

  8. Re: Verstehe ich nicht

    Autor: Azzuro 18.01.18 - 15:49

    > Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei
    > landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für mich
    > nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal 100
    > meter abstand wäre ja sogar schon die lichtbrechung durch luftfeuchtigkeit
    > zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum?

    Vielleicht denkst du da zu kompliziert. Eigentlich könnte man sagen, dass man durch diesen Effekt einfach nur "echte" 100 vollfarbige Megapixel bekommt.

    Es ist nämlich so, dass ein Sensor ja eigentlich nur Helligkeit aufnimmt, also ein schwarz/weiß Bild. Der Sensor besteht also aus 100 Megapixel und jeder kann Graustufen von weiß bis schwarz darstellen. Nun will man aber Farbe haben, und packt daher Farbfilter vor die einzelnen Bildpunkte des Sensors, in einer bestimmten Anordnung ("Bayer-Pattern"). Das bedeutet letztlich, dass eine Kamera mit 100 Megapixeln eigentlich nur 100 Megasubpixel hat. Das ist aber insofern nicht so tragisch, weil das menschliche Auge Helligkeit besser auflöst als Farbe. Das macht man sich auch bei diversen Bild und Fotokompressionstechnicken zu nutze. Bei JPEG z.B. wird nur das das "Graustufenbild" in voller Auflösung abgepeichter, die Farbkanäle dagegen in geringerer Auflösung.

    Es gibt auch Techniken abseits des Bayer-Sensors. Sigma hat z.B. den Foveon Sensor entwickelt. Da liegen quasi drei Sensoren übereinander mit Farbfilertn dazwischen. Daher bekommt jedes Pixel einen R, G und B Wert. Und in teureren Videokameras war /ist es üblich, dass man dort mit drei Sensoren arbeitet, und die Farben mit einem Prisma trennt. Auch da hat man dann für jedes Sensor Pixel einen echten RGB Wert.

  9. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 15:50

    Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne pixelshift an, um zu sehen, was reale rgb-werte bringen

    https://www.dpreview.com/reviews/pentax-k-1/8

    Besonders in feinen strukturen zahlt sich das aus, da dann der raw-konverter die rawbilder nicht aus der bayer-matrix interpolieren muss, sondern auf reale farbwerte zurückgreifen kann.



    2 mal bearbeitet, zuletzt am 18.01.18 16:01 durch zenker_bln.

  10. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 16:18

    Azzuro schrieb:
    --------------------------------------------------------------------------------
    > > Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei
    > > landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für
    > mich
    > > nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal
    > 100
    > > meter abstand wäre ja sogar schon die lichtbrechung durch
    > luftfeuchtigkeit
    > > zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum?
    >
    > Vielleicht denkst du da zu kompliziert. Eigentlich könnte man sagen, dass
    > man durch diesen Effekt einfach nur "echte" 100 vollfarbige Megapixel
    > bekommt.
    >
    > Es ist nämlich so, dass ein Sensor ja eigentlich nur Helligkeit aufnimmt,
    > also ein schwarz/weiß Bild. Der Sensor besteht also aus 100 Megapixel und
    > jeder kann Graustufen von weiß bis schwarz darstellen. Nun will man aber
    > Farbe haben, und packt daher Farbfilter vor die einzelnen Bildpunkte des
    > Sensors, in einer bestimmten Anordnung ("Bayer-Pattern"). Das bedeutet
    > letztlich, dass eine Kamera mit 100 Megapixeln eigentlich nur 100
    > Megasubpixel hat. Das ist aber insofern nicht so tragisch, weil das
    > menschliche Auge Helligkeit besser auflöst als Farbe. Das macht man sich
    > auch bei diversen Bild und Fotokompressionstechnicken zu nutze. Bei JPEG
    > z.B. wird nur das das "Graustufenbild" in voller Auflösung abgepeichter,
    > die Farbkanäle dagegen in geringerer Auflösung.
    >
    > Es gibt auch Techniken abseits des Bayer-Sensors. Sigma hat z.B. den Foveon
    > Sensor entwickelt. Da liegen quasi drei Sensoren übereinander mit
    > Farbfilertn dazwischen. Daher bekommt jedes Pixel einen R, G und B Wert.
    > Und in teureren Videokameras war /ist es üblich, dass man dort mit drei
    > Sensoren arbeitet, und die Farben mit einem Prisma trennt. Auch da hat man
    > dann für jedes Sensor Pixel einen echten RGB Wert.

    ohh, da erinnere ich mich an etwas aus meiner ausbildung, wie man ein schwarz-weiß bild aus einem farb-bild berechnet. mit irgendwie 30% rot, etwas mehr blau und sonstwas :)

    also bekomme ich nicht wirklich eine bessere auflösung (mehr barthaare sichtbar) aber eine bessere helligkeitsabbildung (mehr barthaare differenzierbar)?

    ich hoffe sehr ich wirke nicht wie ein troll :/

  11. Re: Verstehe ich nicht

    Autor: paulw72 18.01.18 - 16:19

    Ein farbiges Bildpixel wird aus den Helligkeitsinformationen von je 4 benachbarten Sensorpixeln mit vorgesetzten Farbfiltern errechnet. Daher braucht man pro Bildpixel 4 Sensorpixel. Alternativ kann man schnell nacheinander 4 Bilder machen und dabei Sensor und Filtermatrix so gegeneinander verschieben, dass die Sensorpixel jedes Mal durch eine andere Filterfarbe schauen. So ist jedes Sensorpixel mit jeder Farbe belichtet worden, und nach dem Zusammenrechnen hat man ein Bild mit der 4-fachen Auflösung. Das gibt es von Pentax schon seit Jahren in vergleichweise günstigen DSLRs.

  12. Re: Verstehe ich nicht

    Autor: Der Spatz 18.01.18 - 16:50

    Jein.

    Wie macht das eine normale Kamera:

    Der Sensor hat über jeden Pixel einen von drei verschiedenfarbigen Filtern.

    Bild wird gemacht Pixel 1 hat die Helligkeitsinformation "Rot" Pixel 2 und 4 Grün und Pixel 3 die Blauinformation.

    Also was macht man (um für jeden der 4 Pixel alle Farbinformationen zu bekommen?

    Pixel 1 (R,G,B) = R von Pixel 1, B von P3 und Grün aus P2+P4/2
    P2 = R von Pixel 1, B von P3, G von P2
    P3 = R von Pixel 1, B von P3 und Grün aus P2+P4/2
    P4 =R von Pixel 1, B von P3, G von P2

    Diese Interpolation für jeden Pixel macht das Bild dann "verschwommener"

    Die Hassi macht jetzt vier Aufnahmen wobei jetzt die Aufnahme jeweils um einen Pixel verschoben ist. Somit liegt bei der 2. Aufnahme P2 grenau an der Position von P1, bei der dritten P3 an der Position von P1 und bei der vierten P4 an der Position von P1.

    P(#Aufnahme, an Position von Pixel)

    Diese vier Bilder kann ich dann wie folgt zu einem Bild zusammenfügen:

    P1(R,G,B) = R von 1. Aufnahme, B von dritter Aufnahme und Grün als Mittelwert von der 2. und 4. Aufnahme.

    Somit muss ich nicht mehr räumlich vom Nachbar-Pixel interpolieren sondern nur noch Zeitlich (Alle vier Farbwerte sind ja an der gleichen Position aufgenommen worden)

    Extreme Details werden "Schärfer Abgebildet" (bzw. es fehlt der räumliche Interpolationsverlust).

    Und da wir ja beim Marketing sind - sind das halt 4 Aufnahmen a 100MP = 400 MP (obwohl es auch nur wieder 100MP sind, diesmal ohne räumliche Interpolation).

    Die zwei Zwischenbilder könnten eventuell dazu dienen Farbkanten zu erkennen um diagonale Linien per Anti-Aliasing (mit echten Farbdaten) zu glätten oder Moire zu erkennen (und an den stellen dann eine lokale Anti-Moire Funktion (wenn aktiviert) anzuwenden.

    Da ist dann aber wieder der Hersteller - Interpolations-Voodoo wichtig-





    P1 =

  13. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 16:57

    also könnte ich quasi auch das gleiche bild vier mal aufnehmen, einmal ohne, einmal mit blau, rot und dann mit grün-filter und könnte dann das selbe Ergebnis errechnen?

    wenn das jetzt immer noch falsch ist, dann gebe ich auf für heute und verschwende nicht weiter eure zeit :)

  14. Re: Verstehe ich nicht

    Autor: Poison Nuke 18.01.18 - 16:59

    zenker_bln schrieb:
    --------------------------------------------------------------------------------
    > Die verschiebung um einen halben pixel sehe ich allerdings als sinnfreie
    > aufblähung der dateigröße an, wenn dort nicht ebenfalls alle rgbwert
    > ermittelt werden,

    es ist das Gegenteil von sinnfrei. Solange das Bild nur um 1 Pixel verschoben wird, wird die Auflösung nicht höher! Die ersten 4 Schritte sorgen einfach nur für eine höhere Farbauflösung.


    Erst durch die halbe Verschiebung wird die eigentliche Vergrößerung der Auflösung erreicht. Denn das ist das gleiche als wenn man einen Sensor mit doppelt so hoher Auflösung hätte. Du könntest dir auch gleich einen 400MPx Sensor einbauen, der hätte aber im Endeffekt sogar eine geringere Auflösung als dieses Verfahren hier, da hier die Farbauflösung doppelt so hoch ist und nur noch halb so viel interpoliert werden muss.

  15. Re: Verstehe ich nicht

    Autor: Poison Nuke 18.01.18 - 17:03

    ecv schrieb:
    --------------------------------------------------------------------------------
    > also könnte ich quasi auch das gleiche bild vier mal aufnehmen, einmal
    > ohne, einmal mit blau, rot und dann mit grün-filter und könnte dann das
    > selbe Ergebnis errechnen?

    das ist halb richtig. Mit deinem Verfahren erreichst du das Ergebnis der ersten vier Schritte, bei denen immer genau um 1Px verschoben wird. Man hat dann in allen Farbkanälen die maximale Auflösung.

    Aber um die reale Auflösung zu erhöhen, musst du eben zwischen den Pixeln abtasten. Wenn du um einen halben Pixel verschiebst, bist du an genau der Position, wo bei einer doppelt so hohen Sensorauflösung der echte Pixel liegen würde.

  16. Re: Verstehe ich nicht

    Autor: Der Spatz 18.01.18 - 17:17

    Mit einem Sensor ohne eingebauten "Farbfilter" - quasi ja.

    Die virtuelle Auflösungsvervierfachung machen sie mit der 5. und 6. Aufnahme zwischen den Pixeln (wobei hier dann wieder räumlich interpoliert werden muss - zumindest etwas).

    Nimm einen SW sensor mach (eigentlich nur Drei aufnahmen notwendig in diesem Fall - 2x grün braucht man dann ja nicht wirklich) drei Aufnahmen, einmal mit rot mit grün und mit Blaufilter und du hast ein 100MP Echtfarbbild (anstelle eines Farbinterpolierten).

    Hasselblad macht dann "vereinfacht" noch ein zweites 100MP Echtfarbbild mit um 1/2 nach unten und 1/2 Pixel rechts verschobenen Sensor.

    Somit 200MP echte Farbpixel (X= Pixel O = Lücke wo eigentlich noch ein Pixel hinmüsste) mit dem Muster:

    XOXOXOXOXO
    OXOXOXOXOX
    XOXOXOXOXO
    OXOXOXOXOX

    Die Lücken werden dann aus den Informationen der vier umgebenden Pixel interpoliert um auf ein brauchbares Pixelmuster zu kommen wodurch man dann ein 400MP Bild mit 200 echten FarbPixeln und 200MP Interpolierten Pixeln bekommt.

    Mit einem 400MP Bayern Pattern Sensor hätte man 100MP Rot, 100MP blau und 200MP grün als echte information die dann zu 400MP EchtfarbPixeln interpoliert werden. Womit dann wahrscheinlich die Qualität beim Multishot Bild real höher wäre (aber halt nur bei statischen Objekten im Bild)

  17. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 17:25

    zenker_bln schrieb:
    --------------------------------------------------------------------------------
    > Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne
    > pixelshift an, um zu sehen, was reale rgb-werte bringen

    Es sind übrigens immer noch keine "realen" rgb Werte. Mit der Methode wird letztlich einfach nur die Pixelempfindlichkeit auf RGB gesteigert, und so eine bessere, zuverlässigere Interpolation ermöglicht. Am Ende ist das ganze aber immer noch eine Bayer Matrix, jede Farbe also reine Interpolation aus "Schätzwerten", die dann aber zuverlässiger und genauer geschätzt werden.

  18. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 18:14

    theFiend schrieb:
    --------------------------------------------------------------------------------
    > zenker_bln schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne
    > > pixelshift an, um zu sehen, was reale rgb-werte bringen
    >
    > Es sind übrigens immer noch keine "realen" rgb Werte. Mit der Methode wird
    > letztlich einfach nur die Pixelempfindlichkeit auf RGB gesteigert, und so
    > eine bessere, zuverlässigere Interpolation ermöglicht.

    Nein!
    Beim Pixelshift wird der Bayer-Matrix-Sensor so verschoben, das jeder Punkt/Pixel des Bildes einmal von einem roten, grünen und blauen Subpixel des Sensors erfasst wird.
    Damit hasst du für jedes Pixel die realen RGB-Werte und musst diese nicht aus der Bayer-Matrix interpolieren, welches immer Fehler erzeugt.

  19. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 18:24

    Du kannst verschieben so viel du willst, bayer matrix bleibt bayer matrix.
    Der einzige Unterschied ist, das du per pixelshift die präzision steigerst.

    Du hast z.B. auch beim Multishot weiterhin Moiré.



    1 mal bearbeitet, zuletzt am 18.01.18 18:27 durch theFiend.

  20. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 18:34

    Natürlich bleibt eine Matrix eine Matrix.
    Wenn ich aber jeden Punkt des Bildes dreimal mit für die jeweilige Farbe unterschiedlichen Sub-Pixeln scanne, habe ich für jeden Punkt drei Werte (jeweils eine für R,G und B) und kann dann das Bayerpattern außer acht lassen.
    Ich habe dann nämlich für jedes Pixel die drei RGB-Werte ermittelt.
    Und wenn ich für jedes Pixel die drei RGB-Werte ermittelt habe, muss ich mir nicht mehr im RAW-Konverter was zusammeninterpolieren - die drei RGB-Werte stehen ja zur Verfügung für jedes Pixel.

    Siehe auch:

    http://www.imaging-resource.com/PRODS/pentax-k3-ii/pentax-k3-iiTECH2.HTM



    1 mal bearbeitet, zuletzt am 18.01.18 18:43 durch zenker_bln.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. BEUMER Group, Beckum (Raum Münster, Dortmund, Bielefeld)
  2. Jetter AG, Ludwigsburg
  3. Hays AG, Essen
  4. SV Informatik GmbH, Stuttgart

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)
  2. 80,90€ + Versand


Haben wir etwas übersehen?

E-Mail an news@golem.de


Timex Data Link im Retro-Test: Bill Gates' Astronauten-Smartwatch
Timex Data Link im Retro-Test
Bill Gates' Astronauten-Smartwatch

Mit der Data Link haben Timex und Microsoft bereits vor 25 Jahren die erste richtige Smartwatch vorgestellt. Sie hat es sogar bis in den Weltraum geschafft. Das Highlight ist die drahtlose Datenübertragung per flackerndem Röhrenmonitor - was wir natürlich ausprobieren mussten.
Ein Test von Tobias Költzsch

  1. Smart Watch Swatch fordert wegen kopierter Zifferblätter von Samsung Geld
  2. Wearable EU warnt vor deutscher Kinder-Smartwatch
  3. Sportuhr Fossil stellt Smartwatch mit Snapdragon 3100 vor

Doom Eternal angespielt: Die nächste Ballerorgie von id macht uns fix und fertig
Doom Eternal angespielt
Die nächste Ballerorgie von id macht uns fix und fertig

E3 2019 Extrem schnelle Action plus taktische Entscheidungen, dazu geniale Grafik und eine düstere Atmosphäre: Doom Eternal hat gegenüber dem erstklassigen Vorgänger zumindest beim Anspielen noch deutlich zugelegt.

  1. Sigil John Romero setzt Doom fort

Autonomes Fahren: Per Fernsteuerung durch die Baustelle
Autonomes Fahren
Per Fernsteuerung durch die Baustelle

Was passiert, wenn autonome Autos in einer Verkehrssituation nicht mehr weiterwissen? Ein Berliner Fraunhofer-Institut hat dazu eine sehr datensparsame Fernsteuerung entwickelt. Doch es wird auch vor der Technik gewarnt.
Ein Bericht von Friedhelm Greis

  1. Neues Geschäftsfeld Huawei soll an autonomen Autos arbeiten
  2. Taxifahrzeug Volvo baut für Uber Basis eines autonomen Autos
  3. Autonomes Fahren Halter sollen bei Hackerangriffen auf Autos haften

  1. Steam: Valve will Ubuntu-Unterstützung beenden
    Steam
    Valve will Ubuntu-Unterstützung beenden

    Die Steam-Plattform wird offenbar auf künftigen Versionen von Ubuntu nicht mehr durch Valve unterstützt. Der Grund dafür ist wohl das Ende des 32-Bit-Supports. Die Ubuntu-Entwickler entdecken derweil selbst die Probleme ihrer Idee.

  2. Samsung: Galaxy S10 5G kostet 1.200 Euro
    Samsung
    Galaxy S10 5G kostet 1.200 Euro

    Samsungs 5G-Smartphone ist in Deutschland verfügbar: Das Gerät ist bei der Telekom bereits erhältlich, in Kürze soll auch Vodafone folgen. Das Modell hat ein größeres Display, mehr Kameras und einen größeren Akku als das Galaxy S10+.

  3. Spielzeughändler: Toys R Us will bald zwei Filialen eröffnen
    Spielzeughändler
    Toys R Us will bald zwei Filialen eröffnen

    Der in die Pleite geratene Spielzeughändler Toys R Us kommt bald wieder. Einem Medienbericht zufolge wird es in den USA zunächst zwei neue Filialen geben. Hierzulande ist der Händler praktisch verschwunden, auch wenn die Filialen unter anderem Namen weitergeführt wurden.


  1. 15:19

  2. 14:54

  3. 14:30

  4. 14:00

  5. 12:05

  6. 11:56

  7. 11:50

  8. 11:42