Abo
  1. Foren
  2. Kommentare
  3. Foto
  4. Alle Kommentare zum Artikel
  5. › Multi-Shot-Kamera: Hasselblad macht 400…

Verstehe ich nicht

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Verstehe ich nicht

    Autor: Anonymer Nutzer 18.01.18 - 14:05

    Wenn ich den Sensor um 1 Pixel verschiebe, dann erhalte ich doch das gleiche Bild, nur auf einer Seite ein Pixel mehr und auf der anderen ein Pixel weniger?

    Und wenn ich den Sensor um 0,5 Pixel verschiebe, dann erhalte ich im Endeffekt eine Interpolation aus zwei benachbarten Pixeln, was sich auch mit Software lösen würde? Oder sind die Pixel entsprechend klein, dass damit "Zwischenraum", der sonst nicht erfasst wird, abgelichtet wird?

  2. Re: Verstehe ich nicht

    Autor: ad (Golem.de) 18.01.18 - 14:23

    HerrMannelig schrieb:
    --------------------------------------------------------------------------------
    > Wenn ich den Sensor um 1 Pixel verschiebe, dann erhalte ich doch das
    > gleiche Bild, nur auf einer Seite ein Pixel mehr und auf der anderen ein
    > Pixel weniger?
    >
    > Und wenn ich den Sensor um 0,5 Pixel verschiebe, dann erhalte ich im
    > Endeffekt eine Interpolation aus zwei benachbarten Pixeln, was sich auch
    > mit Software lösen würde? Oder sind die Pixel entsprechend klein, dass
    > damit "Zwischenraum", der sonst nicht erfasst wird, abgelichtet wird?


    Schauen sie sich mal die neue Animation an, dann wird es klarer.

  3. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 14:33

    Ich stehe leider auch auf dem Schlauch. Alle sechs Bilder nehmen das gleiche auf, nur um ein bzw ein halbes Pixel verschoben. Wo kommen die neuen Informationen her?

  4. Re: Verstehe ich nicht

    Autor: FreierLukas 18.01.18 - 14:45

    Es geht hier um die Subpixel. Die sind Rot, Grün und Blau. Man schiebt den Roten Pixel quasi auf den Blauen und den Grünen und dazwischen auch. Damit nutzt man praktisch die gesamte Sensorfläche für alle Farben aus. Normalerweise nutzt eine Farbe weniger als ein Drittel der Sensorfläche zumal zwischen den Pixeln ein gewisser Isolationabstand sein muss. Je größer der ist desto weniger Leak gibt es von einem auf den anderen Pixel. Durch diese Technik kann man den Abstand vergrößern und gleichzeitig trotzdem die gesamte Fläche nutzen. Ich bin mir sicher dass der Subpixelabstand auf dem Sensor hier besonders groß ist. Das ist aber nur eine Vermutung.



    2 mal bearbeitet, zuletzt am 18.01.18 14:48 durch FreierLukas.

  5. Re: Verstehe ich nicht

    Autor: PiranhA 18.01.18 - 14:48

    Siehe das Bild von Heise:


    Ein Pixel im Sensor besteht ja aus Subpixeln. Also Rot, Grün und Blau, wobei Grün doppelt vorkommt. Durch die Drehung des Sensors nimmt also jeder Subpixel nicht mehr nur an einer Ecke des Pixels auf, sondern an allen vier Ecken. Man teilt also den Pixel noch mal auf in seine Subpixel.
    Durch die Verschiebung um jeweils einen halben Pixel, nimmt man auch noch die Zwischenräume auf.

  6. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 15:09

    Der sensor wird ja nicht gedreht!
    Nur nimmt jedes subpixel jetzt alle rgb-werte auf, so das ich aus der bayer-matrix echte rgb werte im bild habe, was die qualität der bilder enorm steigert.
    Die verschiebung um einen halben pixel sehe ich allerdings als sinnfreie aufblähung der dateigröße an, wenn dort nicht ebenfalls alle rgbwert ermittelt werden, um dann aus den 2 "komplettbildern" ein bild zusammen zu rechnen.

  7. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 15:11

    Heh, die statischen heise-bilder lassen das in der tat verständlicher aussehen als die golem-disco.

    Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für mich nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal 100 meter abstand wäre ja sogar schon die lichtbrechung durch luftfeuchtigkeit zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum? ahrg.

    Ich bleibe bei quantenphysik, die versteht man wenigstens auf Anhieb nicht *g*

    danke für den Versuch :)

  8. Re: Verstehe ich nicht

    Autor: Azzuro 18.01.18 - 15:49

    > Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei
    > landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für mich
    > nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal 100
    > meter abstand wäre ja sogar schon die lichtbrechung durch luftfeuchtigkeit
    > zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum?

    Vielleicht denkst du da zu kompliziert. Eigentlich könnte man sagen, dass man durch diesen Effekt einfach nur "echte" 100 vollfarbige Megapixel bekommt.

    Es ist nämlich so, dass ein Sensor ja eigentlich nur Helligkeit aufnimmt, also ein schwarz/weiß Bild. Der Sensor besteht also aus 100 Megapixel und jeder kann Graustufen von weiß bis schwarz darstellen. Nun will man aber Farbe haben, und packt daher Farbfilter vor die einzelnen Bildpunkte des Sensors, in einer bestimmten Anordnung ("Bayer-Pattern"). Das bedeutet letztlich, dass eine Kamera mit 100 Megapixeln eigentlich nur 100 Megasubpixel hat. Das ist aber insofern nicht so tragisch, weil das menschliche Auge Helligkeit besser auflöst als Farbe. Das macht man sich auch bei diversen Bild und Fotokompressionstechnicken zu nutze. Bei JPEG z.B. wird nur das das "Graustufenbild" in voller Auflösung abgepeichter, die Farbkanäle dagegen in geringerer Auflösung.

    Es gibt auch Techniken abseits des Bayer-Sensors. Sigma hat z.B. den Foveon Sensor entwickelt. Da liegen quasi drei Sensoren übereinander mit Farbfilertn dazwischen. Daher bekommt jedes Pixel einen R, G und B Wert. Und in teureren Videokameras war /ist es üblich, dass man dort mit drei Sensoren arbeitet, und die Farben mit einem Prisma trennt. Auch da hat man dann für jedes Sensor Pixel einen echten RGB Wert.

  9. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 15:50

    Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne pixelshift an, um zu sehen, was reale rgb-werte bringen

    https://www.dpreview.com/reviews/pentax-k-1/8

    Besonders in feinen strukturen zahlt sich das aus, da dann der raw-konverter die rawbilder nicht aus der bayer-matrix interpolieren muss, sondern auf reale farbwerte zurückgreifen kann.



    2 mal bearbeitet, zuletzt am 18.01.18 16:01 durch zenker_bln.

  10. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 16:18

    Azzuro schrieb:
    --------------------------------------------------------------------------------
    > > Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei
    > > landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für
    > mich
    > > nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal
    > 100
    > > meter abstand wäre ja sogar schon die lichtbrechung durch
    > luftfeuchtigkeit
    > > zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum?
    >
    > Vielleicht denkst du da zu kompliziert. Eigentlich könnte man sagen, dass
    > man durch diesen Effekt einfach nur "echte" 100 vollfarbige Megapixel
    > bekommt.
    >
    > Es ist nämlich so, dass ein Sensor ja eigentlich nur Helligkeit aufnimmt,
    > also ein schwarz/weiß Bild. Der Sensor besteht also aus 100 Megapixel und
    > jeder kann Graustufen von weiß bis schwarz darstellen. Nun will man aber
    > Farbe haben, und packt daher Farbfilter vor die einzelnen Bildpunkte des
    > Sensors, in einer bestimmten Anordnung ("Bayer-Pattern"). Das bedeutet
    > letztlich, dass eine Kamera mit 100 Megapixeln eigentlich nur 100
    > Megasubpixel hat. Das ist aber insofern nicht so tragisch, weil das
    > menschliche Auge Helligkeit besser auflöst als Farbe. Das macht man sich
    > auch bei diversen Bild und Fotokompressionstechnicken zu nutze. Bei JPEG
    > z.B. wird nur das das "Graustufenbild" in voller Auflösung abgepeichter,
    > die Farbkanäle dagegen in geringerer Auflösung.
    >
    > Es gibt auch Techniken abseits des Bayer-Sensors. Sigma hat z.B. den Foveon
    > Sensor entwickelt. Da liegen quasi drei Sensoren übereinander mit
    > Farbfilertn dazwischen. Daher bekommt jedes Pixel einen R, G und B Wert.
    > Und in teureren Videokameras war /ist es üblich, dass man dort mit drei
    > Sensoren arbeitet, und die Farben mit einem Prisma trennt. Auch da hat man
    > dann für jedes Sensor Pixel einen echten RGB Wert.

    ohh, da erinnere ich mich an etwas aus meiner ausbildung, wie man ein schwarz-weiß bild aus einem farb-bild berechnet. mit irgendwie 30% rot, etwas mehr blau und sonstwas :)

    also bekomme ich nicht wirklich eine bessere auflösung (mehr barthaare sichtbar) aber eine bessere helligkeitsabbildung (mehr barthaare differenzierbar)?

    ich hoffe sehr ich wirke nicht wie ein troll :/

  11. Re: Verstehe ich nicht

    Autor: paulw72 18.01.18 - 16:19

    Ein farbiges Bildpixel wird aus den Helligkeitsinformationen von je 4 benachbarten Sensorpixeln mit vorgesetzten Farbfiltern errechnet. Daher braucht man pro Bildpixel 4 Sensorpixel. Alternativ kann man schnell nacheinander 4 Bilder machen und dabei Sensor und Filtermatrix so gegeneinander verschieben, dass die Sensorpixel jedes Mal durch eine andere Filterfarbe schauen. So ist jedes Sensorpixel mit jeder Farbe belichtet worden, und nach dem Zusammenrechnen hat man ein Bild mit der 4-fachen Auflösung. Das gibt es von Pentax schon seit Jahren in vergleichweise günstigen DSLRs.

  12. Re: Verstehe ich nicht

    Autor: Der Spatz 18.01.18 - 16:50

    Jein.

    Wie macht das eine normale Kamera:

    Der Sensor hat über jeden Pixel einen von drei verschiedenfarbigen Filtern.

    Bild wird gemacht Pixel 1 hat die Helligkeitsinformation "Rot" Pixel 2 und 4 Grün und Pixel 3 die Blauinformation.

    Also was macht man (um für jeden der 4 Pixel alle Farbinformationen zu bekommen?

    Pixel 1 (R,G,B) = R von Pixel 1, B von P3 und Grün aus P2+P4/2
    P2 = R von Pixel 1, B von P3, G von P2
    P3 = R von Pixel 1, B von P3 und Grün aus P2+P4/2
    P4 =R von Pixel 1, B von P3, G von P2

    Diese Interpolation für jeden Pixel macht das Bild dann "verschwommener"

    Die Hassi macht jetzt vier Aufnahmen wobei jetzt die Aufnahme jeweils um einen Pixel verschoben ist. Somit liegt bei der 2. Aufnahme P2 grenau an der Position von P1, bei der dritten P3 an der Position von P1 und bei der vierten P4 an der Position von P1.

    P(#Aufnahme, an Position von Pixel)

    Diese vier Bilder kann ich dann wie folgt zu einem Bild zusammenfügen:

    P1(R,G,B) = R von 1. Aufnahme, B von dritter Aufnahme und Grün als Mittelwert von der 2. und 4. Aufnahme.

    Somit muss ich nicht mehr räumlich vom Nachbar-Pixel interpolieren sondern nur noch Zeitlich (Alle vier Farbwerte sind ja an der gleichen Position aufgenommen worden)

    Extreme Details werden "Schärfer Abgebildet" (bzw. es fehlt der räumliche Interpolationsverlust).

    Und da wir ja beim Marketing sind - sind das halt 4 Aufnahmen a 100MP = 400 MP (obwohl es auch nur wieder 100MP sind, diesmal ohne räumliche Interpolation).

    Die zwei Zwischenbilder könnten eventuell dazu dienen Farbkanten zu erkennen um diagonale Linien per Anti-Aliasing (mit echten Farbdaten) zu glätten oder Moire zu erkennen (und an den stellen dann eine lokale Anti-Moire Funktion (wenn aktiviert) anzuwenden.

    Da ist dann aber wieder der Hersteller - Interpolations-Voodoo wichtig-





    P1 =

  13. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 16:57

    also könnte ich quasi auch das gleiche bild vier mal aufnehmen, einmal ohne, einmal mit blau, rot und dann mit grün-filter und könnte dann das selbe Ergebnis errechnen?

    wenn das jetzt immer noch falsch ist, dann gebe ich auf für heute und verschwende nicht weiter eure zeit :)

  14. Re: Verstehe ich nicht

    Autor: Poison Nuke 18.01.18 - 16:59

    zenker_bln schrieb:
    --------------------------------------------------------------------------------
    > Die verschiebung um einen halben pixel sehe ich allerdings als sinnfreie
    > aufblähung der dateigröße an, wenn dort nicht ebenfalls alle rgbwert
    > ermittelt werden,

    es ist das Gegenteil von sinnfrei. Solange das Bild nur um 1 Pixel verschoben wird, wird die Auflösung nicht höher! Die ersten 4 Schritte sorgen einfach nur für eine höhere Farbauflösung.


    Erst durch die halbe Verschiebung wird die eigentliche Vergrößerung der Auflösung erreicht. Denn das ist das gleiche als wenn man einen Sensor mit doppelt so hoher Auflösung hätte. Du könntest dir auch gleich einen 400MPx Sensor einbauen, der hätte aber im Endeffekt sogar eine geringere Auflösung als dieses Verfahren hier, da hier die Farbauflösung doppelt so hoch ist und nur noch halb so viel interpoliert werden muss.

  15. Re: Verstehe ich nicht

    Autor: Poison Nuke 18.01.18 - 17:03

    ecv schrieb:
    --------------------------------------------------------------------------------
    > also könnte ich quasi auch das gleiche bild vier mal aufnehmen, einmal
    > ohne, einmal mit blau, rot und dann mit grün-filter und könnte dann das
    > selbe Ergebnis errechnen?

    das ist halb richtig. Mit deinem Verfahren erreichst du das Ergebnis der ersten vier Schritte, bei denen immer genau um 1Px verschoben wird. Man hat dann in allen Farbkanälen die maximale Auflösung.

    Aber um die reale Auflösung zu erhöhen, musst du eben zwischen den Pixeln abtasten. Wenn du um einen halben Pixel verschiebst, bist du an genau der Position, wo bei einer doppelt so hohen Sensorauflösung der echte Pixel liegen würde.

  16. Re: Verstehe ich nicht

    Autor: Der Spatz 18.01.18 - 17:17

    Mit einem Sensor ohne eingebauten "Farbfilter" - quasi ja.

    Die virtuelle Auflösungsvervierfachung machen sie mit der 5. und 6. Aufnahme zwischen den Pixeln (wobei hier dann wieder räumlich interpoliert werden muss - zumindest etwas).

    Nimm einen SW sensor mach (eigentlich nur Drei aufnahmen notwendig in diesem Fall - 2x grün braucht man dann ja nicht wirklich) drei Aufnahmen, einmal mit rot mit grün und mit Blaufilter und du hast ein 100MP Echtfarbbild (anstelle eines Farbinterpolierten).

    Hasselblad macht dann "vereinfacht" noch ein zweites 100MP Echtfarbbild mit um 1/2 nach unten und 1/2 Pixel rechts verschobenen Sensor.

    Somit 200MP echte Farbpixel (X= Pixel O = Lücke wo eigentlich noch ein Pixel hinmüsste) mit dem Muster:

    XOXOXOXOXO
    OXOXOXOXOX
    XOXOXOXOXO
    OXOXOXOXOX

    Die Lücken werden dann aus den Informationen der vier umgebenden Pixel interpoliert um auf ein brauchbares Pixelmuster zu kommen wodurch man dann ein 400MP Bild mit 200 echten FarbPixeln und 200MP Interpolierten Pixeln bekommt.

    Mit einem 400MP Bayern Pattern Sensor hätte man 100MP Rot, 100MP blau und 200MP grün als echte information die dann zu 400MP EchtfarbPixeln interpoliert werden. Womit dann wahrscheinlich die Qualität beim Multishot Bild real höher wäre (aber halt nur bei statischen Objekten im Bild)

  17. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 17:25

    zenker_bln schrieb:
    --------------------------------------------------------------------------------
    > Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne
    > pixelshift an, um zu sehen, was reale rgb-werte bringen

    Es sind übrigens immer noch keine "realen" rgb Werte. Mit der Methode wird letztlich einfach nur die Pixelempfindlichkeit auf RGB gesteigert, und so eine bessere, zuverlässigere Interpolation ermöglicht. Am Ende ist das ganze aber immer noch eine Bayer Matrix, jede Farbe also reine Interpolation aus "Schätzwerten", die dann aber zuverlässiger und genauer geschätzt werden.

  18. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 18:14

    theFiend schrieb:
    --------------------------------------------------------------------------------
    > zenker_bln schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne
    > > pixelshift an, um zu sehen, was reale rgb-werte bringen
    >
    > Es sind übrigens immer noch keine "realen" rgb Werte. Mit der Methode wird
    > letztlich einfach nur die Pixelempfindlichkeit auf RGB gesteigert, und so
    > eine bessere, zuverlässigere Interpolation ermöglicht.

    Nein!
    Beim Pixelshift wird der Bayer-Matrix-Sensor so verschoben, das jeder Punkt/Pixel des Bildes einmal von einem roten, grünen und blauen Subpixel des Sensors erfasst wird.
    Damit hasst du für jedes Pixel die realen RGB-Werte und musst diese nicht aus der Bayer-Matrix interpolieren, welches immer Fehler erzeugt.

  19. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 18:24

    Du kannst verschieben so viel du willst, bayer matrix bleibt bayer matrix.
    Der einzige Unterschied ist, das du per pixelshift die präzision steigerst.

    Du hast z.B. auch beim Multishot weiterhin Moiré.



    1 mal bearbeitet, zuletzt am 18.01.18 18:27 durch theFiend.

  20. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 18:34

    Natürlich bleibt eine Matrix eine Matrix.
    Wenn ich aber jeden Punkt des Bildes dreimal mit für die jeweilige Farbe unterschiedlichen Sub-Pixeln scanne, habe ich für jeden Punkt drei Werte (jeweils eine für R,G und B) und kann dann das Bayerpattern außer acht lassen.
    Ich habe dann nämlich für jedes Pixel die drei RGB-Werte ermittelt.
    Und wenn ich für jedes Pixel die drei RGB-Werte ermittelt habe, muss ich mir nicht mehr im RAW-Konverter was zusammeninterpolieren - die drei RGB-Werte stehen ja zur Verfügung für jedes Pixel.

    Siehe auch:

    http://www.imaging-resource.com/PRODS/pentax-k3-ii/pentax-k3-iiTECH2.HTM



    1 mal bearbeitet, zuletzt am 18.01.18 18:43 durch zenker_bln.

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. Hays AG, Raum Nürnberg
  2. SICK AG, Waldkirch bei Freiburg im Breisgau
  3. B&R Industrial Automation GmbH, Essen
  4. Bosch Gruppe, Abstatt

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Acer Predator XB241Hbmipr für 299€ statt 364,90€ im Vergleich)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Yuneec H520: 3D-Modell aus der Drohne
Yuneec H520
3D-Modell aus der Drohne

Multikopter werden zunehmend auch kommerziell verwendet. Vor allem machen die Drohnen Luftbilder und Inspektionsflüge und vermessen. Wir haben in der Praxis getestet, wie gut das mit dem Yuneec H520 funktioniert.
Von Dirk Koller


    Autonome Schiffe: Und abends geht der Kapitän nach Hause
    Autonome Schiffe
    Und abends geht der Kapitän nach Hause

    Weite Reisen in ferne Länder, eine Braut in jedem Hafen: Klischees über die Seefahrt täuschen darüber hinweg, dass diese ein Knochenjob ist. Doch in wenigen Jahren werden Schiffe ohne Besatzung fahren, überwacht von Steuerleuten, die nach dem Dienst zur Familie zurückkehren. Daran arbeitet etwa Rolls Royce.
    Ein Bericht von Werner Pluta

    1. Elektromobilität San Francisco soll ein Brennstoffzellenschiff bekommen
    2. Yara Birkeland Autonome Schiffe sind eine neue Art von Transportsystem
    3. Power Pac Strom aus dem Container für Ozeanriesen

    IT: Frauen, die programmieren und Bier trinken
    IT
    Frauen, die programmieren und Bier trinken

    Fest angestellte Informatiker sind oft froh, nach Feierabend nicht schon wieder in ein Get-together zu müssen. Doch was ist, wenn man kein Team hat und sich selbst Programmieren beibringt? Women Who Code veranstaltet Programmierabende für Frauen, denen es so geht. Golem.de war dort.
    Von Maja Hoock

    1. Software-Entwickler CDU will Online-Weiterbildung à la Netflix
    2. Job-Porträt Cyber-Detektiv "Ich musste als Ermittler über 1.000 Onanie-Videos schauen"
    3. Bundesagentur für Arbeit Ausbildungsplätze in der Informatik sind knapp

    1. Neue API-Lücke: Google+ macht noch schneller zu
      Neue API-Lücke
      Google+ macht noch schneller zu

      Googles Mutterkonzern Alphabet macht das soziale Netzwerk Google+ aufgrund eines neu entdeckten Fehlers in der API noch schneller zu als ursprünglich geplant. Nun soll schon im April 2019 Schluss sein.

    2. Überschallauto: Rekordfahrzeug Bloodhound SSC wird verkauft
      Überschallauto
      Rekordfahrzeug Bloodhound SSC wird verkauft

      Es sollte schneller fahren als jedes Auto zuvor und sogar schneller sein als der Schall. Es war aber langsamer als die Pleite: Das britische Bloodhound Project ist insolvent.

    3. Capcom: Der Hexer jagt in Monster Hunter World
      Capcom
      Der Hexer jagt in Monster Hunter World

      Gegen Ende 2019 erscheint eine große Erweiterung namens Iceborne für Monster Hunter World, ein paar Monate davor tritt der Hexenmeister an. Die Hauptfigur aus The Witcher 3 soll mit seiner typischen Mischung aus Schwertkampf und Magie auf die Jagd gehen.


    1. 21:00

    2. 18:28

    3. 18:01

    4. 17:41

    5. 16:43

    6. 15:45

    7. 15:30

    8. 15:15