1. Foren
  2. Kommentare
  3. Foto
  4. Alle Kommentare zum Artikel
  5. › Multi-Shot-Kamera: Hasselblad macht 400…
  6. Thema

Verstehe ich nicht

Neue Foren im Freiraum! Raumfahrt und freie Software haben jetzt einen Platz, die Games tummeln sich jetzt alle in einem Forum.
  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 19:09

    Der Irrglaube dem Du aufsitzt, ist halt das du plötzlich "richtige" RGB Werte ermittelst. Du ermittelst die werte aber weiterhin über das Pattern. Das einzige was du per pixel shift verbesserst, ist die die Berechnungsgenauigkeit.
    Dennoch liegt dem ganzen weiterhin, und IMMER die Bayern Matrix zu grunde. An der kommst Du ja nicht vorbei, weil du einfach keine realen RGB Sensoren hast.

  2. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 19:14

    In dem Dokument von Dir geht es übrigens primär um die erhöhung der Auflösung über den Shift, und die simpel damit verbundene Verkleinerung der Pixel als solches, weniger um die genauigkeit der RGB Information.

  3. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 20:02

    theFiend schrieb:
    --------------------------------------------------------------------------------
    > Der Irrglaube dem Du aufsitzt, ist halt das du plötzlich "richtige" RGB
    > Werte ermittelst.

    Nein, das ist kein Irrglaube.

    > Du ermittelst die werte aber weiterhin über das Pattern.

    Nein, du ermittelst durch Verschiebung des Sensors immer um einen Subpixel die RGGB-Werte (ermittelt durch 4 Einzelbilder) des jeweiligen Pixels. Einen G-Wert kannst du streichen, da der ja nicht doppelt benötigt wird für einen RGB-Wert

    > Das einzige was du per pixel shift verbesserst, ist die die
    > Berechnungsgenauigkeit.

    Nein!
    Du ermittelst die RGB-Werte (durch die Sensorverschiebung) für einenPixel.
    Damit musst du im Raw-Konverter keine Interpolation durchführen, die bei einem feststehenden Bayer-Matrix-Sensor von Nöten ist.

    > Dennoch liegt dem ganzen weiterhin, und IMMER die Bayern Matrix zu grunde.

    In dem Falle nicht mehr! Sie ist zwar auf dem Sensor vorhanden, wird aber durch die Verschiebung um die vier Subpixel obsolet.

    > An der kommst Du ja nicht vorbei, weil du einfach keine realen RGB Sensoren
    > hast.

    Ich gebe Dir Recht, das du keinen Sensor hast, der einen RGB-Wert pro Pixel in einem Durchgang aufnimmt, sondern mit der Verschiebung des Sensors dafür vier Bilder benötigst, um für einen Pixel ein RGGB-Schema pro realem Pixel zu erhalten. Aus diesem RGGB-Schema kannst du einen G-Wert streichen und hast dann dein RGB-Pixel.

    Ist aber in den Bildern in dem Link auch erklärt.

  4. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 20:11

    theFiend schrieb:
    --------------------------------------------------------------------------------
    > In dem Dokument von Dir geht es übrigens primär um die erhöhung der
    > Auflösung über den Shift, und die simpel damit verbundene Verkleinerung der
    > Pixel als solches, weniger um die genauigkeit der RGB Information.

    Die Erhöhung der Auflösung kommt aus der Ermittlung der RGB-Werte, weil der RAW-Konverter bei real existerenden RGB-Werten für ein Pixel nicht mehr den Bayersensor dermaßen interpolieren muss, um daraus ein Bild zu machen.
    Durch den Sensorshift (also der 4maligen Verschiebung des Sensor) wird für jedes Pixel der reale RGB-Wert ermittelt. Ein feststehnder Bayer-Matrix-Sensor ermittelt aber nur für jeden Pixel entweder ein Rot/Grün-Wert oder ein Grün/Blau-Wert.
    Die fehlende Komponente eines Pixel muss aus der Interpolation zweier nebeneinader liegnder realer Pixel dann errechnet werden. Das führt zu ungenauigkeiten und dadurch zu Auflösungsverlust des Endbildes

  5. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 20:33

    Ohje...
    Ist ja nett sich darüber zu unterhalten, aber da ist so viel durcheinander geschmissen.
    Am Ende aber auch egal, ich denk die 10 Leute die sich das weltweit kaufen, werden hoffentlich wissen warum ;)



    1 mal bearbeitet, zuletzt am 18.01.18 20:38 durch theFiend.

  6. Re: Verstehe ich nicht

    Autor: happymeal 19.01.18 - 09:29

    Also die Pentax K-1 erzeugt mit ihrem 36-MP-Sensor und Pixelshift ein 36-MP-Bild mit vollständiger RGB-Information pro Pixel.

    Die H6D-400 erzeugt aber aus dem 100-MP-Sensor ein 400-MP-Bild. Das kann doch dann nicht die volle RGB-Farbauflösung haben? Also zumindest nicht wenn nur sechs Bilder verrechnet werden.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Sie müssen ausserdem in Ihrem Account-Profil unter Forum einen Nutzernamen vergeben haben. Zum Login

Stellenmarkt
  1. Security Manager Analyse und Konzeption (w/m/d)
    EnBW Energie Baden-Württemberg AG, Karlsruhe
  2. IT-Systemadminstrator (m/w/d)
    VIVAVIS AG, Bochum, Ettlingen, Koblenz (Home-Office möglich)
  3. SAP ABAP Entwickler (m/w/x)
    über duerenhoff GmbH, Raum Hannover
  4. IT Security Spezialist (m/w/d)
    BAHAG AG, Mannheim

Detailsuche


Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Creative Sound Blaster Z SE für 64,99€ + 6,99€ Versand und Kingston KC2500 2 TB für...
  2. 71,39€ inkl. Abzug (Vergleichspreis 83,99€)
  3. 211,65€ inkl. Abzug (Vergleichspreis 232,94€)
  4. 99,90€ + 5,99€ Versand bei Vorkasse (Vergleichspreis 128,90€)


Haben wir etwas übersehen?

E-Mail an news@golem.de