Abo
  1. Foren
  2. Kommentare
  3. Foto
  4. Alle Kommentare zum Artikel
  5. › Multi-Shot-Kamera: Hasselblad macht 400…

Verstehe ich nicht

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Verstehe ich nicht

    Autor: HerrMannelig 18.01.18 - 14:05

    Wenn ich den Sensor um 1 Pixel verschiebe, dann erhalte ich doch das gleiche Bild, nur auf einer Seite ein Pixel mehr und auf der anderen ein Pixel weniger?

    Und wenn ich den Sensor um 0,5 Pixel verschiebe, dann erhalte ich im Endeffekt eine Interpolation aus zwei benachbarten Pixeln, was sich auch mit Software lösen würde? Oder sind die Pixel entsprechend klein, dass damit "Zwischenraum", der sonst nicht erfasst wird, abgelichtet wird?

  2. Re: Verstehe ich nicht

    Autor: ad (Golem.de) 18.01.18 - 14:23

    HerrMannelig schrieb:
    --------------------------------------------------------------------------------
    > Wenn ich den Sensor um 1 Pixel verschiebe, dann erhalte ich doch das
    > gleiche Bild, nur auf einer Seite ein Pixel mehr und auf der anderen ein
    > Pixel weniger?
    >
    > Und wenn ich den Sensor um 0,5 Pixel verschiebe, dann erhalte ich im
    > Endeffekt eine Interpolation aus zwei benachbarten Pixeln, was sich auch
    > mit Software lösen würde? Oder sind die Pixel entsprechend klein, dass
    > damit "Zwischenraum", der sonst nicht erfasst wird, abgelichtet wird?


    Schauen sie sich mal die neue Animation an, dann wird es klarer.

  3. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 14:33

    Ich stehe leider auch auf dem Schlauch. Alle sechs Bilder nehmen das gleiche auf, nur um ein bzw ein halbes Pixel verschoben. Wo kommen die neuen Informationen her?

  4. Re: Verstehe ich nicht

    Autor: FreierLukas 18.01.18 - 14:45

    Es geht hier um die Subpixel. Die sind Rot, Grün und Blau. Man schiebt den Roten Pixel quasi auf den Blauen und den Grünen und dazwischen auch. Damit nutzt man praktisch die gesamte Sensorfläche für alle Farben aus. Normalerweise nutzt eine Farbe weniger als ein Drittel der Sensorfläche zumal zwischen den Pixeln ein gewisser Isolationabstand sein muss. Je größer der ist desto weniger Leak gibt es von einem auf den anderen Pixel. Durch diese Technik kann man den Abstand vergrößern und gleichzeitig trotzdem die gesamte Fläche nutzen. Ich bin mir sicher dass der Subpixelabstand auf dem Sensor hier besonders groß ist. Das ist aber nur eine Vermutung.



    2 mal bearbeitet, zuletzt am 18.01.18 14:48 durch FreierLukas.

  5. Re: Verstehe ich nicht

    Autor: PiranhA 18.01.18 - 14:48

    Siehe das Bild von Heise:


    Ein Pixel im Sensor besteht ja aus Subpixeln. Also Rot, Grün und Blau, wobei Grün doppelt vorkommt. Durch die Drehung des Sensors nimmt also jeder Subpixel nicht mehr nur an einer Ecke des Pixels auf, sondern an allen vier Ecken. Man teilt also den Pixel noch mal auf in seine Subpixel.
    Durch die Verschiebung um jeweils einen halben Pixel, nimmt man auch noch die Zwischenräume auf.

  6. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 15:09

    Der sensor wird ja nicht gedreht!
    Nur nimmt jedes subpixel jetzt alle rgb-werte auf, so das ich aus der bayer-matrix echte rgb werte im bild habe, was die qualität der bilder enorm steigert.
    Die verschiebung um einen halben pixel sehe ich allerdings als sinnfreie aufblähung der dateigröße an, wenn dort nicht ebenfalls alle rgbwert ermittelt werden, um dann aus den 2 "komplettbildern" ein bild zusammen zu rechnen.

  7. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 15:11

    Heh, die statischen heise-bilder lassen das in der tat verständlicher aussehen als die golem-disco.

    Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für mich nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal 100 meter abstand wäre ja sogar schon die lichtbrechung durch luftfeuchtigkeit zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum? ahrg.

    Ich bleibe bei quantenphysik, die versteht man wenigstens auf Anhieb nicht *g*

    danke für den Versuch :)

  8. Re: Verstehe ich nicht

    Autor: Azzuro 18.01.18 - 15:49

    > Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei
    > landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für mich
    > nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal 100
    > meter abstand wäre ja sogar schon die lichtbrechung durch luftfeuchtigkeit
    > zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum?

    Vielleicht denkst du da zu kompliziert. Eigentlich könnte man sagen, dass man durch diesen Effekt einfach nur "echte" 100 vollfarbige Megapixel bekommt.

    Es ist nämlich so, dass ein Sensor ja eigentlich nur Helligkeit aufnimmt, also ein schwarz/weiß Bild. Der Sensor besteht also aus 100 Megapixel und jeder kann Graustufen von weiß bis schwarz darstellen. Nun will man aber Farbe haben, und packt daher Farbfilter vor die einzelnen Bildpunkte des Sensors, in einer bestimmten Anordnung ("Bayer-Pattern"). Das bedeutet letztlich, dass eine Kamera mit 100 Megapixeln eigentlich nur 100 Megasubpixel hat. Das ist aber insofern nicht so tragisch, weil das menschliche Auge Helligkeit besser auflöst als Farbe. Das macht man sich auch bei diversen Bild und Fotokompressionstechnicken zu nutze. Bei JPEG z.B. wird nur das das "Graustufenbild" in voller Auflösung abgepeichter, die Farbkanäle dagegen in geringerer Auflösung.

    Es gibt auch Techniken abseits des Bayer-Sensors. Sigma hat z.B. den Foveon Sensor entwickelt. Da liegen quasi drei Sensoren übereinander mit Farbfilertn dazwischen. Daher bekommt jedes Pixel einen R, G und B Wert. Und in teureren Videokameras war /ist es üblich, dass man dort mit drei Sensoren arbeitet, und die Farben mit einem Prisma trennt. Auch da hat man dann für jedes Sensor Pixel einen echten RGB Wert.

  9. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 15:50

    Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne pixelshift an, um zu sehen, was reale rgb-werte bringen

    https://www.dpreview.com/reviews/pentax-k-1/8

    Besonders in feinen strukturen zahlt sich das aus, da dann der raw-konverter die rawbilder nicht aus der bayer-matrix interpolieren muss, sondern auf reale farbwerte zurückgreifen kann.



    2 mal bearbeitet, zuletzt am 18.01.18 16:01 durch zenker_bln.

  10. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 16:18

    Azzuro schrieb:
    --------------------------------------------------------------------------------
    > > Vermultich genügt mein geistiger Horizont trotzdem nicht, subpixel bei
    > > landschaftsaufnahmen wollen mir nicht in den kopf gehen, das macht für
    > mich
    > > nur extrem gezoomten aufnahmen sinn. ich meine echt, bei sagen wir mal
    > 100
    > > meter abstand wäre ja sogar schon die lichtbrechung durch
    > luftfeuchtigkeit
    > > zu hoch um überhaupt an subpixel zu denken. oder geht es genau darum?
    >
    > Vielleicht denkst du da zu kompliziert. Eigentlich könnte man sagen, dass
    > man durch diesen Effekt einfach nur "echte" 100 vollfarbige Megapixel
    > bekommt.
    >
    > Es ist nämlich so, dass ein Sensor ja eigentlich nur Helligkeit aufnimmt,
    > also ein schwarz/weiß Bild. Der Sensor besteht also aus 100 Megapixel und
    > jeder kann Graustufen von weiß bis schwarz darstellen. Nun will man aber
    > Farbe haben, und packt daher Farbfilter vor die einzelnen Bildpunkte des
    > Sensors, in einer bestimmten Anordnung ("Bayer-Pattern"). Das bedeutet
    > letztlich, dass eine Kamera mit 100 Megapixeln eigentlich nur 100
    > Megasubpixel hat. Das ist aber insofern nicht so tragisch, weil das
    > menschliche Auge Helligkeit besser auflöst als Farbe. Das macht man sich
    > auch bei diversen Bild und Fotokompressionstechnicken zu nutze. Bei JPEG
    > z.B. wird nur das das "Graustufenbild" in voller Auflösung abgepeichter,
    > die Farbkanäle dagegen in geringerer Auflösung.
    >
    > Es gibt auch Techniken abseits des Bayer-Sensors. Sigma hat z.B. den Foveon
    > Sensor entwickelt. Da liegen quasi drei Sensoren übereinander mit
    > Farbfilertn dazwischen. Daher bekommt jedes Pixel einen R, G und B Wert.
    > Und in teureren Videokameras war /ist es üblich, dass man dort mit drei
    > Sensoren arbeitet, und die Farben mit einem Prisma trennt. Auch da hat man
    > dann für jedes Sensor Pixel einen echten RGB Wert.

    ohh, da erinnere ich mich an etwas aus meiner ausbildung, wie man ein schwarz-weiß bild aus einem farb-bild berechnet. mit irgendwie 30% rot, etwas mehr blau und sonstwas :)

    also bekomme ich nicht wirklich eine bessere auflösung (mehr barthaare sichtbar) aber eine bessere helligkeitsabbildung (mehr barthaare differenzierbar)?

    ich hoffe sehr ich wirke nicht wie ein troll :/

  11. Re: Verstehe ich nicht

    Autor: paulw72 18.01.18 - 16:19

    Ein farbiges Bildpixel wird aus den Helligkeitsinformationen von je 4 benachbarten Sensorpixeln mit vorgesetzten Farbfiltern errechnet. Daher braucht man pro Bildpixel 4 Sensorpixel. Alternativ kann man schnell nacheinander 4 Bilder machen und dabei Sensor und Filtermatrix so gegeneinander verschieben, dass die Sensorpixel jedes Mal durch eine andere Filterfarbe schauen. So ist jedes Sensorpixel mit jeder Farbe belichtet worden, und nach dem Zusammenrechnen hat man ein Bild mit der 4-fachen Auflösung. Das gibt es von Pentax schon seit Jahren in vergleichweise günstigen DSLRs.

  12. Re: Verstehe ich nicht

    Autor: Der Spatz 18.01.18 - 16:50

    Jein.

    Wie macht das eine normale Kamera:

    Der Sensor hat über jeden Pixel einen von drei verschiedenfarbigen Filtern.

    Bild wird gemacht Pixel 1 hat die Helligkeitsinformation "Rot" Pixel 2 und 4 Grün und Pixel 3 die Blauinformation.

    Also was macht man (um für jeden der 4 Pixel alle Farbinformationen zu bekommen?

    Pixel 1 (R,G,B) = R von Pixel 1, B von P3 und Grün aus P2+P4/2
    P2 = R von Pixel 1, B von P3, G von P2
    P3 = R von Pixel 1, B von P3 und Grün aus P2+P4/2
    P4 =R von Pixel 1, B von P3, G von P2

    Diese Interpolation für jeden Pixel macht das Bild dann "verschwommener"

    Die Hassi macht jetzt vier Aufnahmen wobei jetzt die Aufnahme jeweils um einen Pixel verschoben ist. Somit liegt bei der 2. Aufnahme P2 grenau an der Position von P1, bei der dritten P3 an der Position von P1 und bei der vierten P4 an der Position von P1.

    P(#Aufnahme, an Position von Pixel)

    Diese vier Bilder kann ich dann wie folgt zu einem Bild zusammenfügen:

    P1(R,G,B) = R von 1. Aufnahme, B von dritter Aufnahme und Grün als Mittelwert von der 2. und 4. Aufnahme.

    Somit muss ich nicht mehr räumlich vom Nachbar-Pixel interpolieren sondern nur noch Zeitlich (Alle vier Farbwerte sind ja an der gleichen Position aufgenommen worden)

    Extreme Details werden "Schärfer Abgebildet" (bzw. es fehlt der räumliche Interpolationsverlust).

    Und da wir ja beim Marketing sind - sind das halt 4 Aufnahmen a 100MP = 400 MP (obwohl es auch nur wieder 100MP sind, diesmal ohne räumliche Interpolation).

    Die zwei Zwischenbilder könnten eventuell dazu dienen Farbkanten zu erkennen um diagonale Linien per Anti-Aliasing (mit echten Farbdaten) zu glätten oder Moire zu erkennen (und an den stellen dann eine lokale Anti-Moire Funktion (wenn aktiviert) anzuwenden.

    Da ist dann aber wieder der Hersteller - Interpolations-Voodoo wichtig-





    P1 =

  13. Re: Verstehe ich nicht

    Autor: ecv 18.01.18 - 16:57

    also könnte ich quasi auch das gleiche bild vier mal aufnehmen, einmal ohne, einmal mit blau, rot und dann mit grün-filter und könnte dann das selbe Ergebnis errechnen?

    wenn das jetzt immer noch falsch ist, dann gebe ich auf für heute und verschwende nicht weiter eure zeit :)

  14. Re: Verstehe ich nicht

    Autor: Poison Nuke 18.01.18 - 16:59

    zenker_bln schrieb:
    --------------------------------------------------------------------------------
    > Die verschiebung um einen halben pixel sehe ich allerdings als sinnfreie
    > aufblähung der dateigröße an, wenn dort nicht ebenfalls alle rgbwert
    > ermittelt werden,

    es ist das Gegenteil von sinnfrei. Solange das Bild nur um 1 Pixel verschoben wird, wird die Auflösung nicht höher! Die ersten 4 Schritte sorgen einfach nur für eine höhere Farbauflösung.


    Erst durch die halbe Verschiebung wird die eigentliche Vergrößerung der Auflösung erreicht. Denn das ist das gleiche als wenn man einen Sensor mit doppelt so hoher Auflösung hätte. Du könntest dir auch gleich einen 400MPx Sensor einbauen, der hätte aber im Endeffekt sogar eine geringere Auflösung als dieses Verfahren hier, da hier die Farbauflösung doppelt so hoch ist und nur noch halb so viel interpoliert werden muss.

  15. Re: Verstehe ich nicht

    Autor: Poison Nuke 18.01.18 - 17:03

    ecv schrieb:
    --------------------------------------------------------------------------------
    > also könnte ich quasi auch das gleiche bild vier mal aufnehmen, einmal
    > ohne, einmal mit blau, rot und dann mit grün-filter und könnte dann das
    > selbe Ergebnis errechnen?

    das ist halb richtig. Mit deinem Verfahren erreichst du das Ergebnis der ersten vier Schritte, bei denen immer genau um 1Px verschoben wird. Man hat dann in allen Farbkanälen die maximale Auflösung.

    Aber um die reale Auflösung zu erhöhen, musst du eben zwischen den Pixeln abtasten. Wenn du um einen halben Pixel verschiebst, bist du an genau der Position, wo bei einer doppelt so hohen Sensorauflösung der echte Pixel liegen würde.

  16. Re: Verstehe ich nicht

    Autor: Der Spatz 18.01.18 - 17:17

    Mit einem Sensor ohne eingebauten "Farbfilter" - quasi ja.

    Die virtuelle Auflösungsvervierfachung machen sie mit der 5. und 6. Aufnahme zwischen den Pixeln (wobei hier dann wieder räumlich interpoliert werden muss - zumindest etwas).

    Nimm einen SW sensor mach (eigentlich nur Drei aufnahmen notwendig in diesem Fall - 2x grün braucht man dann ja nicht wirklich) drei Aufnahmen, einmal mit rot mit grün und mit Blaufilter und du hast ein 100MP Echtfarbbild (anstelle eines Farbinterpolierten).

    Hasselblad macht dann "vereinfacht" noch ein zweites 100MP Echtfarbbild mit um 1/2 nach unten und 1/2 Pixel rechts verschobenen Sensor.

    Somit 200MP echte Farbpixel (X= Pixel O = Lücke wo eigentlich noch ein Pixel hinmüsste) mit dem Muster:

    XOXOXOXOXO
    OXOXOXOXOX
    XOXOXOXOXO
    OXOXOXOXOX

    Die Lücken werden dann aus den Informationen der vier umgebenden Pixel interpoliert um auf ein brauchbares Pixelmuster zu kommen wodurch man dann ein 400MP Bild mit 200 echten FarbPixeln und 200MP Interpolierten Pixeln bekommt.

    Mit einem 400MP Bayern Pattern Sensor hätte man 100MP Rot, 100MP blau und 200MP grün als echte information die dann zu 400MP EchtfarbPixeln interpoliert werden. Womit dann wahrscheinlich die Qualität beim Multishot Bild real höher wäre (aber halt nur bei statischen Objekten im Bild)

  17. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 17:25

    zenker_bln schrieb:
    --------------------------------------------------------------------------------
    > Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne
    > pixelshift an, um zu sehen, was reale rgb-werte bringen

    Es sind übrigens immer noch keine "realen" rgb Werte. Mit der Methode wird letztlich einfach nur die Pixelempfindlichkeit auf RGB gesteigert, und so eine bessere, zuverlässigere Interpolation ermöglicht. Am Ende ist das ganze aber immer noch eine Bayer Matrix, jede Farbe also reine Interpolation aus "Schätzwerten", die dann aber zuverlässiger und genauer geschätzt werden.

  18. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 18:14

    theFiend schrieb:
    --------------------------------------------------------------------------------
    > zenker_bln schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Guck dir z.b. Bei dpreview die beispiele der pentax k-1 mit und ohne
    > > pixelshift an, um zu sehen, was reale rgb-werte bringen
    >
    > Es sind übrigens immer noch keine "realen" rgb Werte. Mit der Methode wird
    > letztlich einfach nur die Pixelempfindlichkeit auf RGB gesteigert, und so
    > eine bessere, zuverlässigere Interpolation ermöglicht.

    Nein!
    Beim Pixelshift wird der Bayer-Matrix-Sensor so verschoben, das jeder Punkt/Pixel des Bildes einmal von einem roten, grünen und blauen Subpixel des Sensors erfasst wird.
    Damit hasst du für jedes Pixel die realen RGB-Werte und musst diese nicht aus der Bayer-Matrix interpolieren, welches immer Fehler erzeugt.

  19. Re: Verstehe ich nicht

    Autor: theFiend 18.01.18 - 18:24

    Du kannst verschieben so viel du willst, bayer matrix bleibt bayer matrix.
    Der einzige Unterschied ist, das du per pixelshift die präzision steigerst.

    Du hast z.B. auch beim Multishot weiterhin Moiré.



    1 mal bearbeitet, zuletzt am 18.01.18 18:27 durch theFiend.

  20. Re: Verstehe ich nicht

    Autor: zenker_bln 18.01.18 - 18:34

    Natürlich bleibt eine Matrix eine Matrix.
    Wenn ich aber jeden Punkt des Bildes dreimal mit für die jeweilige Farbe unterschiedlichen Sub-Pixeln scanne, habe ich für jeden Punkt drei Werte (jeweils eine für R,G und B) und kann dann das Bayerpattern außer acht lassen.
    Ich habe dann nämlich für jedes Pixel die drei RGB-Werte ermittelt.
    Und wenn ich für jedes Pixel die drei RGB-Werte ermittelt habe, muss ich mir nicht mehr im RAW-Konverter was zusammeninterpolieren - die drei RGB-Werte stehen ja zur Verfügung für jedes Pixel.

    Siehe auch:

    http://www.imaging-resource.com/PRODS/pentax-k3-ii/pentax-k3-iiTECH2.HTM



    1 mal bearbeitet, zuletzt am 18.01.18 18:43 durch zenker_bln.

  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. solectrix GmbH, Fürth
  2. Technische Hoch­schule Nürnberg Georg Simon Ohm, Nürnberg
  3. Interhyp Gruppe, München
  4. Institut für Arbeitswissenschaft und Technologiemanagement der Universität Stuttgart, Stuttgart

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Pacific Rim Uprising, Game Night, Greatest Showman, Lady Bird, Ghostland, Weltengänger)
  2. WLAN-Repeater 21,60€, 8-Port-Switch 26,60€, Nano WLAN USB-Adapter 5,75€)
  3. (heute u. a. Dockin Bluetooth-Lautsprecher)
  4. (heute u. a. Be quiet Silent Base 601 104,90€, Zyxel-Switch 44,99€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Pixel 3 XL im Test: Algorithmen können nicht alles
Pixel 3 XL im Test
Algorithmen können nicht alles

Google setzt beim Pixel 3 XL alles auf die Kamera, die dank neuer Algorithmen nicht nur automatisch blinzlerfreie Bilder ermitteln, sondern auch einen besonders scharfen Digitalzoom haben soll. Im Test haben wir allerdings festgestellt, dass auch die beste Software keine Dual- oder Dreifachkamera ersetzen kann.
Ein Test von Tobias Költzsch

  1. Dragonfly Google schweigt zu China-Plänen
  2. Nach Milliardenstrafe Google will Android-Verträge offenbar anpassen
  3. Google Android Studio 3.2 unterstützt Android 9 und App Bundles

Shine 3: Neuer Tolino-Reader bringt mehr Lesekomfort
Shine 3
Neuer Tolino-Reader bringt mehr Lesekomfort

Die Tolino-Allianz bringt das Nachfolgemodell des Shine 2 HD auf den Markt. Das Shine 3 erhält mehr Ausstattungsdetails aus der E-Book-Reader-Oberklasse. Vor allem beim Lesen macht sich das positiv bemerkbar.
Ein Hands on von Ingo Pakalski

  1. E-Book-Reader Update macht Tolino-Geräte unbrauchbar

Campusnetze: Das teure Versäumnis der Telekom
Campusnetze
Das teure Versäumnis der Telekom

Die Deutsche Telekom muss anderen Konzernen bei 5G-Campusnetzen entgegenkommen. Jahrzehntelang von Funklöchern auf dem Lande geplagt, wollen Siemens und die Automobilindustrie nun selbst Mobilfunknetze aufspannen. Auch der öffentliche Rundfunk will selbst 5G machen.
Eine Analyse von Achim Sawall

  1. Stadtnetzbetreiber 5G-Netz kann auch aus der Box kommen
  2. Achim Berg "In Sachen Gigabit ist Deutschland ein großer weißer Fleck"
  3. Telefónica Bündelung von Bandbreiten aus 4G und 5G ist doch möglich

  1. Unix: OpenBSD 6.4 kommt mit Schleier und ohne Hyperthreads
    Unix
    OpenBSD 6.4 kommt mit Schleier und ohne Hyperthreads

    Die aktuelle Version 6.4 des Betriebssystems OpenBSD deaktiviert automatisch Hyperthreading auf Intel-Chips. Ein neuer Systemaufruf verschleiert Dateisystemzugriffe, was direkt für den eigenen Hypervisor genutzt wird. Das Team hat außerdem viel Hardware-Unterstützung hinzugefügt.

  2. Urban Mining: Wie aus alten Platinen wieder Kupfer wird
    Urban Mining
    Wie aus alten Platinen wieder Kupfer wird

    Rohre, Kabel, Leiter: Kupfer ist vielseitig verwendbar und der Bedarf steigt ständig. Längst wird das Metall nicht mehr nur aus der Erde geholt, sondern auch aus Elektronikschrott recycelt. Wir haben uns beim Hamburger Unternehmen Aurubis angeschaut, wie das geht.

  3. NVMe-SSDs: Samsung plant mit 4-Bit-Speicher und PCIe Gen4
    NVMe-SSDs
    Samsung plant mit 4-Bit-Speicher und PCIe Gen4

    Bald ein Dutzend neue SSDs in Planung: Samsung arbeitet an der 980/860 QVO mit QLC-Flash-Speicher, auch ist eine 970 Evo Plus mit mehr Geschwindigkeit dank 96-Layer-NAND angesetzt. Zudem wird Samsung einige Modelle mit Controllern für PCIe Gen4 aktualisieren.


  1. 12:58

  2. 12:05

  3. 12:01

  4. 10:59

  5. 10:49

  6. 10:39

  7. 10:15

  8. 09:19