1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › JPEG macht Weg für neuen…

Moment. Bedeutet das nicht auch...

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Moment. Bedeutet das nicht auch...

    Autor: spanther 30.01.09 - 12:22

    ... wenn stärker in den Files komprimiert wird das wenn derselbe kbit teil eines jpeg's kaputt ist (was man in der Bildansicht daran erkennt das einige stellen Grau bleiben) dann noch mehr Bild fehlt?

    Also ein höheres Risiko für noch mehr verlohrene Bildinformationen bei gleichem Datenverlust existieren?

  2. Re: Moment. Bedeutet das nicht auch...

    Autor: Slark 30.01.09 - 12:25

    Genau

  3. Jein

    Autor: Raven 30.01.09 - 12:42

    spanther schrieb:
    -------------------------------------------------------
    > ... wenn stärker in den Files komprimiert wird das
    > wenn derselbe kbit teil eines jpeg's kaputt ist
    > (was man in der Bildansicht daran erkennt das
    > einige stellen Grau bleiben) dann noch mehr Bild
    > fehlt?

    Das stimmt, bei einer halb so großen Datei wirkt sich die gleiche Menge kaputter Daten doppelt so stark aus.

    > Also ein höheres Risiko für noch mehr verlohrene
    > Bildinformationen bei gleichem Datenverlust
    > existieren?

    Das stimmt nicht, denn Fehler bei der Speicherung/Übertragung treten bei einer halb so großen Datei auch nur halb so wahrscheinlich auf.

  4. Re: Jein

    Autor: spanther 30.01.09 - 12:50

    Raven schrieb:
    -------------------------------------------------------
    > spanther schrieb:
    > --------------------------------------------------
    > -----
    > > ... wenn stärker in den Files komprimiert
    > wird das
    > wenn derselbe kbit teil eines jpeg's
    > kaputt ist
    > (was man in der Bildansicht daran
    > erkennt das
    > einige stellen Grau bleiben) dann
    > noch mehr Bild
    > fehlt?
    >
    > Das stimmt, bei einer halb so großen Datei wirkt
    > sich die gleiche Menge kaputter Daten doppelt so
    > stark aus.
    >
    > > Also ein höheres Risiko für noch mehr
    > verlohrene
    > Bildinformationen bei gleichem
    > Datenverlust
    > existieren?
    >
    > Das stimmt nicht, denn Fehler bei der
    > Speicherung/Übertragung treten bei einer halb so
    > großen Datei auch nur halb so wahrscheinlich auf.


    Weckt in mir dann trotzdem einen faden Nebengeschmack :-(

    Irgendwie....

    Die Technik verbessern ist ja prima. Aber wieso noch stärkere Kompression....
    Reicht die Kompression denn nicht? Sind die Dateien nicht heute schon winzig? Wir leben doch nicht in Zeiten von Disketten...

    In Zeiten von 2TB Platten müssen die unbedingt noch extremer komprimieren und somit noch mehr Fehlergefahr riskieren? :-(

  5. Re: Jein

    Autor: dekaden|Z 30.01.09 - 13:14

    Gibt ja Fehlererkennungs- und korrekturverfahren um sowas aufzufangen. Da fällt mir z. B. Hamming-Code ein und für verlustbehaftet komprimierte Frequenzraumdaten wie in JPEG gibt es wohl noch effizientere Verfahren.

  6. Re: Jein

    Autor: spanther 30.01.09 - 13:20

    dekaden|Z schrieb:
    -------------------------------------------------------
    > Gibt ja Fehlererkennungs- und korrekturverfahren
    > um sowas aufzufangen. Da fällt mir z. B.
    > Hamming-Code ein und für verlustbehaftet
    > komprimierte Frequenzraumdaten wie in JPEG gibt es
    > wohl noch effizientere Verfahren.


    Klar gibts die aber ich frage hier doch "wiesoooooo" :-)

    Wofür das ganze. Welchen Sinn soll dies haben. Noch stärkere Kompression wobei die heutige doch schon stark ist und Bilder haufenweise auf Platte gespeichert werden können wobei Platten gigantische Speicherkapazitäten haben und spottbillig sind...

    Ich möchte so langsam eher Abstand von Kompression nehmen zumindest bei Bildern auf "wenigstens" weichere Kompressionen wechseln :-)

  7. Re: Jein

    Autor: cyro 30.01.09 - 13:37

    > Klar gibts die aber ich frage hier doch
    > "wiesoooooo" :-)
    >
    > Wofür das ganze. Welchen Sinn soll dies haben.
    > Noch stärkere Kompression wobei die heutige doch
    > schon stark ist und Bilder haufenweise auf Platte
    > gespeichert werden können wobei Platten
    > gigantische Speicherkapazitäten haben und
    > spottbillig sind...

    Abgesehen vom eingesparten Speicherplatz können kleine Dateien auch schneller übertragen werden. Zudem wirkt sich das nicht nur positiv beim Empfänger aus, sondern spart auch haufenweise Traffik beim Sender. Bei einer Durchschnittswebseite fällt das sicherlich kaum ins Gewicht aber bei einer Grafiklastigen Seite wie z.B. deviantart.com könnten hunderte GByte Traffik monatlich eingespart werden.

  8. Re: Jein

    Autor: artefakt 30.01.09 - 13:40

    naja jpeg un die dahinterliegende DCT sind eben nicht mehr stand der technik. feste blockgrößen, feste funktionen sind ein beispiel , wenn das ganze noch effektiver wird warum nicht? sonst würden wir heute immer noch trommeln!

    was ich mich frage ist: mehr dynamik ist richtig, aber: die meisten jpegs sind 2 fach farbunterabgetastet, hier könnte man erstmal loslegen bevor man ein neues format schmiedet. dazu kommt noch, dass die meisten kameras grad mal 10 bit dynamik haben. geschweige denn von der rgb abtastung bzw die anordnung der einzelnen sub-pixeln


    was bringt es, wenn die monitore etc garnicht die dynamik untersützen ? wie hoch ist die dynamik bei entwicklung im fotolabor ? die meisten bilder sind ja total mies, wenn man sie entwickeln lässt!

    der artikel fist totaler mist, keine angaben, keine details!

  9. Re: Jein

    Autor: artefakt 30.01.09 - 13:42

    rechne dagegen die höhere cpu last durch aufwändigere verfahren ;) CO2 und stromkosten!

  10. Höhere Komprimierung <> höhere CPU-Last

    Autor: cyro 30.01.09 - 13:46

    Wer sagt den, dass die höhere Komprimierung eine höhere Auslastung nach sich zieht. Eventuell kommen einfach andere Verfahren zum Einsatz.

    Zudem wäre für mich als Seitenbetreiber die höhere Auslastung ein null-Argument. Den die höhere Auslastung fällt beim Kunden an, nicht bei mir auf dem Server.

  11. Re: Jein

    Autor: spanther 30.01.09 - 13:48

    artefakt schrieb:
    -------------------------------------------------------
    > naja jpeg un die dahinterliegende DCT sind eben
    > nicht mehr stand der technik. feste blockgrößen,
    > feste funktionen sind ein beispiel , wenn das
    > ganze noch effektiver wird warum nicht? sonst
    > würden wir heute immer noch trommeln!
    >
    > was ich mich frage ist: mehr dynamik ist richtig,
    > aber: die meisten jpegs sind 2 fach
    > farbunterabgetastet, hier könnte man erstmal
    > loslegen bevor man ein neues format schmiedet.
    > dazu kommt noch, dass die meisten kameras grad mal
    > 10 bit dynamik haben. geschweige denn von der rgb
    > abtastung bzw die anordnung der einzelnen
    > sub-pixeln
    >
    > was bringt es, wenn die monitore etc garnicht die
    > dynamik untersützen ? wie hoch ist die dynamik bei
    > entwicklung im fotolabor ? die meisten bilder sind
    > ja total mies, wenn man sie entwickeln lässt!
    >
    > der artikel fist totaler mist, keine angaben,
    > keine details!


    Es gibt ja sehr handliche Großsensorik Spiegelreflexkameras. Damit könnte man ja Fotos machen in guter Qualität. Gibts da eigentlich auch welche die im PNG Format speichern können? :-)

  12. Re: Höhere Komprimierung <> höhere CPU-Last

    Autor: spanther 30.01.09 - 13:50

    cyro schrieb:
    -------------------------------------------------------
    > Wer sagt den, dass die höhere Komprimierung eine
    > höhere Auslastung nach sich zieht. Eventuell
    > kommen einfach andere Verfahren zum Einsatz.
    >
    > Zudem wäre für mich als Seitenbetreiber die höhere
    > Auslastung ein null-Argument. Den die höhere
    > Auslastung fällt beim Kunden an, nicht bei mir auf
    > dem Server.


    Erzeugt dann aber da sie nicht auf deinem Server gilt viel mehr CO2, da ja dann jeder PC der deine Seite besucht dafür rechnen muss :-)

    Ja oke lassen wir das ist sowieso schwachsinnig über die paar mW zu streiten *g*

  13. Re: Moment. Bedeutet das nicht auch...

    Autor: chillum 30.01.09 - 13:57

    Benutz doch ausschließlich das BMP-Format ? ;P

    Ich hab schon seit Monaten kein Bit verloren, bzw. hab ich davon dank TCP/IP nix gemerkt ;).

    Müßte man nur schauen wieviele Operationen pro durchschnittlichem Bild jetzt anfallen werden. Wenns nicht allzuteuer ist die Dinger anzuzeigen ist es doch super.

    Oder fallen jemandem ernsthafte, größerere Nachteile ein ?

  14. Re: Höhere Komprimierung <> höhere CPU-Last

    Autor: artefakt 30.01.09 - 14:10

    gut niemand weiß genau wie es funktioniert jpeg 2000 benutzt DWT, die ist nunmal aufwändiger als DCT

  15. Re: Jein

    Autor: Raven 30.01.09 - 14:59

    > Die Technik verbessern ist ja prima. Aber wieso
    > noch stärkere Kompression....

    Zum Beispiel, weil Kameras eine höhere Bildauflösung und Dynamik wiedergeben.

    > Reicht die Kompression denn nicht? Sind die
    > Dateien nicht heute schon winzig? Wir leben doch
    > nicht in Zeiten von Disketten...

    Keine Sorge, die Dateien werden trotzdem immer größer. Zu Disketten-Zeiten waren Durchschnittsgrafiken unkomprimiert vielleicht ein paar kB groß, nun haben wir Kameras die pro Bild dreistellige Megabyte-Volumen produzieren.

    > In Zeiten von 2TB Platten müssen die unbedingt
    > noch extremer komprimieren und somit noch mehr
    > Fehlergefahr riskieren? :-(

    Das ist ganz großer Unfug. Es gibt keinen vernünftigen Grund, warum kleine Dateien schneller kaputtgehen sollten als große. Im Gegenteil. Und wenn deine Daten durch Kompression halb soviel Platz einnehmen, hast du auch noch 50% mehr für Redundanz/Checksummen/Backups.

  16. Re: Jein

    Autor: robinx 30.01.09 - 15:20

    Die frage nach dem wieso könnte man durchaus beantworten. Geringere datei größe geringere Traffic kosten, wenn man dateien irgendwo hostet. Mehr fotos auf der gleichen speicherkarte bei digital kameras. Vorallem könnte es sehr praktisch bei sehr großen bildern sein, wenn man sich mal die größen von den photos einer 10 megapixel kamera so anschaut das ist nicht mehr so leicht zu handeln und man will evtl. nicht immer und überall die auflösung verkleinern, von den "riesiegen" nasa fotos von planeten mal ganz abgesehen

  17. Re: Höhere Komprimierung <> höhere CPU-Last

    Autor: -.- 30.01.09 - 15:26

    AAC ist aber z.B. weniger aufwändig als MP3, bei gleicher Bitrate - dafür ist die Qualität besser. Nicht nur die Hardware wird weiterentwickelt, sondern auch die Algorithmen.

  18. Re: Jein

    Autor: spanther 30.01.09 - 15:34

    robinx schrieb:
    -------------------------------------------------------
    > Die frage nach dem wieso könnte man durchaus
    > beantworten. Geringere datei größe geringere
    > Traffic kosten, wenn man dateien irgendwo hostet.
    > Mehr fotos auf der gleichen speicherkarte bei
    > digital kameras. Vorallem könnte es sehr praktisch
    > bei sehr großen bildern sein, wenn man sich mal
    > die größen von den photos einer 10 megapixel
    > kamera so anschaut das ist nicht mehr so leicht zu
    > handeln und man will evtl. nicht immer und überall
    > die auflösung verkleinern, von den "riesiegen"
    > nasa fotos von planeten mal ganz abgesehen


    Dann hast du aber sowieso das Problem (zumindest bei normalen üblichen Haushaltskameras) mit kleinem CCD dass du bei den 10 und mehr Megapixel eh nurnoch schwammigen rauschenden Mist aufzeichnest ;-/

    Dann hast du zwar 10mpixel Bild aber wenn du es auf Originalgröße stellst und genau betrachtest sieht es unscharf aus und hat derbes Bildrauschen :-(

  19. Re: Jein

    Autor: Fortschritt ist immer gut 31.01.09 - 11:26

    > Wofür das ganze. Welchen Sinn soll dies haben. Noch stärkere Kompression wobei die heutige doch schon stark ist und Bilder haufenweise auf Platte gespeichert werden können wobei Platten gigantische Speicherkapazitäten haben und spottbillig sind...
    Es geht ja wohl kaum um die Plattengröße. Wenn ich meine Bilder in der Hälfte der Zeit beim Entwicklungsladen hochladen kann, ist das auf jeden Fall sinnvoll! Und wenn ich doppelt so viele Bilder auf meine Speicherkarte bekomme, genauso. Durch die steigenden Pixelzahlen werden auch JPEGs heute sehr groß.

  20. Re: Jein

    Autor: spanther 31.01.09 - 13:33

    Fortschritt ist immer gut schrieb:
    -------------------------------------------------------
    > > Wofür das ganze. Welchen Sinn soll dies
    > haben. Noch stärkere Kompression wobei die heutige
    > doch schon stark ist und Bilder haufenweise auf
    > Platte gespeichert werden können wobei Platten
    > gigantische Speicherkapazitäten haben und
    > spottbillig sind...
    > Es geht ja wohl kaum um die Plattengröße. Wenn ich
    > meine Bilder in der Hälfte der Zeit beim
    > Entwicklungsladen hochladen kann, ist das auf
    > jeden Fall sinnvoll! Und wenn ich doppelt so viele
    > Bilder auf meine Speicherkarte bekomme, genauso.
    > Durch die steigenden Pixelzahlen werden auch JPEGs
    > heute sehr groß.


    Gleichzeitig sinken die Preise für Speichermedien aber auch drastisch und heutige High End Größen an Speicherchips sind morgen schon wieder klein und günstig. Von daher relativiert sich das eigentlich ziemlich.

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. DIgSILENT GmbH, Gomaringen
  2. ITERGO Informationstechnologie GmbH, Düsseldorf
  3. KION Group AG, Frankfurt am Main
  4. Rational AG, Landsberg am Lech

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)
  2. (u. a. MSI Optix G24C für 155,00€, Asus VP278H für 125,00€, LG 27UD59-W für 209,00€ und HP...
  3. 1439,90€ (Vergleichspreis: 1530,95€)


Haben wir etwas übersehen?

E-Mail an news@golem.de


Sicherheitslücken: Microsoft-Parkhäuser ungeschützt im Internet
Sicherheitslücken
Microsoft-Parkhäuser ungeschützt im Internet

Eigentlich sollte die Parkhaussteuerung nicht aus dem Internet erreichbar sein. Doch auf die Parkhäuser am Microsoft-Hauptsitz in Redmond konnten wir problemlos zugreifen. Nicht das einzige Sicherheitsproblem auf dem Parkhaus-Server.
Von Moritz Tremmel

  1. Datenleck Microsoft-Datenbank mit 250 Millionen Support-Fällen im Netz
  2. Office 365 Microsoft testet Werbebanner in Wordpad für Windows 10
  3. Application Inspector Microsoft legt Werkzeug zur Code-Analyse offen

Digitalisierung: Aber das Faxgerät muss bleiben!
Digitalisierung
Aber das Faxgerät muss bleiben!

"Auf digitale Prozesse umstellen" ist leicht gesagt, aber in vielen Firmen ein komplexes Unterfangen. Viele Mitarbeiter und Chefs lieben ihre analogen Arbeitsmethoden und fürchten Veränderungen. Andere wiederum digitalisieren ohne Sinn und Verstand und blasen ihre Prozesse unnötig auf.
Ein Erfahrungsbericht von Marvin Engel

  1. Arbeitswelt SAP-Chef kritisiert fehlende Digitalisierung und Angst
  2. Deutscher Städte- und Gemeindebund "Raus aus der analogen Komfortzone"
  3. Digitalisierungs-Tarifvertrag Regelungen für Erreichbarkeit, Homeoffice und KI kommen

Elektroautos in Tiefgaragen: Was tun, wenn's brennt?
Elektroautos in Tiefgaragen
Was tun, wenn's brennt?

Was kann passieren, wenn Elektroautos in einer Tiefgarage brennen? Während Brandschutzexperten dringend mehr Forschung fordern und ein Parkverbot nicht ausschließen, wollen die Bundesländer die Garagenverordnung verschärfen.
Eine Analyse von Friedhelm Greis

  1. Mercedes E-Econic Daimler elektrifiziert den Müllwagen
  2. Umweltprämie für Elektroautos Regierung verzögert Prüfung durch EU-Kommission
  3. Intransparente Preise Verbraucherschützer mahnen Ladenetzbetreiber New Motion ab

  1. Elektromobilität: E.Go verkauft weniger Autos als geplant
    Elektromobilität
    E.Go verkauft weniger Autos als geplant

    Der Autohersteller E.Go hat 2019 nur 540 statt der geplanten 600 Autos verkauft. 2020 sollen es 5.100 Fahrzeuge werden.

  2. Lightning vs. USB-C: USB-Konsortium war zu träge
    Lightning vs. USB-C
    USB-Konsortium war zu träge

    Im Streit um den offenen Standard USB-C und Apples eigenen Standard Lightning sind neue Details bekanntgeworden. Das USB-Konsortium gibt sich selbst die Schuld, nicht frühzeitig einen USB-Standard fertig gehabt zu haben, der gegen Lightning hätte bestehen können.

  3. Datenschützer kritisieren: H&M soll Mitarbeiter umfangreich ausspioniert haben
    Datenschützer kritisieren
    H&M soll Mitarbeiter umfangreich ausspioniert haben

    Der schwedische Modehändler Hennes und Mauritz (H&M) soll Mitarbeiter in großem Stil ausspioniert haben. Die zuständige Datenschutzbehörde hat ein Bußgeldverfahren eingeleitet und bezeichnet die Datenschutzverstöße als besonders drastisch.


  1. 07:24

  2. 11:38

  3. 10:35

  4. 10:11

  5. 13:15

  6. 12:50

  7. 11:43

  8. 19:34