Abo
  1. Foren
  2. Kommentare
  3. Applikationen
  4. Alle Kommentare zum Artikel
  5. › Videocodec: Suche nach H.265…

Ende der Fahnenstange?

  1. Thema

Neues Thema Ansicht wechseln


  1. Ende der Fahnenstange?

    Autor: johnsonmonsen 09.02.17 - 19:12

    Hallo zusammen!

    Die Codecs werden immer besser, die Dateien immer kleiner. Ich kann mich noch gut daran erinnern, wie es mich förmlich weggerissen hat, als ich meinen ersten kompletten Film auf einer einzigen CD ansah. Keine dicken Kassetten mehr! XviD machte es möglich, wo die SVCDs sogar mit einem Split auf zwei CDs nicht an den neuen Codec herankamen.

    Von H.264 ASP auf AVC war noch mal ein gewaltiger Schritt, HD-Filme (720p) auf eine Single-Layer-DVD waren bei akzeptabler Qualität möglich. Sah vor einiger Zeit mal ein Fußballspiel in 4K im aktuellen HEVC (H.265) und war wieder einmal mehr als erstaunt.

    Wo liegt denn die theoretische Grenze (bzw. der veranschlagte Bereich) der Komprimierung bei subjektiv gleicher Qualität? Verlustbehaftet ist es ja in diesem "Home Cinema"-Zusammenhang eigentlich immer, aber der Eindruck beim Ansehen ist entscheidend.

    Vielleicht weiß jemand hier im Forum weiter und kann die Sache anschaulich erklären. Konnte mich in die zugrundeliegenden Theorien nicht zufriedenstellend einlesen, da mir der mathematische Hintergrund fehlt.

    Viele Grüße :-)!

  2. Re: Ende der Fahnenstange?

    Autor: maverick1977 09.02.17 - 19:28

    johnsonmonsen schrieb:
    --------------------------------------------------------------------------------
    > Vielleicht weiß jemand hier im Forum weiter und kann die Sache anschaulich
    > erklären. Konnte mich in die zugrundeliegenden Theorien nicht
    > zufriedenstellend einlesen, da mir der mathematische Hintergrund fehlt.

    Die simpelste Art der Speicherung ist, wenn man möglichst viele Pixel nicht mehr Bit für Bit speichert, sondern durch Variablen ersetzt.

    Man wandelt die Bilder eines Films in Texturen um und sucht zu jedem nachfolgenden Bild die Änderungen. Somit wird jede Textur berechenbar. Bewegungen, Farbänderungen, Größe. Somit hat man am Ende keine Bilder mehr, die gespeichert werden müssen, sondern ausschließlich die Programmierung der einzelnen Texturen. Dies ist reiner Text, der sich dahingehend noch wesentlich weiter komprimieren lässt.

    Am Ende hast Du nicht mehr den Film und die Audiospur, sondern nur noch die Audiospur und ne Bauanleitung, wie der Film zusammen gesetzt ist. So als Archiv wäre das ne coole Sache. Allerdings ist so etwas mit extrem vielen Rechenoperationen verbunden, was es für das decodieren beim abspielen unmöglich macht. Es dient wirklich nur der Langzeitarchivierung von Videomaterial. Und wenn man einen Film aus dem Archiv braucht, sollte man viel Zeit mitbringen, oder ein paar ordentliche Rechner zu hause haben.

    Quellen gibts dafür keine, weil ich damit bei leibe noch nicht fertig bin. Aber wenn es überhaupt die Serienreife erreicht, wird man sicher darüber lesen.

  3. Re: Ende der Fahnenstange?

    Autor: Trockenobst 09.02.17 - 21:45

    johnsonmonsen schrieb:
    --------------------------------------------------------------------------------
    > Vielleicht weiß jemand hier im Forum weiter und kann die Sache anschaulich
    > erklären. Konnte mich in die zugrundeliegenden Theorien nicht

    Der Vorposter hat eine Option genannt: man berechnet das Bild das man sieht durch Formeln aus. Ganz dumm gesagt: Statt bei Farbe Schwarz 1000 x eine 0 zu speichern, speichert man Formel:(1000x0) In so einem einfachen Fall hat man 980 Bytes gespart.

    Bei komplexeren Bildteilen braucht man sehr komplexe Formeln. Es gibt z.B. die Idee hierzu Fraktale zu nutzen, die mit wenigen Formeln große Komplexität erzeugen können. Ideal wäre es so: man zerlegt das einzelne Bild in entsprechende Blöcke, was ändert sich von Bild zu Bild stark, was eher schwach. Diese Blöcke hängen an sehr vielen (100.000enden) sehr komplexen Fraktalgeneratoren.

    Diese generieren in einem gewissen Timing Muster, die beim übereinanderlegen genau den Block des Bildes zum Zeitpunkt X erzeugen. Wenn man also ganz viele dieser Generatoren hat, muss man nicht mehr die einzelnen Pixel speichern, sondern beschreibt das gesamte Bild mit der Reihe der Mustererzeuger nutze 987832, 387723, 873040, 387294 etc.

    Das Problem ist, dass die heutige Rechenpower für typische komplexe Datenpakete nicht ausreicht, um das in anständiger Weise zurückzurechnen.



    1 mal bearbeitet, zuletzt am 09.02.17 21:47 durch Trockenobst.

  4. Re: Ende der Fahnenstange?

    Autor: johnsonmonsen 09.02.17 - 23:07

    Hallo maverick1977 & Trockenobst!

    Vielen Dank für Eure Antworten. Dazu fiel mir noch etwas ein.

    >Man wandelt die Bilder eines Films in Texturen um und sucht zu jedem nachfolgenden Bild die Änderungen. Somit wird jede Textur berechenbar.

    Soviel ich mitbekommen habe, findet bei bisherigen Codecs dieser Vergleich der Änderungen des Bildinhaltes innerhalb einer GOP (Group of Pictures) statt, die sich, so glaube ich, beim XviD Codec auf maximal 250 Bilder erstreckt. Stimmt das?

    >Am Ende hast Du nicht mehr den Film und die Audiospur, sondern nur noch die Audiospur und ne Bauanleitung, wie der Film zusammen gesetzt ist. So als Archiv wäre das ne coole Sache. Allerdings ist so etwas mit extrem vielen Rechenoperationen verbunden, was es für das decodieren beim abspielen unmöglich macht.

    Also würde in diesem Fall der komplette Film eine einzige GOP sein; habe ich das richtig verstanden? Es leuchtet mir ein, dass dadurch noch besser komprimiert werden kann. Aber in welchem Verhältnis zur Einzelbildkodierung (MJPG) oder normalen GOP-Codierung? Das kann ich mir nicht so richtig vorstellen. Der sichtbare Unterschied zwischen MPEG1 und H.265 ist ja enorm - ist so ein gewaltiger Sprung noch einmal drin, oder handelt es sich eher um marginale Verbesserungen? Mir geht es ein wenig darum, was ich von der Zukunft erwarten kann - gerade auch in Hinsicht Archivierbarkeit.

    >Bei komplexeren Bildteilen braucht man sehr komplexe Formeln. Es gibt z.B. die Idee hierzu Fraktale zu nutzen, die mit wenigen Formeln große Komplexität erzeugen können. Ideal wäre es so: man zerlegt das einzelne Bild in entsprechende Blöcke, was ändert sich von Bild zu Bild stark, was eher schwach.

    Ein Stichwort bei Fraktalen ist ja die Selbstähnlichkeit. Wie sehr entsprechen Teile eines Ganzen den Verhältnissen im Ganzen. Jedes Stück Selbstähnlichkeit vermindert den Gehalt an rein stochastischem Einfluss. Im Umkehrschluss: je weniger Selbstähnlichkeit umso höher die informationstechnische Entropie, d.h. ein "perfektes" Bildrauschen benötigt die höchste Datenrate, obgleich das auch ein wenig seltsam wirkt, da ein Rauschebild subjektiv auffallend geordnet wirkt. Ich kann mir gut vorstellen, dass der komplette Film (als Menge aller Einzelbilder) als Ganzes besser verglichen werden kann als eine kurze Sequenz.

    >Diese generieren in einem gewissen Timing Muster, die beim übereinanderlegen genau den Block des Bildes zum Zeitpunkt X erzeugen. Wenn man also ganz viele dieser Generatoren hat, muss man nicht mehr die einzelnen Pixel speichern, sondern beschreibt das gesamte Bild mit der Reihe der Mustererzeuger nutze 987832, 387723, 873040, 387294 etc.

    Würde das nicht auch bedeuten, dass man (pseudo)zufällige Sequenzen generieren anstatt codieren kann? Somit könnte sich selbst stochastischer Inhalt (wie das Rauschen) durch einen Generator nachahmen lassen. Gehe ich hier richtig in der Annahme, dass sich somit auch ein Bereich außerhalb der Selbstähnlichkeit (mit eigentlich hoher Entropie) noch ordentlich "schrumpfen" ließe? Diese Möglichkeit kam mir beim Lesen Deiner Antwort. Aber dazu müsste man den kompletten Film zuerst im Ganzen analysieren.

    So wie ich es verstanden habe bedeutet dies, dass bei entsprechend rechenaufwändiger Analysearbeit des gesamten zu codierenden Materials, noch ein sehr bedeutender Qualitätssprung (bzw. Verkleinerung der Dateigröße bei gleichbleibender Qualität) zu erwarten ist.

    Beste Grüße :-)!

  5. Re: Ende der Fahnenstange?

    Autor: Eheran 10.02.17 - 09:46

    >Der sichtbare Unterschied zwischen MPEG1 und H.265 ist ja enorm
    Mal kurz um sicher zu sein, dass das klar ist:
    Die Qualität hängt nicht wirklich vom Codec ab sondern von der gewählten Bitrate. Das mit MPEG1 codierte Material kann "genau" so aussehen wie mit H.265 - wenn die Bitrate ~4x höher ist.

    Die Filme werden auch komplett analysiert vor der Komprimierung, sowas nennt sich dann 2-pass, also 2 Durchgänge. Das ist effektiver als direkt in einem Durchgang zu komprimieren.

  6. Re: Ende der Fahnenstange?

    Autor: Trockenobst 10.02.17 - 13:12

    johnsonmonsen schrieb:
    --------------------------------------------------------------------------------
    > So wie ich es verstanden habe bedeutet dies, dass bei entsprechend
    > rechenaufwändiger Analysearbeit des gesamten zu codierenden Materials, noch
    > ein sehr bedeutender Qualitätssprung (bzw. Verkleinerung der Dateigröße bei
    > gleichbleibender Qualität) zu erwarten ist.

    "Theoretisch" sollte es eine beliebig komplexe Formel geben, die auf mit der korrekten Belegung mit Parametern einen Datenstrom erzeugt, der zufällig Sharespeares' Romeo und Julia gleicht. Ich bin nicht tief genug in der mathematischen Metaphysik, aber ich bin mir sicher es gibt dafür einen Fachbegriff ;)

    Codec Entwicklung war die letzten 20 Jahre eine abgeschottete Geschichte von harten Nerds, schon alleine wegen der Patentproblematik. Man hat an der Kryptografie gesehen, was passiert wenn man öffentliche Ausschreibungen macht und jeden mitarbeiten lässt. Elliptische Kurven sind für mathematische Angriffe schon weitaus höhere Schwierigkeit als die Fakturierung von Zahlen.

    Es gäbe auch andere Ideen, wie z.B. Mehrpassverfahren. Man speichert eine schwammige, pixelige Version des Filmes. Dann lässt man eine Rechenfarm den Originalfilm ansehen und durch Verwendung von Schärfung und sonstigen Effekt-Parametern so nahe wie möglich an das Endprodukt kommen.

    Am Ende liefert man 2GB an Pixelmatsche und 100k an aufgezeichneten Filtern mit. Während des "entpackens" wird dann die aufgezeichnete beste Variante der Filter angewandt, die den Bitstrom auf das zehnfache Aufblasen aufzublasen und damit in gewohnte Qualität heben. Entsprechende Whitepapers gibt es dazu.

    Es gibt da viele Ideen, wenn man die Leute nur machen lässt.

  7. Re: Ende der Fahnenstange?

    Autor: johnsonmonsen 10.02.17 - 17:42

    Hallo Trockenobst!

    >"Theoretisch" sollte es eine beliebig komplexe Formel geben, die auf mit der korrekten Belegung mit Parametern einen Datenstrom erzeugt, der zufällig Sharespeares' Romeo und Julia gleicht. Ich bin nicht tief genug in der mathematischen Metaphysik, aber ich bin mir sicher es gibt dafür einen Fachbegriff ;)

    Dazu fällt mir das "Infinite-Monkey-Theorem" ein. Die Macht des Zufalls ist zumindest in der Theorie ein möglicher Ausgangspunkt für einfach alles. Vielleicht haben wir irgendwann durch die parallele Gewalt von Quantenrechnern sogar die Möglichkeit, quasi den richtigen "Affen" auszuwählen oder die mandelbrotverwandte Menge zu generieren, die, wie es der große Randomaximus (gerade eben erfundener Gott des Zufalls) will, dem Film gleicht. So mathematisch völlig inadäquat ausgedrückt ;-).

    Irgendwie ist die Entwicklung schon eine coole Sache. Wenn man bedenkt, dass erst vor relativ kurzer Zeit (Anfang der 60er) eine Parametrisierung von einfachen Kurven entwickelt wurde, die Bézierkurven, dann ist die Geschichte der Codecs schon enorm. Immerhin passten ganze Filme auf einen Datenträger, welcher für Musik entwickelt wurde. Ach, ich sehe die Sache halt immer aus Endanwenderperspektive...

    Viele Grüße und besten Dank für Deine Antwort :-)!

  8. Re: Ende der Fahnenstange?

    Autor: johnsonmonsen 10.02.17 - 18:02

    Hallo Eheran!

    >Die Qualität hängt nicht wirklich vom Codec ab sondern von der gewählten Bitrate.

    Natürlich, darauf spielte ich ja mit einem XviD-Film auf einer einzelnen CD an - im Gegensatz zu den gesplitteten SVCDs im MPEG2-Codec. Ebenfalls indirekt durch das 4K-Fußballspiel, welches über einen Fernsehsender übertragen wurde, wo wir sonst (noch heute) verblockte MPEG2-Artefakte in 720p gewohnt sind. Trotzdem ist es gut, dass Du es erwähnt hast, da sonst für den Leser der Eindruck entstehen könnte, die Qualität wäre an und für sich codecabhängig.

    >Die Filme werden auch komplett analysiert vor der Komprimierung, sowas nennt sich dann 2-pass, also 2 Durchgänge. Das ist effektiver als direkt in einem Durchgang zu komprimieren.

    Das stimmt wohl, aber wird heute kaum noch gemacht, da eine exakte Zielgröße durch den zunehmenden Wegfall des Brennens auf Datenträger aus der Mode gekommen ist. Ich spreche hier vom Endanwender, der gerne "saugt". Vor nun bestimmt schon sechs Jahren gab es von Uploadern innerhalb der Szene mal vereinzelte Versuche HD-Material im AVCHD-Format auf DVDs zu etablieren. Aber durch das notwendige Mehrpassencoding dauerte die Erstellung sehr lange. Dafür hatte man auf einem DVD-Rohling eine recht beachtliche Quali (selbst in 1080p), die fast jeder BD-Player gefressen hat. Festplatten gab es immer preiswerter, da setzte sich die Sache nicht durch. Heute ist Encoding mit CRF (Constant Rate Factor) üblich. Bei einem CRF von 20 werden die Dateien in 720p sehr klein, so würden sie auch fast immer auf eine DVD passen, obgleich der Speicherplatz der Scheibe nicht passgenau ausgenutzt wird. Geht bedeutend schneller als Mehrpass.

    https://encodingwissen.de/codecs/x264/technik/

    Viele Grüße und ein schönes Wochenende :-)!

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. OEDIV KG, Bielefeld
  2. Techniker Krankenkasse, Hamburg
  3. Zech Management GmbH, Bremen
  4. PUREN Pharma GmbH & Co. KG, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. mit TV-, Netzwerk- und Kameraangeboten)
  2. (aktuell u. a. Haushaltsgeräte)
  3. 49,90€ (Bestpreis!)
  4. 87,90€ + Versand


Haben wir etwas übersehen?

E-Mail an news@golem.de


Mobile-Games-Auslese: Magischer Dieb trifft mogelnden Doktor
Mobile-Games-Auslese
Magischer Dieb trifft mogelnden Doktor

Ein Dieb mit Dolch in Daggerhood, dazu ein (historisch verbürgter) Arzt in Astrologaster sowie wunderschön aufbereitetes Free-to-Play-Mittelalter in Marginalia Hero: Golem.de stellt die spannendsten neuen Mobile Games vor.
Von Rainer Sigl

  1. Mobile-Games-Auslese Rollenspiel-Frühling mit leichten Schusswechseln
  2. Gaming Apple Arcade wird Spiele-Flatrate für iOS und MacOS
  3. Indiegames Stardew Valley kommt auf Android

2FA mit TOTP-Standard: GMX sichert Mail und Cloud mit zweitem Faktor
2FA mit TOTP-Standard
GMX sichert Mail und Cloud mit zweitem Faktor

Auch GMX-Kunden können nun ihre E-Mails und Daten in der Cloud mit einem zweiten Faktor schützen. Bei Web.de soll eine Zwei-Faktor-Authentifizierung bald folgen. Der eingesetzte TOTP-Standard hat aber auch Nachteile.
Von Moritz Tremmel


    Wolfenstein Youngblood angespielt: Warum wurden diese dämlichen Mädchen nicht aufgehalten!?
    Wolfenstein Youngblood angespielt
    "Warum wurden diese dämlichen Mädchen nicht aufgehalten!?"

    E3 2019 Der erste Kill ist der schwerste: In Wolfenstein Youngblood kämpfen die beiden Töchter von B.J. Blazkowicz gegen Nazis. Golem.de hat sich mit Jess und Soph durch einen Zeppelin über dem belagerten Paris gekämpft.
    Von Peter Steinlechner


      1. Videostreaming: Netflix und Amazon Prime Video locken mehr Kunden
        Videostreaming
        Netflix und Amazon Prime Video locken mehr Kunden

        Der Videostreamingmarkt in Deutschland wächst weiter. Vor allem Netflix und Amazon Prime Video profitieren vom Zuwachs in diesem Bereich.

      2. Huawei: Werbung auf Smartphone-Sperrbildschirmen war ein Versehen
        Huawei
        Werbung auf Smartphone-Sperrbildschirmen war ein Versehen

        Besitzer von Huawei-Smartphones sollten keine Werbung mehr auf dem Sperrbildschirm sehen. Der chinesische Hersteller hatte kürzlich Werbebotschaften auf seinen Smartphones ausgeliefert - ungeplant.

      3. TV-Serie: Sky sendet Chernobyl-Folge mit Untertiteln einer Fanseite
        TV-Serie
        Sky sendet Chernobyl-Folge mit Untertiteln einer Fanseite

        Der Pay-TV-Sender Sky hat die Serie Chernobyl in der Schweiz mit Untertiteln ausgestrahlt, die von einer Fan-Community erstellt wurden. Wie die inoffiziellen Untertitelspur in die Serie gelangt ist, ist unklar.


      1. 12:24

      2. 12:09

      3. 11:54

      4. 11:33

      5. 14:32

      6. 12:00

      7. 11:30

      8. 11:00