Qualität von komprimierten Film Kopien

  • Es hat zwar nicht direkt mit Kodi zu tun... aber ..


    Woran macht ihr fest wie stark ihr einen Film komprimiert. Bspw. habe ich einen älteren 30 GB großen x264 Rip von Star Wars eine neue Hoffnung und habe jetzt eben mal einen knapp 2,7 GB kleinen x265 Rip zum Vergleich gemacht. Hab beide abwechselnd angesehen und auch ein paar Screenshots zum vergleichen gemacht.

    Ich kann da eigentlich keinen Qualitativen unterschied ausmachen aber der muss ja da sein. Während ich für Ton ein sehr gutes Ohr habe fällt mir das beim Bild echt schwer. Meine Augen sind aber nachweislich sehr gut.

    Bevor ich jetzt anfange alle großen Kopien nochmal in kleinere zu rippen, wüsste ich gern wie ihr das beurteilt. Vielleicht fehlt mir ja auch das geübte Auge.

    "Kommen Sie wir gehen jetzt tanzen! Sie holen sich ihr kleines Schwarzes und ich rasier mir die Zunge."

  • Auffällig ist es im Standbild.
    Und vor allem in schwachen Abstufungen. Wenn zB der Hintergrund nur fast schwarz ist, kann es zu Abbrüchen im Verlauf kommen.
    Von winzigsten Pixelfehlern bis zu deutlichen Artefakten.
    Einige TVs bieten da dann Verbesserer, die diese Fehler ausbügeln. Führt aber dann auch zu Detailverlusten bei gutem Quellmaterial.

    H265 ist aber auch schon ein richtig gutes Ding.

  • Also zwischen x265 Rip 1080p und Remux 1080p liegen Welten dazwischen.

    Achte mal auf Details wie Gewebe von Kleidung, Farbabstufungen usw.

    Auch der Ton kann deutlich mehr bei größeren Files, mehr Dynamik und Druck, aber auch feine Sachen hört man da besser raus.

    Von UHD Remux brauchen wir gar nicht erst reden, die wären das non plus Ultra :)

  • Gerade beim Ton würd ich sowieso keine weitere komprimierung vornehmen. Da wird das Originalmaterial in Copy gesetzt und fertig.

    --------------
    Guides nicht mehr verfügbar wegen Youtube unvermögen guten von schlechten Kodi Videos zu unterscheiden.

  • Ton lasse ich immer unangetastet

    hier mal meine Bilder. Vielleicht ist Star Wars auch ein schlechtes Beispiel, weil der film ohnehin alt ist. Aber wenn man bedenkt, dass eine der Ursprungsdateien weniger als 10 % der anderen hat...

    Welches ist die bessere?

    kodinerds.net/wcf/attachment/49652/kodinerds.net/wcf/attachment/49652/

    "Kommen Sie wir gehen jetzt tanzen! Sie holen sich ihr kleines Schwarzes und ich rasier mir die Zunge."

  • Die traditionellen codierer, also die die fuer Blu Ray oder Satellit oder Kabelfernsehen codieren mussten sich nie wirklich gedanken ueber "beste Qualitaet" machen. Bei denen war und ist das immer "beste Qualitaet die gerade auf eine Scheibe oder in einen Kanal passt". Deswegen gibt es relativ wenig gute historische Analysen AFAIK.

    Bei den Streamern, Netflix, Amazon & Co sieht das ein wenig anders aus. Die sind ja in Bezug auf Bandbreiten/Festplattenplatz viel variabler und haben deswegen die Quality trade-ins wohl viel besser analysiert. Gibt aber wenig public papers darueber. Gerade zu faul, die rauszusuchen, die ich glaube mal gesehen zu haben. Aber danach kann man versuchen zu googlen (gerade netflix war da in der Vergangenheit teilweise relativ offen).

    HEVC ist ziemlich kaese um ein persoehnliches optimum zu finde, im gegensatz zu h264 - IMHO. HEVC ist naemlich IMHO sehr gut, sehr graduell bitraten zu verringern im encoding indem es ganz vorsichtig mehr und mehr details verschmiert. Waehrend ich bei h264 bei zu starker komprimierung noch einfach kloetzchenartefakte oder farbkantenartefakte sehen konnte, muss ich bei h265 immer sehr aufwendig vergleichen ob eine variante "matschiger" wirkt.

    Ich glaube ich hatte mal irgendwo folgende rule-of-thumb empfehlungen gesehen:

    UHD: rf24
    1080p: rf23
    720p: rf22
    SD: rf21

    Diese Idee, bei grosserer Aufloesung staerker zu komprimierren ist dafuer gedacht, das man von seiner Glotze immer gleich weg sitzt, egal welche Qualitaet das Bild hat. Wenn man da bei einem UHD Bild sich in 1 Meter vor die 2 Meter leinwand setzt, und bei einer DVD 4 meter weg, dann hat man natuerlich pro blickwinkel die gleiche Zahl Pixel und muesse dann bei UHD mit niedrigerem RF codieren. Aber das macht ja niemand. Aber natuerlich gibts Leute die codieren trotzdem so das sie das immer noch koennten. Man weiss ja nie. Vielleicht doch mal auf 1 meter sitzen beim tollen UHD Film.

    Und dann jeweils noch "grain" beim encodieren dazutun, wen der Input aelter ist und sichtbaren Filmgrain hat, den man erhalten will. Wenn man "grain" nicht mit dazu tut, dann sieht das resultat am ende fuer einige Betrachter besser aus, weil halt der grain weg ist. Aber wer originalgetreu mag und sich einbildet das da hinter dem grain noch detail war, der mag das wegmatchen natuerlich nicht.

    Das gemeine ist dann, das das Resultat einer "grain" DVD codierung nicht mehr groessenordnungen kleiner ist als ein guter neuer 1080p film. Obwohl er natuerlich qualitaetsmaessig schlechter aussieht.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!