Hallo, ich hab mal eine echte Anfängerfrage zum Thema Farbtiefe: Ich habe hier zwei Testvideos, die einfach nur Farbverläufe (rot, grün, blau und weiß) anzeigen. Einmal ist das Video mit 8-Bit Farbtiefe gespeichert, einmal mit 10 Bits. Nun hätte ich erwartet, dass beide Videos auf meinem Monitor identisch aussehen (das ist nämlich ein ganz popeliges Ding, das laut Windows Anzeigeeinstellungen nur 8 Bit farbtiefe beherrscht). Aber die Videos sehen ziemlich unterschiedlich aus: Während in der 8-Bit-Version deutliches "Banding" zu erkennen ist (d.h. die Farbverläufe wirken eher streifig), ist die 10-Bit Version absolut butterweich. Wie kann das sein? Warum sehen die beiden Videos auf einem Nicht-sündhaft-teuren-10Bit-HDR-Monitor so unterschiedlich aus? PS: Ich benutze Windows 10 und eine Geforce 1070 Grafikkarte. Abgespielt wird mit VLC Player. Der Codec ist H265.
Liegt evtl. am Decoder. Las das mal zB. mit BSPlayer laufen. VLC ist bei mir auch nicht gerade wegen seiner Renderqualitäten bekannt.
Was meinst du mit "10 Bit"? Da gibt es verschiedene Varianten, z.B. HDR10, HDR10+ und Dolby Vision. Dabei werden nicht nur zwei Bit mehr pro Grundfarbe verwendet, sondern noch ein tone mapping. Je nach Variante statisch oder an jeden Frame angepasst.
:
Bearbeitet durch User
Karlo schrieb: > Einmal ist das Video mit 8-Bit Farbtiefe > gespeichert, einmal mit 10 Bits. Karlo schrieb: > meinem Monitor identisch > aussehen (das ist nämlich ein ganz popeliges Ding, das laut Windows > Anzeigeeinstellungen nur 8 Bit farbtiefe beherrscht Dazwischen liegen noch der Decoder und die Farb-Profilierung. Die Grafikkarte spielt da meist auch noch mit rein und dazu kommt noch das praktisch alle LCD-Monitore nochmal eine eigene Elektronik/Software haben die dran nochmals dran rumschraubt (Helligkeit/Gamma/Farbraum usw.). Du darfst nicht erwarten das der Wert x/y/z aus dem Video 1:1 auf deinem Monitor wiedergegeben wird. Bei einer Umrechnung 8Bit nach 8Bit entstehen somit Lücken, weil gar nicht alle 256 möglichen Werte verwendet werden können. Bei 10Bit nach 8Bit ist da mehr Spielraum um bei der Berechnung den nächst gelegenen 8Bit Wert zu finden und somit die 8Bit am Ende viel besser auszunutzen. https://www.notebookcheck.com/Monitor-Farbprofile-unter-Windows-10-richtig-installieren-und-zuweisen.266516.0.html
Karlo schrieb: > Aber die Videos sehen ziemlich unterschiedlich aus: > Während in der 8-Bit-Version deutliches "Banding" zu erkennen ist (d.h. > die Farbverläufe wirken eher streifig), ist die 10-Bit Version absolut > butterweich. > > Wie kann das sein? Warum sehen die beiden Videos auf einem > Nicht-sündhaft-teuren-10Bit-HDR-Monitor so unterschiedlich aus? Solche Probleme gibt's vor allem bei der Bearbeitung von Bildern. Da 8 bit Farbtiefe nicht genug Reserve hat um dann diverse Effekte darauf anzuwenden. Leute die mit Bildbearbeitungsprogrammen arbeiten kennen das Problem. Deswegen hat Photoshop frühzeitig auf 16 Bit Farbtiefe pro Farbkanal umgestellt. GIMP hat dafür Jahre gebraucht, um das auch zu schaffen. Das was bei der Bildbearbeitung auftritt, kann auch beim Erstellen von Videoeffekten auftreten. Daher folgende Frage: Sind das gleiche Videos, also Videos die das gleiche zeigen oder ist der Inhalt unterschiedlich? Wenn letzteres gilt, könnte das Problem schon bei der Bearbeitung entstanden sein. Grund siehe oben. Dann liegt es nicht an deiner Seite. Du könntest versuchen das bessere 10 Bit Video auf 8 Bit runterzurechnen. Allerdings wirst du da auch Verluste wegen der Kompression haben. Deswegen würde ich vorschlagen. Nimm einen Ausschnitt aus dem 10 Bit Video, dekomprimiere das 10 Bit Video und dann verwende in einem neuen Projekt das dekomprimierte Video und mache daraus eine 10 und 8 Bit Version. Dann sollten beide diese Verluste erhalten, so dass sie wieder vergleichbar werden.
Moin, RGB wird beim h265 (h264, mpeg) encodieren (wenn man nicht eine ganz bizarre Abart hernimmt) erstmal auf YCrCb gewandelt, Cr und Cb dann in X und Y Richtung unterabgetastet (wenn man nicht ...). Beim Decodieren umgekehrt. Die dabei entstehenden Rundungs/aliasfehler werden wahrscheinlich das Meiste ausmachen. Und nicht das, was der Monitor darstellen kann. Gruss WK
Um ein 10bit Video anzuschauen, brauchst du natürlich auch einen 10bit Monitor und eine passende Grafikkarte (aktuelle Geforce z.B.). Ansonsten wird von den vielen schönen Bits nicht viel übrig bleiben ;-)
Rick schrieb: > Um ein 10bit Video anzuschauen, brauchst du natürlich auch einen 10bit > Monitor und eine passende Grafikkarte (aktuelle Geforce z.B.). > > Ansonsten wird von den vielen schönen Bits nicht viel übrig bleiben ;-) Du hast den ersten Beitrag gelesen?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.