Forum: Offtopic Was bedeutet eigentlich HDR?


von Heinz (Gast)


Lesenswert?

Vorweg, wusste nicht welches Unterforum benutzen, hoffe bin hier rchtig

Was bedeutet eigentlich HDR in der Bild/ Videotechnik?

Es gibt wohl verschieden Formate, HDR10, HDR10+, DolbyVision,...

Es braucht wohl 4K-DIsplays

Aber was macht jetzt HDR wirklich aus?
Sind es die 10bit Farbtiefe?

DolbyVision usw sind, so ich es verstehe, einfach nur Techniken, das 
Ganze zu komprimieren speichern, und über HDMI / Displayport zu 
übertragen?


Was bräuchte es denn wirklich, um ein HDR-Bild / Video von einem PC auf 
einem Display darzustellen?
Wenn das Display 10 bit Farbtiefe unterstützt, reicht das dann aus?
Können die momentan gängigen Grafikkarten das?

Ist das alles nur Marketinggelaber und das Wesentliche ist der Schritt 
von 8bit auf 10bit oder steckt da mehr dahinter?



Viele Grüße

Heinz

: Verschoben durch User
von CK (Gast)


Lesenswert?


von M. K. (sylaina)


Lesenswert?

HDR - High dynamic range, also ein Bild oder Video mit hohem 
Dynamikbereich;)

von NichtWichtig (Gast)


Lesenswert?

Es wird eine hohe Eingangsdynamik auf eine kleiner Ausgangsdynamik 
gepresst.


Das hat nichts mit 4K Auflösung zu tuen.
Das hat überhaupt nichts mir der Anzahl Pixel zu tuen, das hat nur damit 
zu tuen wieviele Helligkeitsstufen ein einzelner Pixel darstellen kann.

Praktisch werden z.B. 3 gleiche Bilder mit unterschiedlicher 
Belichtungszeit gemacht.
Das ergibt ein Bild wo die dunklen Bereiche ok und die hellen 
überbelichtet sind.
Am aanderen Ende wird ein Bild mit kurzer Zeit gemacht, helle Bereiche 
sind ok aber die dunklen nur noch schwarz.

HDR fügt nun von jedem Bild die Teile zuammen die gut geworden sind.

von Heinz (Gast)


Lesenswert?

Danke, den Wikipedia-Link kenne ich, aber er bezieht sich mehr auf 
Fotographie

Was macht denn jetzt ein "HDR-Wiedergabesystem" aus?
Wenn das Display und die Grafikkarte 10bit ausgeben können, ist das dann 
HDR?

von Harry L. (mysth)


Lesenswert?

NichtWichtig schrieb:
> Praktisch werden z.B. 3 gleiche Bilder mit unterschiedlicher
> Belichtungszeit gemacht.
> Das ergibt ein Bild wo die dunklen Bereiche ok und die hellen
> überbelichtet sind.
> Am aanderen Ende wird ein Bild mit kurzer Zeit gemacht, helle Bereiche
> sind ok aber die dunklen nur noch schwarz.

Das ist eine Hilfskonstruktion bei Stills, wenn der Kamera-Sensor den 
Dynamik-Bereich nicht direkt abbilden kann.

Mit HDR bei Videos hat diese Technik gar nichts zu tun.

Da muß der Sensor bereits beim 1. Versuch den gewünschten 
Dynamik-Bereich abbilden können.

von Harry L. (mysth)


Lesenswert?

Heinz schrieb:
> Was macht denn jetzt ein "HDR-Wiedergabesystem" aus?
> Wenn das Display und die Grafikkarte 10bit ausgeben können, ist das dann
> HDR?

Nur, wenn das Ausgangsmaterial bereits in HDR produziert wurde.
Bei normalem Material bringt dir die HDR-Tauglichkeit eines Monitor und 
der Grafikkarte gar nix.

von NichtWichtig (Gast)


Lesenswert?

Harry L. schrieb:
> Das ist eine Hilfskonstruktion bei Stills, wenn der Kamera-Sensor den
> Dynamik-Bereich nicht direkt abbilden kann.

Naja, die Kamera liefert ja schon mit einem Bild mehr Farben als übliche 
TFTs wieder geben können.

Mehrere Bilder liefern entsprechend noch mehr als der TFT könnte.

Video - nutze ich nicht, keine Ahnung von.

von Heinz (Gast)


Lesenswert?

Harry L. schrieb:
> Nur, wenn das Ausgangsmaterial bereits in HDR produziert wurde.
> Bei normalem Material bringt dir die HDR-Tauglichkeit eines Monitor und
> der Grafikkarte gar nix.

Ja klar, es braucht das entsprechende Ausgangsmaterial

Aber was ist jetzt der Unterschied zwischen HDR10, HDR10+, DolbyVision?
Geht es da nur um die Komprimierung?

Angenommen ich hätte "HDR"-Filmmaterial, 10bit Farbtiefe, eine 
entsprechende Grafikkarte, Kabel und Display die das ausgeben können, 
ist das dann automatisch HDR? Oder braucht es da mehr?

von NichtWichtig (Gast)


Lesenswert?


von Heinz (Gast)


Lesenswert?

Danke für den Link

Angenommen ich wäre jetzt Fernseh-Hersteller, was müsste ich tun um ein 
Gerät HDR-Ready zu bauen?

Irgendiwe kommt mir das Ganze gerade so vor wie vor Jahren beim Ton 
ProLogig, AC3,....

Gibt es hier SMPTE-Standarts was erfüllt sein muss um den HDR-Stempel zu 
bekommen?

von Richard B. (r71)


Lesenswert?

Heinz schrieb:
> Aber was macht jetzt HDR wirklich aus?

a) Auflösung und b) Farb- bzw. Luminanztiefe.
8 bits / Kanal und eine Auflösung von 4:2:2 sind zu
wenig um SD/HD bzw HDR Inhalte auch nur ansatzweise
korrekt wiederzugeben...

Die 10 bits pro Kanal (Ausgabe) sind auch das absolute Minimum.

Moderne Kameras können über 17 Blendenstufen erfassen.
Die HDR Bilder werden natürlich auf einmal erfasst und
nicht zeitversetzt wie "NichtWichtig" das erklärt hat.

Heinz schrieb:
> Was bräuchte es denn wirklich, um ein HDR-Bild / Video
> von einem PC auf einem Display darzustellen?

Quellmaterial (Video), Grafikkarte und Bildschirm.

Heinz schrieb:
> Wenn das Display 10 bit Farbtiefe unterstützt, reicht das dann aus?

Nein, siehe oben. Grafikkarte, Treiber und Material fehlt noch.
Am schwersten wirst du richtiges Material bekommen.

Mit einem 10 bit Bildschirm wirst du gerade 8 bit Bilder
korrekt wiedergeben können.

Dolby Vision Geräte unterschtützen eine 12 bit Verarbeitung,
sind also besser als reine HDR (10 bit) Geräte.

Heinz schrieb:
> einfach nur Techniken, das
> Ganze zu komprimieren speichern...

Nein, siehe oben.

von batman (Gast)


Lesenswert?

Was bewirkt dann der "HDR"-Modus, den man bei manchen Fernsehern - habs 
bei LG gesehen - einschalten kann? Das Bild sieht damit n bischen anders 
aus.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Gibts auch in Computerspielen. Experimentell konnte man damit in der 
Half-Life 'Lost Coast' Demo damit rumspielen. Wird dazu benutzt, z.B. 
blendende Sonne und Lichtreflexe besser an das Sehvermögen des Auges 
anzupassen (Iriseffekt).

von Peter M. (r2d3)


Lesenswert?

Hallo Heinz,

Heinz schrieb:
> Vorweg, wusste nicht welches Unterforum benutzen, hoffe bin hier rchtig
>
> Was bedeutet eigentlich HDR in der Bild/ Videotechnik?
>
> Es gibt wohl verschieden Formate, HDR10, HDR10+, DolbyVision,...

Das sind nur Normierungsversuche auf dem Weg zur Darstellung eines 
größeren Dynamikumfangs.

>
> Es braucht wohl 4K-DIsplays

Nein, der Begriff "4K-Displays" zielt nur auf die Auflösung.
Es kommt aber auf die darstellbaren Helligkeitsunterschiede pro Punkt 
an.

>
> Aber was macht jetzt HDR wirklich aus?
> Sind es die 10bit Farbtiefe?

Nein. 10bit-Farbtiefe (bei linearer Stufung) reichen nicht aus:

[...
Von HDR spricht man, wenn Helligkeitsunterschiede ab 10.000:1 
(Dynamikumfang 4 oder 13,3 EV) erfasst und gespeichert werden können – 
dies ist annähernd auch der Kontrastumfang, den unser Auge „mit einem 
Blick“ erfassen kann.
...]

Quelle:
https://www.heise.de/news/Kontrast-Trickkiste-HDR-Fotografie-226660.html?seite=2

Bei linearer Darstellung von Helligkeitsunterschieden braucht man
also log2(10.000)=~13,3 Bit. Es braucht also aufgerundet 14 Bit bei 
linearer Darstellung.

Bei nichtlinearer Darstellung kann man mit weniger Bit auf Kosten der 
Helligkeitsstufung auskommen.
1% Helligkeitsunterschied wird dem Artikel nach vom Auge bereits als 
Unterschied wahrgenommen.

Zieldynamikumfang: 13,3 EV!

Bei 8 Bit käme man mit 1% fast hin:
1,01^(2^8) EV=~^12,8 EV
bei 9 Bit käme man mit 0,51% hin:
1,0051^(2^9) EV=~^13,5 EV
bei 10 Bit käme man mit 0,253% hin:
1,00253^(2^10) EV=~^13,3 EV

Ab 9 Bit Speichertiefe sollte das Auge keine Helligkeitsunterschiede 
wahrnehmen können.
Bei herkömmlicher linearer Darstellung kommt man mit 8 Bit nur auf 8 EV, 
9 Bit auf 9 EV und 10 Bit auf 10 EV.


> DolbyVision usw sind, so ich es verstehe, einfach nur Techniken, das
> Ganze zu komprimieren speichern, und über HDMI / Displayport zu
> übertragen?

Ja, eventuell gehört die Abbildung auf dem Zielmedium Monitor aber auch 
noch dazu.

>
> Was bräuchte es denn wirklich, um ein HDR-Bild / Video von einem PC auf
> einem Display darzustellen?

Es bräuchte insbesondere ein (individuelles) Profil des Displays.
Das Display kann typischerweise den Dynamikumfang der Kamera, bzw. des 
Videos gar nicht voll darstellen.
Mit Hilfe dieses Profils und eines passenden Treibers müsste dann der 
Dynamikumfang der Quelle wieder auf den möglichen Umfang des Displays 
eingeschränkt werden.

> Wenn das Display 10 bit Farbtiefe unterstützt, reicht das dann aus?

Nein.

> Können die momentan gängigen Grafikkarten das?

Keine Ahnung.

>
> Ist das alles nur Marketinggelaber und das Wesentliche ist der Schritt
> von 8bit auf 10bit oder steckt da mehr dahinter?

Das neuartige daran ist die erforderliche nichtlineare Kodierung.

Heinz schrieb:
> Was macht denn jetzt ein "HDR-Wiedergabesystem" aus?

s.o.

> Wenn das Display und die Grafikkarte 10bit ausgeben können, ist das dann
> HDR?

Nein. Es ist nur ein bisschen dynamischer. :)

: Bearbeitet durch User
von Alex G. (dragongamer)


Lesenswert?

Richard B. schrieb:
> Moderne Kameras können über 17 Blendenstufen erfassen.
> Die HDR Bilder werden natürlich auf einmal erfasst und
> nicht zeitversetzt wie "NichtWichtig" das erklärt hat.
Vorallem bei Smartphones gibt es diese Technik in der tat. Es wird auch 
unterschiedlich stark geblitzt.
Wohl weil die Sensoren das eben nicht auf ein mal aufnehmen können.
In der Regel wird dann aber wieder auf ein gängiges JPG komprimiert und 
es stecken nicht mehr Bytes im Endresultat. Trotzdem kann es unter 
Umständen erheblich besser aussehen.

: Bearbeitet durch User
von batman (Gast)


Lesenswert?

Kommt auf die Sensoren an. Die kann man mehrfach auslegen, so daß 
gleichzeitig Bilder verschiedener Brennweiten, Empfindlichkeit u.a. 
aufgenommen werden.
Bei der HDR-Aufnahme geht es erstmal darum, einen hohen 
Motiv-Kontrastumfang abzubilden. Die Quantisierung (Tiefe), Speicherung 
und Ausgabe sind dann noch andere Sachen.

von Jemand (Gast)


Lesenswert?

Peter M. schrieb:
> Bei linearer Darstellung von Helligkeitsunterschieden braucht man
> also log2(10.000)=~13,3 Bit. Es braucht also aufgerundet 14 Bit bei
> linearer Darstellung.

Das macht überhaupt keinen Sinn. Die Bittiefe gibt nur die Abstufung an, 
das hat doch überhaupt nichts direkt mit dem Dynamikumfang zu tun, wenn 
man der Wikipedia-Definition traut: /Quotienten aus Maximum und Minimum 
einer physikalischen Größe oder Funktion/.

von batman (Gast)


Lesenswert?

Genau. Für ein HDR-Display heißt das, es muß tieferes Schwarz und/oder 
helleres Weiß als ein SDR ausgeben können.

von Alex G. (dragongamer)


Lesenswert?

Manche sagen darum richtiges HDR geht zur Zeit nur mit OLED Displays. 
Glaub aber es wurden in der Tat bewerbbare Standards verabschiedet die 
auch von anderen Technologien eingehalten werden können.

Das ganze ist etwas trickier als damals mit HD, HDready, FullHD usw. und 
schon damals hat man die Kunden gehörig verwirrt.

: Bearbeitet durch User
von Richard B. (r71)


Lesenswert?

Alex G. schrieb:
> Vorallem bei Smartphones gibt es diese Technik in der tat.

Klar, jeder Hersteller betrügt, wo er nur kann (und muss).

* Außerdem bin ich jetzt nicht ganz sicher was du meinst.
* Mehrfach-Blitzen machen die sicher nicht wegen HDR.

Alex G. schrieb:
> Wohl weil die Sensoren das eben nicht auf ein mal aufnehmen können.

Jetzt stelle dir vor wie das Bild aussehen wird,
wenn sich im Bild etwas bewegt hat...

batman schrieb:
> Bei der HDR-Aufnahme geht es erstmal darum,
> einen hohen Motiv-Kontrastumfang abzubilden.

und

Alex G. schrieb:
> ...richtiges HDR geht zur Zeit nur mit OLED Displays.

Das ist vollkommen richtig!

von Richard B. (r71)


Lesenswert?

Alex G. schrieb:
> Das ganze ist etwas trickier als damals mit HD, HDready, FullHD usw. und
> schon damals hat man die Kunden gehörig verwirrt.

Das ist ein Beispiel von "meine Kunden sind voll Verblödet"

Es gab immer nur ein HD Format -> 720 und 1080
720 ist auch "FullHD" und "HD Ready" ist nur erfunden worden
um die Bildschirme, die da waren noch verkaufen zu können.

von Alex G. (dragongamer)


Lesenswert?

Richard B. schrieb:
> * Außerdem bin ich jetzt nicht ganz sicher was du meinst.
> * Mehrfach-Blitzen machen die sicher nicht wegen HDR.
>
> Alex G. schrieb:
>> Wohl weil die Sensoren das eben nicht auf ein mal aufnehmen können.
>
Lies einfach schwind hier (war der erste Info Treffer für "hdr 
Smartphone"):
https://www.techbook.de/mobile/smartphones/hdr-smartphone-iphone-fotos

Richard B. schrieb:
> Alex G. schrieb:
>> Vorallem bei Smartphones gibt es diese Technik in der tat.
>
> Klar, jeder Hersteller betrügt, wo er nur kann (und muss).
Naja, nicht übertreiben. Es ist ein nützliches Feature denn man kann 
damit Bilder in Situationen machen die sonst nicht brauchbar wären.

> Jetzt stelle dir vor wie das Bild aussehen wird,
> wenn sich im Bild etwas bewegt hat...
Ja, dann funktioniert diese Technik in der Tat nicht. Ist für Stilleben 
gedacht.

: Bearbeitet durch User
von Richard B. (r71)


Lesenswert?

Alex G. schrieb:
> Lies einfach schwind hier

Das ist Tone Mapping (für Arme) und hat mit HDR nichts zu tun.
Blitzen hat mit HDR auch nichts zu tun.

Alex G. schrieb:
> Naja, nicht übertreiben.

Na ja, das ist die Wahrheit.
Durch Schweigen wird es nicht besser.

Zu erst war das mitn Glühbirnen, dann mitn Audio und
vor eben ca. 10 Jahren mit "HD Ready"...

Alex G. schrieb:
> Ist für Stilleben gedacht.

Ja, für (Wind-) Stilleben.

von Percy N. (vox_bovi)


Lesenswert?

Es gab einmal eine Zeit, in der kritische Motive in so genannten 
"Belichtungsreihen" mehrfach abgelichtet wurden. Letzten Problemen 
versuchte man damals durch angepasste Entwicklung zu begegnen.

Es hat den Anschein, als wolle derzeit eine finstere Macht die 
Buntfotografie durch Licht-Schatten-Abstufung über das Niveau des 
Farblinolschnittes hinaus anheben.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.