Vorweg, wusste nicht welches Unterforum benutzen, hoffe bin hier rchtig Was bedeutet eigentlich HDR in der Bild/ Videotechnik? Es gibt wohl verschieden Formate, HDR10, HDR10+, DolbyVision,... Es braucht wohl 4K-DIsplays Aber was macht jetzt HDR wirklich aus? Sind es die 10bit Farbtiefe? DolbyVision usw sind, so ich es verstehe, einfach nur Techniken, das Ganze zu komprimieren speichern, und über HDMI / Displayport zu übertragen? Was bräuchte es denn wirklich, um ein HDR-Bild / Video von einem PC auf einem Display darzustellen? Wenn das Display 10 bit Farbtiefe unterstützt, reicht das dann aus? Können die momentan gängigen Grafikkarten das? Ist das alles nur Marketinggelaber und das Wesentliche ist der Schritt von 8bit auf 10bit oder steckt da mehr dahinter? Viele Grüße Heinz
:
Verschoben durch User
HDR - High dynamic range, also ein Bild oder Video mit hohem Dynamikbereich;)
Es wird eine hohe Eingangsdynamik auf eine kleiner Ausgangsdynamik gepresst. Das hat nichts mit 4K Auflösung zu tuen. Das hat überhaupt nichts mir der Anzahl Pixel zu tuen, das hat nur damit zu tuen wieviele Helligkeitsstufen ein einzelner Pixel darstellen kann. Praktisch werden z.B. 3 gleiche Bilder mit unterschiedlicher Belichtungszeit gemacht. Das ergibt ein Bild wo die dunklen Bereiche ok und die hellen überbelichtet sind. Am aanderen Ende wird ein Bild mit kurzer Zeit gemacht, helle Bereiche sind ok aber die dunklen nur noch schwarz. HDR fügt nun von jedem Bild die Teile zuammen die gut geworden sind.
Danke, den Wikipedia-Link kenne ich, aber er bezieht sich mehr auf Fotographie Was macht denn jetzt ein "HDR-Wiedergabesystem" aus? Wenn das Display und die Grafikkarte 10bit ausgeben können, ist das dann HDR?
NichtWichtig schrieb: > Praktisch werden z.B. 3 gleiche Bilder mit unterschiedlicher > Belichtungszeit gemacht. > Das ergibt ein Bild wo die dunklen Bereiche ok und die hellen > überbelichtet sind. > Am aanderen Ende wird ein Bild mit kurzer Zeit gemacht, helle Bereiche > sind ok aber die dunklen nur noch schwarz. Das ist eine Hilfskonstruktion bei Stills, wenn der Kamera-Sensor den Dynamik-Bereich nicht direkt abbilden kann. Mit HDR bei Videos hat diese Technik gar nichts zu tun. Da muß der Sensor bereits beim 1. Versuch den gewünschten Dynamik-Bereich abbilden können.
Heinz schrieb: > Was macht denn jetzt ein "HDR-Wiedergabesystem" aus? > Wenn das Display und die Grafikkarte 10bit ausgeben können, ist das dann > HDR? Nur, wenn das Ausgangsmaterial bereits in HDR produziert wurde. Bei normalem Material bringt dir die HDR-Tauglichkeit eines Monitor und der Grafikkarte gar nix.
Harry L. schrieb: > Das ist eine Hilfskonstruktion bei Stills, wenn der Kamera-Sensor den > Dynamik-Bereich nicht direkt abbilden kann. Naja, die Kamera liefert ja schon mit einem Bild mehr Farben als übliche TFTs wieder geben können. Mehrere Bilder liefern entsprechend noch mehr als der TFT könnte. Video - nutze ich nicht, keine Ahnung von.
Harry L. schrieb: > Nur, wenn das Ausgangsmaterial bereits in HDR produziert wurde. > Bei normalem Material bringt dir die HDR-Tauglichkeit eines Monitor und > der Grafikkarte gar nix. Ja klar, es braucht das entsprechende Ausgangsmaterial Aber was ist jetzt der Unterschied zwischen HDR10, HDR10+, DolbyVision? Geht es da nur um die Komprimierung? Angenommen ich hätte "HDR"-Filmmaterial, 10bit Farbtiefe, eine entsprechende Grafikkarte, Kabel und Display die das ausgeben können, ist das dann automatisch HDR? Oder braucht es da mehr?
Danke für den Link Angenommen ich wäre jetzt Fernseh-Hersteller, was müsste ich tun um ein Gerät HDR-Ready zu bauen? Irgendiwe kommt mir das Ganze gerade so vor wie vor Jahren beim Ton ProLogig, AC3,.... Gibt es hier SMPTE-Standarts was erfüllt sein muss um den HDR-Stempel zu bekommen?
Heinz schrieb: > Aber was macht jetzt HDR wirklich aus? a) Auflösung und b) Farb- bzw. Luminanztiefe. 8 bits / Kanal und eine Auflösung von 4:2:2 sind zu wenig um SD/HD bzw HDR Inhalte auch nur ansatzweise korrekt wiederzugeben... Die 10 bits pro Kanal (Ausgabe) sind auch das absolute Minimum. Moderne Kameras können über 17 Blendenstufen erfassen. Die HDR Bilder werden natürlich auf einmal erfasst und nicht zeitversetzt wie "NichtWichtig" das erklärt hat. Heinz schrieb: > Was bräuchte es denn wirklich, um ein HDR-Bild / Video > von einem PC auf einem Display darzustellen? Quellmaterial (Video), Grafikkarte und Bildschirm. Heinz schrieb: > Wenn das Display 10 bit Farbtiefe unterstützt, reicht das dann aus? Nein, siehe oben. Grafikkarte, Treiber und Material fehlt noch. Am schwersten wirst du richtiges Material bekommen. Mit einem 10 bit Bildschirm wirst du gerade 8 bit Bilder korrekt wiedergeben können. Dolby Vision Geräte unterschtützen eine 12 bit Verarbeitung, sind also besser als reine HDR (10 bit) Geräte. Heinz schrieb: > einfach nur Techniken, das > Ganze zu komprimieren speichern... Nein, siehe oben.
Was bewirkt dann der "HDR"-Modus, den man bei manchen Fernsehern - habs bei LG gesehen - einschalten kann? Das Bild sieht damit n bischen anders aus.
Gibts auch in Computerspielen. Experimentell konnte man damit in der Half-Life 'Lost Coast' Demo damit rumspielen. Wird dazu benutzt, z.B. blendende Sonne und Lichtreflexe besser an das Sehvermögen des Auges anzupassen (Iriseffekt).
Hallo Heinz, Heinz schrieb: > Vorweg, wusste nicht welches Unterforum benutzen, hoffe bin hier rchtig > > Was bedeutet eigentlich HDR in der Bild/ Videotechnik? > > Es gibt wohl verschieden Formate, HDR10, HDR10+, DolbyVision,... Das sind nur Normierungsversuche auf dem Weg zur Darstellung eines größeren Dynamikumfangs. > > Es braucht wohl 4K-DIsplays Nein, der Begriff "4K-Displays" zielt nur auf die Auflösung. Es kommt aber auf die darstellbaren Helligkeitsunterschiede pro Punkt an. > > Aber was macht jetzt HDR wirklich aus? > Sind es die 10bit Farbtiefe? Nein. 10bit-Farbtiefe (bei linearer Stufung) reichen nicht aus: [... Von HDR spricht man, wenn Helligkeitsunterschiede ab 10.000:1 (Dynamikumfang 4 oder 13,3 EV) erfasst und gespeichert werden können – dies ist annähernd auch der Kontrastumfang, den unser Auge „mit einem Blick“ erfassen kann. ...] Quelle: https://www.heise.de/news/Kontrast-Trickkiste-HDR-Fotografie-226660.html?seite=2 Bei linearer Darstellung von Helligkeitsunterschieden braucht man also log2(10.000)=~13,3 Bit. Es braucht also aufgerundet 14 Bit bei linearer Darstellung. Bei nichtlinearer Darstellung kann man mit weniger Bit auf Kosten der Helligkeitsstufung auskommen. 1% Helligkeitsunterschied wird dem Artikel nach vom Auge bereits als Unterschied wahrgenommen. Zieldynamikumfang: 13,3 EV! Bei 8 Bit käme man mit 1% fast hin: 1,01^(2^8) EV=~^12,8 EV bei 9 Bit käme man mit 0,51% hin: 1,0051^(2^9) EV=~^13,5 EV bei 10 Bit käme man mit 0,253% hin: 1,00253^(2^10) EV=~^13,3 EV Ab 9 Bit Speichertiefe sollte das Auge keine Helligkeitsunterschiede wahrnehmen können. Bei herkömmlicher linearer Darstellung kommt man mit 8 Bit nur auf 8 EV, 9 Bit auf 9 EV und 10 Bit auf 10 EV. > DolbyVision usw sind, so ich es verstehe, einfach nur Techniken, das > Ganze zu komprimieren speichern, und über HDMI / Displayport zu > übertragen? Ja, eventuell gehört die Abbildung auf dem Zielmedium Monitor aber auch noch dazu. > > Was bräuchte es denn wirklich, um ein HDR-Bild / Video von einem PC auf > einem Display darzustellen? Es bräuchte insbesondere ein (individuelles) Profil des Displays. Das Display kann typischerweise den Dynamikumfang der Kamera, bzw. des Videos gar nicht voll darstellen. Mit Hilfe dieses Profils und eines passenden Treibers müsste dann der Dynamikumfang der Quelle wieder auf den möglichen Umfang des Displays eingeschränkt werden. > Wenn das Display 10 bit Farbtiefe unterstützt, reicht das dann aus? Nein. > Können die momentan gängigen Grafikkarten das? Keine Ahnung. > > Ist das alles nur Marketinggelaber und das Wesentliche ist der Schritt > von 8bit auf 10bit oder steckt da mehr dahinter? Das neuartige daran ist die erforderliche nichtlineare Kodierung. Heinz schrieb: > Was macht denn jetzt ein "HDR-Wiedergabesystem" aus? s.o. > Wenn das Display und die Grafikkarte 10bit ausgeben können, ist das dann > HDR? Nein. Es ist nur ein bisschen dynamischer. :)
:
Bearbeitet durch User
Richard B. schrieb: > Moderne Kameras können über 17 Blendenstufen erfassen. > Die HDR Bilder werden natürlich auf einmal erfasst und > nicht zeitversetzt wie "NichtWichtig" das erklärt hat. Vorallem bei Smartphones gibt es diese Technik in der tat. Es wird auch unterschiedlich stark geblitzt. Wohl weil die Sensoren das eben nicht auf ein mal aufnehmen können. In der Regel wird dann aber wieder auf ein gängiges JPG komprimiert und es stecken nicht mehr Bytes im Endresultat. Trotzdem kann es unter Umständen erheblich besser aussehen.
:
Bearbeitet durch User
Kommt auf die Sensoren an. Die kann man mehrfach auslegen, so daß gleichzeitig Bilder verschiedener Brennweiten, Empfindlichkeit u.a. aufgenommen werden. Bei der HDR-Aufnahme geht es erstmal darum, einen hohen Motiv-Kontrastumfang abzubilden. Die Quantisierung (Tiefe), Speicherung und Ausgabe sind dann noch andere Sachen.
Peter M. schrieb: > Bei linearer Darstellung von Helligkeitsunterschieden braucht man > also log2(10.000)=~13,3 Bit. Es braucht also aufgerundet 14 Bit bei > linearer Darstellung. Das macht überhaupt keinen Sinn. Die Bittiefe gibt nur die Abstufung an, das hat doch überhaupt nichts direkt mit dem Dynamikumfang zu tun, wenn man der Wikipedia-Definition traut: /Quotienten aus Maximum und Minimum einer physikalischen Größe oder Funktion/.
Genau. Für ein HDR-Display heißt das, es muß tieferes Schwarz und/oder helleres Weiß als ein SDR ausgeben können.
Manche sagen darum richtiges HDR geht zur Zeit nur mit OLED Displays. Glaub aber es wurden in der Tat bewerbbare Standards verabschiedet die auch von anderen Technologien eingehalten werden können. Das ganze ist etwas trickier als damals mit HD, HDready, FullHD usw. und schon damals hat man die Kunden gehörig verwirrt.
:
Bearbeitet durch User
Alex G. schrieb: > Vorallem bei Smartphones gibt es diese Technik in der tat. Klar, jeder Hersteller betrügt, wo er nur kann (und muss). * Außerdem bin ich jetzt nicht ganz sicher was du meinst. * Mehrfach-Blitzen machen die sicher nicht wegen HDR. Alex G. schrieb: > Wohl weil die Sensoren das eben nicht auf ein mal aufnehmen können. Jetzt stelle dir vor wie das Bild aussehen wird, wenn sich im Bild etwas bewegt hat... batman schrieb: > Bei der HDR-Aufnahme geht es erstmal darum, > einen hohen Motiv-Kontrastumfang abzubilden. und Alex G. schrieb: > ...richtiges HDR geht zur Zeit nur mit OLED Displays. Das ist vollkommen richtig!
Alex G. schrieb: > Das ganze ist etwas trickier als damals mit HD, HDready, FullHD usw. und > schon damals hat man die Kunden gehörig verwirrt. Das ist ein Beispiel von "meine Kunden sind voll Verblödet" Es gab immer nur ein HD Format -> 720 und 1080 720 ist auch "FullHD" und "HD Ready" ist nur erfunden worden um die Bildschirme, die da waren noch verkaufen zu können.
Richard B. schrieb: > * Außerdem bin ich jetzt nicht ganz sicher was du meinst. > * Mehrfach-Blitzen machen die sicher nicht wegen HDR. > > Alex G. schrieb: >> Wohl weil die Sensoren das eben nicht auf ein mal aufnehmen können. > Lies einfach schwind hier (war der erste Info Treffer für "hdr Smartphone"): https://www.techbook.de/mobile/smartphones/hdr-smartphone-iphone-fotos Richard B. schrieb: > Alex G. schrieb: >> Vorallem bei Smartphones gibt es diese Technik in der tat. > > Klar, jeder Hersteller betrügt, wo er nur kann (und muss). Naja, nicht übertreiben. Es ist ein nützliches Feature denn man kann damit Bilder in Situationen machen die sonst nicht brauchbar wären. > Jetzt stelle dir vor wie das Bild aussehen wird, > wenn sich im Bild etwas bewegt hat... Ja, dann funktioniert diese Technik in der Tat nicht. Ist für Stilleben gedacht.
:
Bearbeitet durch User
Alex G. schrieb: > Lies einfach schwind hier Das ist Tone Mapping (für Arme) und hat mit HDR nichts zu tun. Blitzen hat mit HDR auch nichts zu tun. Alex G. schrieb: > Naja, nicht übertreiben. Na ja, das ist die Wahrheit. Durch Schweigen wird es nicht besser. Zu erst war das mitn Glühbirnen, dann mitn Audio und vor eben ca. 10 Jahren mit "HD Ready"... Alex G. schrieb: > Ist für Stilleben gedacht. Ja, für (Wind-) Stilleben.
Es gab einmal eine Zeit, in der kritische Motive in so genannten "Belichtungsreihen" mehrfach abgelichtet wurden. Letzten Problemen versuchte man damals durch angepasste Entwicklung zu begegnen. Es hat den Anschein, als wolle derzeit eine finstere Macht die Buntfotografie durch Licht-Schatten-Abstufung über das Niveau des Farblinolschnittes hinaus anheben.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.