Hallo Leute, da hier im Forum viele Leute mit technischen Know-how sind, könnt ihr mir gewiss weiterhelfen. :) Ihr kennt doch bestimmt den Inputlag, wenn man den PC an einem (4k)-TV anschließt? Grob gesagt: eine Verzögerung zwischen Mausbewegung und Darstellung am Bildschirm. Hier mal ein Extrembeispiel, um das zu verdeutlichen: https://www.youtube.com/watch?v=IQrcne-F6sM Dieser TV wäre somit zum arbeiten und spielen eher ungeeignet. Man kann zwar noch Einstellungen zur Verbesserung vornehmen, aber darum geht es hier nicht. WORUM es mir geht: Es gibt ja einige 4k-TV's mit denen man 2 (oder auch 4) Quellen parallel (!) betreiben kann. Kann man nun den Inputlag dadurch verkürzen (halbieren?), indem man den PC über 2 anstatt einem Kabel betreibt? Also mit 2x 3840x1080 oder 2x 1920x2160. Hat das vielleicht mal irgendwer praktisch getestet?
:
Verschoben durch Admin
nein, kann man nicht. die Zeitverzoegerung kommt durch die Bildverbesserungsalgorithmen im Fernsehgeraet zustande. Nicht durch den Uebertragungsweg. Jeder moderne Fernseher hat einen "Game" Modus mit dem sich diese Algorithmen weitgehend abschalten lassen und somit auch kaum noch Latenz auftritt.
Danke.
Aber das müsste doch möglich sein, oder liege ich da falsch?
VGA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das
Signal zerlegt und über 2 Kabel zum TV schickt, dann hat doch der TV
direkt 2 Pixel, die er verarbeiten kann. Dann könnte er doch das Bild
gleichzeitig oben und unten (2 Zeilen) bzw. rechts und links (2
Halbzeilen) aufbauen ?! Aufbauen: so ähnlich wie der Elektronenstrahl
beim CRT.
Oder braucht der TV für die Bildverbesserungsalgorithmen ein komplettes
Bild (3840x2160)? Aber auch hier sollte der TV, durch die parallele
Signalübertragung, das komplett Bild schneller haben.
Bei einer Übertragungsfrequenz von 60Hz hat der TV ein komplettes Bild
in 16,66ms, bei einer parallelen Übertragung in 8,33ms, oder liege ich
da falsch?
Hier noch ein paar Anhaltspunkte zum Inputlag für Nichtzocker :)
<30ms Sehr guter Wert
30...100ms Akzeptabel
>100ms nicht gut zum arbeiten und spielen
150-230ms in dem Youtube-Video
Und was an der Erklärung von andi6510 paßt dir nicht in den Kram???? >die Zeitverzoegerung kommt durch die Bildverbesserungsalgorithmen im >Fernsehgeraet zustande. Nicht durch den Uebertragungsweg. >Aber das müsste doch möglich sein, oder liege ich da falsch? SIehe Antwort von andi. >VGA, DVI, HDMI sind doch serielle Schnittstellen?! Gewagte These, wenn das Dein Fernsehr kann: Glückwunsch:
Hallo spontan, du hast den Beitrag nicht richtig gelesen!
>Und was an der Erklärung von andi6510 paßt dir nicht in den Kram????
Was soll denn diese Aussage????
Chris D. schrieb: > Es gibt ja einige 4k-TV's mit denen man 2 (oder auch 4) Quellen parallel > (!) betreiben kann. Kann man nun den Inputlag dadurch verkürzen > (halbieren?), indem man den PC über 2 anstatt einem Kabel betreibt? Also > mit 2x 3840x1080 oder 2x 1920x2160. Nein. Die beiden Videoquellen laufen ja nicht notwendigerweise synchron, und so muss der Fernseher erst beide Halbbilder speichern und dann als ganzes Bild ausgeben. fchk
Chris D. schrieb: > Es gibt ja einige 4k-TV's mit denen man 2 (oder auch 4) Quellen parallel > (!) betreiben kann. Kann man nun den Inputlag dadurch verkürzen > (halbieren?), indem man den PC über 2 anstatt einem Kabel betreibt? Also > mit 2x 3840x1080 oder 2x 1920x2160. Nein. Das macht man, weil die Schnittstelle nicht mehr hergibt und man zwei braucht, um die Daten überhaupt schnell genug übertragen zu bekommen. Mit einer geht's auch, aber nur mit 30 statt 60 Hz. Chris D. schrieb: >>Und was an der Erklärung von andi6510 paßt dir nicht in den Kram???? > Was soll denn diese Aussage???? Sie soll dir sagen, daß du eine Antwort erhalten hast, aber sie ignorierst: andi6510 schrieb: > die Zeitverzoegerung kommt durch die Bildverbesserungsalgorithmen im > Fernsehgeraet zustande. Nicht durch den Uebertragungsweg. Chris D. schrieb: > Aber das müsste doch möglich sein, oder liege ich da falsch? Du liegst falsch. > VGA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das > Signal zerlegt und über 2 Kabel zum TV schickt, dann hat doch der TV > direkt 2 Pixel, die er verarbeiten kann. Der verarbeitet aber nicht jeden Pixel einzeln. Wenn das ganze Bild fertig ist, wird es angezeigt. Ob ich jetzt einmal schnell oder zweimal parallell, dafür aber jeweils halb so schnell übertrage, macht also keinen Unterschied. > Aufbauen: so ähnlich wie der Elektronenstrahl beim CRT. So funktioniert ein LCD aber nicht. > Oder braucht der TV für die Bildverbesserungsalgorithmen ein komplettes > Bild (3840x2160)? Er braucht immer ein komplettes Bild. Die Algorithmen brauchen dann nach der Übertragung noch zusätzlich Zeit, um an dem Bild rumzurechnen und es zu ver(schlimm)bessern.
Chris D. schrieb: > GA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das > Signal zerlegt und über 2 Kabel zum TV schickt Wenn du dir die von dir zitierten Schnittstellen mal genauer anschauen würdest, würdest du sehen das dort jetzt schon mehrere Kanäle zum Einsatz kommen um die benötigten Bandbreiten überhaupt transportieren zu können. Dual-Link-DVI -> maximal 2560×1600 Bildpunkte bei 60 Hz http://de.wikipedia.org/wiki/Digital_Visual_Interface Ultra HD mit bis zu 60p ist ab HDMI 2.0 möglich mit drei Links http://de.wikipedia.org/wiki/High_Definition_Multimedia_Interface#HDMI_und_Aufl.C3.B6sungen_oberhalb_von_Full_HD_und_HDMI_2.0 Wie du siehst ist das ganze also durchaus möglich, allerdings alleine schon um überhaupt die benötigten Datenmengen transportieren zu können. Wenn du das noch selbst erweitern wolltest musst du dir nur mal eben eine neue Firmware für die Grafikkarte und den Fernseher schreiben, einige OS-Treiber anpassen und ggf. die Hardware etwas erweitern damit sie mit der Datenmenge überhaupt in der gegebenen Zeit verarbeiten kann:-) Dann hast du eventuell eine etwas höhere mögliche Bildwiederholrate aber ob dadurch die Verzögerungszeit kürzer wird bleibt zu bezweifeln.
Irgendwer schrieb: >Chris D. schrieb: >> VGA, DVI, HDMI sind doch serielle Schnittstellen?! Wenn nun der PC das >> Signal zerlegt und über 2 Kabel zum TV schickt >Wenn du dir die von dir zitierten Schnittstellen mal genauer anschauen >würdest, würdest du sehen das dort jetzt schon mehrere Kanäle zum Einsatz >kommen um die benötigten Bandbreiten überhaupt transportieren zu können. Das wäre also geklärt! DVI (Dual-Link) und HDMI sowie DisplayPort können also die Daten parallel übertragen. Wobei DVI kein UHD (3840 × 2160 Pixel) schafft. >Wie du siehst ist das ganze also durchaus möglich, Es ist nicht nur "möglich", es ist zwingend erforderlich um einen 4k-TV mit UHD (3840 × 2160 Pixel) betreiben zu können! Erklärt mir doch mal, warum der Übertragungsweg keinen Einfluss auf die Zeitverzögerung haben soll? Das heißt ja, das die Daten ohne Verzögerung übertragen werden, egal wie lang der Übertragungsweg ist!?
:
Bearbeitet durch User
Der Übertragungsweg hat einen Einfluss auf die Verzögerung, nur ist der bei weitem nicht so groß wie du denkst. HDMI 2.0 kann UHD mit 60 Hz Darstellen. Das bedeutet im Umkehrschluss das die Übertragung eines Bildes maximal 16,67 ms dauern darf und damit macht die Übertragung nur einen kleinen Teil deiner Latenz aus.
Aha, also hat der Übertragungsweg doch einen Einfluss auf die
Zeitverzögerung!
16,67ms wäre aber schon ein großer Teil der Latenz (siehe Post 3).
<30ms Sehr guter Wert
30...100ms Akzeptabel
>100ms nicht gut zum arbeiten und spielen
150-230ms in dem youtube-Video
Das sind ja ca. 50% plus die 50% Bildverbesserungsalgorithmen um sehr
gute Werte zu erreichen. Wenn man die Videodaten noch mehr
"parallelisiert", so müsste man dann doch eine Verringerung der Latenz
erreichen können! HDMI 2.0 hat 3 Datenleitungen und DisplayPort 1.3
bereits 4.
Einige Behauptungen das ich damit falsch liege, stimmen somit nicht!
Du liegst auch nicht gänzlich falsch. Der Übertragungsweg hat einen Einfluss auf die Verzögerung, allerdings ist dieser im Vergleich zur Bearbeitungszeit im TV der kleinste Teil. Was denkst du warum es so wenig gescheite 4k PC Bildschirme gibt (für eine "normale" Geldbörse)?
Philips hat seit kurzem einen bezahlbaren (rund 750.-€) 40" 4k@60Hz Monitor im Angebot, über den kann ich mich eigentlich nicht beschweren.
Chris D. schrieb: > Aha, also hat der Übertragungsweg doch einen Einfluss auf die > Zeitverzögerung! Nein, das hat "derelf" gründlich missverstanden. Insofern sind Deine weiteren Schlüsse komplette Trugschlüsse. Aus der Bildwiederholfrequenz kann man nicht auf die maximale Verzögerung schließen - beide haben schlichtweg überhaupt nichts miteinander zu tun. Der DVB-S-Satellit Astra befindet sich im geostationären Orbit, damit dauert der "roundtrip", also das Übertragen des Fernsehsignals von der Erdfunkstelle zum Satelliten und das Übertragen vom Satelliten zurück zur Erde fast 250 msec. Der Radius des geostationären Orbit beträgt etwa 42000 km, davon muss man den Erdradius abziehen, woraus 36000 km resultieren. Wir kennen die Lichtgeschwindigkeit von etwa 300000 km, somit dauert die Übertragung in einer Richtung 120 msec. Und trotzdem wird das Fernsehbild mit 50 Bildern pro Sekunde übertragen. Jemand macht eine Aufnahme dieses Fernsehprogrammes auf einer DVD und schickt diese per Post nach Australien. Das dauert zwei Wochen ... an den 50 Bildern pro Sekunde ändert das nichts.
Thorsten schrieb: > Philips hat seit kurzem einen bezahlbaren (rund 750.-€) 40" 4k@60Hz > Monitor im Angebot, über den kann ich mich eigentlich nicht beschweren. Hast Du dazu einen Link ? Angestachelt vom Bildschirm meines neuen MacBook pro hatte ich mit einem monitor von Medion geliebaeugelt. http://www.medion.com/de/shop/pc-monitore-medion-70-9-cm-28-30017758a1.html mit ca. 500€ fand ich den eigentlich "noch bezahlbar". Gruss Asko.
@Rufus Τ. Firefly Das mit DVB-S-Satellit ist ein gutes Beispiel, hat aber einen Hacken, das du nicht mit dem Satellit interagierst. Es findet keine bidirektionale Übertragung statt. Wenn du mit dem Fernglas den Mond betrachtest stört es dich ja auch nicht, dass die Bildinformation schon ca. 1,3s alt ist. Die Lichtgeschwindigkeit beträgt etwa 300 000 km/s. Das Kabel hat eine Länge von 2m. Die Übertragungsgeschwindigkeit in der Kupferleitung ist etwa 3/4 Lichtgeschwindigkeit. Um eine Information durch das 2m-Lange Kabel zu transportieren benötigt man (2m / 300 000 000 m/s x 3/4) 5ns. FRAGE: Wie lange würde es theoretisch dauern um eine Information durch ein 300 000 000 m langes Kabel zu transportieren? Der Einfluss des Übertragungsweg ist doch hier offensichtlich! Schaut mal hier: http://de.wikipedia.org/wiki/Displayport#Daten.C3.BCbertragungsraten DisplayPort 1.3 (15. September 2014) mit 810 MHz Symbolrate 1 Leitung: 810 MByte/s (6,48 GBit/s): ausreichend für 2560×1600 2 Leitungen: 1620 MByte/s (12,96 GBit/s): ausreichend für 3840×2160 4 Leitungen: 3240 MByte/s (25,92 GBit/s): ausreichend für 5120×2880 Mit einer Verdoppelung der Leitung kann man doppelt so viele Informationen übertragen. Daher müsste entsprechend auch die Zeitverzögerung geringer werden. anonymous schrieb: >Der Übertragungsweg hat einen Einfluss auf die Verzögerung, allerdings ist >dieser im Vergleich zur Bearbeitungszeit im TV der kleinste Teil. Wie groß ist die denn nun? In Zahlen ausgedrückt? @Thorsten Wie hast du denn den Philips angeschlossen? HDMI, DisplayPort (Version?)?
Chris D. schrieb: > Das mit DVB-S-Satellit ist ein gutes Beispiel, hat aber einen Hacken, > das du nicht mit dem Satellit interagierst. Mir ist schon klar, worauf Du hinauswillst, aber diese Interpretation ist trotzdem falsch: > Mit einer Verdoppelung der Leitung kann man doppelt so viele > Informationen übertragen. Daher müsste entsprechend auch die > Zeitverzögerung geringer werden. Da kannst Du wieder das Beispiel des Satellitenfernsehsenders herannehmen, wenn der zwei Programme gleichzeitig sendet (und man deren Bilder sinnvoll zu einem kombinieren könnte), ändert das exakt gar nichts an der Übertragungsdauer; der Satellit reduziert seinen Abstand nicht. Und wie Dir bereits mitgeteilt wurde, sind die Anzeigeverzögerungen bei UHD-Displays nicht auf die Signalschnittstelle, sondern auf die im Monitor durchgeführten Bildoptimierungen zurückzuführen. Wenn man den Monitor selbst konstruieren würde, bzw. die Elektronik zwischen HDMI/Displayport-Eingang und TFT-Panel selbst bauen würde, könnte man all diese Bildoptimierungen beiseitelassen (unter Verzicht auf die Fähigkeit der Bildskalierung und der Abtastratenanpassung), und damit die Verzögerung reduzieren. Es ist durchaus denkbar, daß so etwas auch irgendwann von Monitorherstellern gemacht wird; um die Spielkinder zu befriedigen, wurden ja auch spezielle "Gamer"-Monitore mit sehr kurzen Bildwechsel- und Reaktionszeiten produziert (was den Monitorherstellern die Chance gab, grottige und sonst unverkäufliche TN-Panels nochmal zu versilbern). Hacken ist übrigens ein anderes Wort für Ferse (hinterer Teil des Fußes), vermutlich meinst Du einen Haken.
(Ich finde bei DisplayPort speziell "Adaptive Sync" interessant)
Chris D. schrieb: > Wie groß ist die denn nun? In Zahlen ausgedrückt? Hast du ja für mich bereits ausgerechnet :)
@anonymous Meinst du die 5ns? In der Zeit ist das Signal von der Grafikkarte beim Bildschirm. Wir benötigen aber ein komplettes Bild - habe ich gelernt :) - dann greift erst der Bildverbesserungsalgorithmus und dann wird dieses Bild am Monitor dargestellt. Das heißt also einmal den kompletten Datenstrom eines Bildes: -UHD (3840 × 2160 Pixel) hat 8 294 400 Pixel -Farbinformationen (3 Farben) -Die einzelnen Signale brauchen eine bestimmte Länge, damit man sie unterscheiden/abtasten kann -> Übertragungsfrequenz -Datenkomprimierung -... Rechne die Zeit doch bitte mal aus. Mal für eine Datenleitung und mal für mehrere Datenleitungen. Vielleicht können wir damit die Leute überzeugen, die der Meinung sind, dass das Signal in 0 Sekunden übertragen wird ;)
Chris D. schrieb: > Rechne die Zeit doch bitte mal aus. Mal für eine Datenleitung und mal > für mehrere Datenleitungen. Vielleicht können wir damit die Leute > überzeugen, die der Meinung sind, dass das Signal in 0 Sekunden > übertragen wird ;) Du kannst auch 1000 Datenleitungen nehmen, es wird nicht schneller. Der PC sendet 60 Bilder pro Sekunde. Egal ob als Vollbild über eine Leitung, oder als 1/1000tel Teilbild über 1000 Leitungen. Es bleiben 60 Bilder pro Sekunde. Einzig die Datenrate pro Leitung verringert sich, die gesamte Datenmenge bleibt gleich. Erst wenn das Bild komplett am PC angekommen ist, also nach 1/60tel Sekunde, wird der Algorithmus angeworfen und das Bild wird angezeigt.
So, habe noch mal ein paar Nächte drüber geschlafen. Christian Hunn schrieb: >Erst wenn das Bild komplett am PC angekommen ist, also nach 1/60tel Sekunde, >wird der Algorithmus angeworfen und das Bild wird angezeigt. Du meinst Bildschirm anstatt PC? So wie Christian Hunn das schreibt ist das sehr einleuchtend! Die Bildwiederholfrequenz (http://de.wikipedia.org/wiki/Bildwiederholfrequenz) von 60 Vollbildern pro Sekunde begrenzt also die Schnittstelle. Da macht es dann wirklich keinen Sinn die Daten über mehrere Leitungen zu schicken, es seid denn die Menge an Videodaten käme über eine Leitung nicht mehr nach. Also haben wir immer eine "Grund"-Verzögerung (Inputlag-Teil) zwischen der Signaleingabe (PC) und der Signalausgabe (Bildschirm) von 16,66ms bei der Bildwiederholfrequenz von 60Hz. Hinzu kommt dann noch auf der Bildschirmseite: Bildverbesserungsalgorithmus, Pixel-Reaktionszeit, eventuell eine Skalierung, ... und auf der PC-Seite: Eingabeverzögerung (Maus, Tastatur, Gamepad, ...), Software/Spiel (fps-Begrenzung, ...), ... Wir bräuchten also eine höhere Bildwiederholfrequenz beim Bildschirm (und PC) um die "Grund"-Verzögerung weiter zu reduzieren. Wenn das nun, was ich in dieser Antwort geschrieben habt, alles stimmt, dann ist die Frage im Titel beantwortet. Irgendwelche Einsprüche? Weitere Quellen: ---------------------- http://en.wikipedia.org/wiki/Input_lag http://en.wikipedia.org/wiki/Display_lag
:
Bearbeitet durch User
Chris D. schrieb: > So, habe noch mal ein paar Nächte drüber geschlafen. > > Christian Hunn schrieb: >>Erst wenn das Bild komplett am PC angekommen ist, also nach 1/60tel Sekunde, >>wird der Algorithmus angeworfen und das Bild wird angezeigt. > Du meinst Bildschirm anstatt PC? Uups, ja klar meinte ich den Bildschirm :-) > > So wie Christian Hunn das schreibt ist das sehr einleuchtend! > > Die Bildwiederholfrequenz > (http://de.wikipedia.org/wiki/Bildwiederholfrequenz) von 60 Vollbildern > pro Sekunde begrenzt also die Schnittstelle. Nicht unbedingt nur die Schnittstelle. Einerseits braucht die Grafikkarte auch eine gewisse Zeit, um die Bilddaten zu berechnen. Vor allem bei 3D Geschichten kann die Framerate weit unter 60FpS sinken. Dann werden halt eben die Bilder Doppelt an das Anzeigegerät gesendet. Übersteigt die berechenbare Framerate diejenige des Anzeigegerätes, werden umgekehrt Bilder ausgelassen. Andererseits ist die Maximale Framerate natürlich auch vom angeschlossenen Anzeigegerät abhängig. LCD Pixel haben eine gewisse Trägheit. Da würde eine schnellere Ansteuerung eher eine Verschlechterung der Bildqualität bringen - Das Pixel kann in dieser kurzen Zeit nicht ein- oder ausschalten, somit geht der Bildkontrast verloren. Bei günstigen DLP Beamern Z.B. wird ein einzelnes Bild in seine RGB Anteile zerlegt und nacheinander angezeigt. Die Drehgeschwindigkeit der Farbscheibe im Strahlengang gibt so die Framerate hart vor. Bei besseren Modellen mit drei DLP Modulen wird jede Farbe über ein eigenes Modul angezeigt. Hierbei wäre rein theoretisch eine höhere Framerate möglich, jedoch würde dies zu einer stark verminderten Helligkeit führen, da die Helligkeit eines Pixels durch die Einschaltdauer bestimmt wird - Analog zum PWM Dimmen einer LED. Zuletzt noch das Menschliche Auge und Gehirn: Auch hier sind wiederum Grenzen der maximalen Bildfrequenz gesetzt. hth Christian
Christian Hunn schrieb: > Die Drehgeschwindigkeit der Farbscheibe im Strahlengang gibt so die > Framerate hart vor. Das tun TFT-Panels übrigens auch, weil sie --von Ausnahmen abgesehen-- eh' fix mit 60 Bildern/sekunde angesteuert werden wollen. Die Ausnahmen gibt es mittlerweile für den Einsatz in Fernsehern, damit eine bessere Bildwechselratenanpassung erfolgen kann, die können dann z.B. auch mit Vielfachen von 24 Hz angesteuert werden. Aber das sind eben fernseh-spezifische Dinge; Desktopmonitore oder die Displays in Notebooks machen so etwas üblicherweise nicht. Was natürlich nicht ausschließen soll, daß für die "GamerZ"-Fraktion auch da technische Ausnahmen geschaffen werden, weil die ja bekanntlich allesamt Übermenschen sind, die viel reaktionsschneller als normale Menschen sind, Dinge viel schneller sehen können und für die alles andere "lagt". Diesen Leuten kann man dann natürlich neben innenbeleuchteten PCs und Tastaturen mit Arschgeweihstickern auch hundsmiserable TN-Panels mit geringen Verzögerungszeiten verkaufen. Vermutlich lassen sich die Weltraummonsterkilleraliens dann schneller abmurksen oder so.
Christian Hunn schrieb: >LCD Pixel haben eine gewisse Trägheit. Das habe ich auch gelesen. Von Werten von 1 bis 10ms war die Rede. Da macht es dann wirklich keinen Sinn die Bildschirme mit >120Hz anzusteuern. Im Gegensatz dazu haben gute OLEDs eine Reaktionszeit von unter 0,001ms (http://www.chip.de/news/LG-zeigt-neue-4K-OLED-Fernseher-High-Tech-TVs-mit-WebOS-bald-fuer-alle_75409179.html), hier macht es dann wieder Sinn mit höheren Bildwiederholfrequenzen zu arbeiten. Am Wochenende habe ich mal einen 27-Zoll-Monitor mit einem 40-Zoll-TV bei 1920x1080@60Hz verglichen. Im direkten Vergleich hat man eine deutlich höhere Verzögerung beim TV wahrgenommen. Über 100ms reagierte der TV langsamer als der Monitor (gemessen mit einer Hochgeschwindigkeitskamera bei 600fps). Den Bildverbesserungsalgorithmus am TV habe ich soweit es möglich war abgeschaltet. Habe mal spaßeshalber den TV mit 1920x1080@25Hz angesteuert: Ein totales geLAGe :) Der TV ist nicht nur zum Spielen sondern auch zum Arbeiten ungeeignet. Filme über den PC schauen geht hingegen. Die Auswahl an 4k-TV's mit einen geringen Inputlag ist sehr gering. Hier mal Vergleichstests: http://www.displaylag.com/display-database
Rufus Τ. Firefly schrieb: > Die Ausnahmen gibt es mittlerweile für den Einsatz in Fernsehern, damit > eine bessere Bildwechselratenanpassung erfolgen kann, die können dann > z.B. auch mit Vielfachen von 24 Hz angesteuert werden. Aber das sind > eben fernseh-spezifische Dinge; Desktopmonitore oder die Displays in > Notebooks machen so etwas üblicherweise nicht. Bei Destkop-Monitoren gibt es Systeme, die die Bildwiederholrate im Bereich von 30 bis 144 Hz dynamisch an die erzielte Framerate der Grafikkarte anpassen. Stichwörter sind G-Sync und FreeSync.
Normale Desktopmonitore sind das dann aber auch nicht mehr, sondern "Gamer"-Geräte.
Rufus Τ. Firefly schrieb: > Normale Desktopmonitore sind das dann aber auch nicht mehr, sondern > "Gamer"-Geräte. Richtig. In der ursprünglichen Frage ging es ja auch Monitore für's Spielen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.