Forum: PC Hard- und Software Computerbildschirm


von Niklas (Gast)


Lesenswert?

Moin, ich habe einen relativen alten schwachen Laptop auf dem ich 
CounterStrike spiele mit nur 30fps. Ist zwar wenig aber ist noch ok für 
mich. Da ich aber nicht auf Laptop spielen will sondern auf einem 
größeren Bildschirm und ich das fürs studium auch brauchen kann werden 
ich mir einen neuen Bildschirm kaufen. Sowas wird normalerweise ja mit 
HDMI verkabelt.

Meine Frage ist habe ich da beim zocken dann zusätzliche Verluste durch 
das Kabel oder bzw fallen die dann ins Gewicht ?

: Verschoben durch Moderator
von bhf (Gast)


Lesenswert?

Niklas schrieb:
> Meine Frage ist habe ich da beim zocken dann zusätzliche Verluste durch
> das Kabel oder bzw fallen die dann ins Gewicht ?

ja

von Schlaumaier (Gast)


Lesenswert?

Ich denke nicht wirklich.

Die Frage dabei ist, ob deine Grafikkarte damit umgehen kann.

Es gibt ja die üblichen 3-4 Modis.

Ich persönlich bevorzuge den Modus "umschalten" was bedeutet der 
Bildschirm des Laptop wird abgeschaltet und das Signal wird in der 
"Monitor-Auflösung" an den Bildschirm gesendet.

Diesen Modus habe ich in der Firma meine Chef und den Prokuristen 
eingestellt. Die haben den Monitor und die Tastatur/Maus an den Laptop 
gesteckt und dann stand das Teil in der Ecke wie ein Desktop. OFFEN aber 
ohne Anzeige auf den Laptop.

Das belastet die Grafikkarte am allerwenigsten und die Latenzzeiten sind 
i.d.R. irrelevant.

Bei den Modus "Mirror" (Das salbe Bild wird auf beiden Angezeigt)kann es 
zu höheren Latenzzeiten kommen und auch zu Timingproblemem, weil die GK 
2 Bildschirme  (möglicherweise mit unterschiedlichen Auflösungen) 
berechnen muss.

von niklas (Gast)


Lesenswert?

ok danke Schlaumeier

von niklas (Gast)


Lesenswert?

welcher wäre da empfehlenswert ? Muss nicht viel können sollte nicht zu 
klein sein

von pnp (Gast)


Lesenswert?

bhf schrieb:
> Niklas schrieb:
>> Meine Frage ist habe ich da beim zocken dann zusätzliche Verluste durch
>> das Kabel oder bzw fallen die dann ins Gewicht ?
>
> ja

Das ist ja sowas von "intelligent", eine entweder/oder-Frage mit "ja" zu 
beantworten...

von Zefix (Gast)


Lesenswert?

niklas schrieb:
> ok danke Schlaumeier

Der hat hauptsächlich Topfen verzapft. Er klingt schlau, viel Ahnung hat 
er leider nicht.

Ob du Verluste an FPS hast, hängt hauptächlich davon ab, ob die 
Bildschirmauflösung des externen Monitors höher ist oder nicht.
Höhere Auflösung, mehr Aufwand für die Grafikkate.

Ob der Laptopbildschirm dabei an oder aus ist, sollte keinen großartigen 
Unterschied machen, denn Counterstrike belastet den 3D-Teil der GPU, 
Windows nicht.

Die Generierung des HDMI-Signals macht ein Stück Hardware, das belastet 
die GPU gar nicht. Eine großartige Zeitverzögerund hat man mit HDMI auch 
nicht.

von Schlaumaier (Gast)


Lesenswert?

niklas schrieb:
> welcher wäre da empfehlenswert ? Muss nicht viel können sollte nicht zu
> klein sein

Falls du den Monitor meinst, ist das eigentlich relativ egal. Du kannst 
sogar wenn dein Laptop eine Digitale-Videoschnittstelle hat, den an dein 
TV mit HDMI-Anschluß problemlos anschließen.

Digitale-Videoschnittstelle = HDMI oder DVI Anschluss. DVI brauchst du 
aber ein Adapter für 5 Euro der das Signal auf HDMI umwandelt.

Ich persönlich halte die Grenzen zwischen Monitor und Flat-TV ziemlich 
verwaschen. Und ich kenne Leute die ihren 2. TV als Monitor nutzen.

Die Frage ist nur dabei. Welche Auflösung kann das TV und welche der 
Monitor. Gute Monitoren haben eine höhere Auflösung als die meisten 
TV's. Deren Auflösung ist meist auf die TV-Normen (Full-HD z.b.) 
begrenzt.

Aber Testweise kannst du es problemlos probieren.


Monitore selbst empfehle ich NIE.  Der Grund ist das jeder Mensch ein 
eigenen Empfinden hat was er sieht.

Mein Rat. Lass dich Impfen damit sie dich rein lassen, gehe bei den 
"üblichen Verdächtigen" ins Geschäft und schaue die die Monitore in 
Action
an. Schau ob dir das Bild an und der Preis gefällt. Notiere die die 
Bezeichnung bis auf den letzten i-Punkt (kein Witz) und suche genau 
danach im Netz oder nimm das Teil halt mit.

Ich hatte aber immer eine hohe Meinung von EIZO-Monitoren. Aber bei 
deren Preis erwarte ich auch nur das beste. ;)

von 3h (Gast)


Lesenswert?

Da du nichts genaues zu deiner Hardware schreibst:
> relativen alten schwachen Laptop auf dem ich
> CounterStrike spiele mit nur 30fps.

Ein digital angeschlossener Monitor kann oft nur genau
eine Aufloesung. Ist die groesser als die vom Notebook,
wars das mit 30 fps. Dann hast du blos noch eine Diashow.

Auf das Gelaber von Schlaumeier muss man exakt gar nichts geben.
Dem mangelt es an allem.

von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Notiere die die Bezeichnung bis auf den letzten i-Punkt (kein Witz)

Mein Acer heisst B277Ubmiipprzx. Auch kein Witz.

von (prx) A. K. (prx)


Lesenswert?

3h schrieb:
> Ein digital angeschlossener Monitor kann oft nur genau
> eine Aufloesung. Ist die groesser als die vom Notebook,
> wars das mit 30 fps.

Oder er einigt sich mit dem Notebook auf eine geringere Auflösung mit 
z.B. 60 Hz. Nur muss der Bildschirm das dann umrechnen, was das Bild 
verschlechtert. Können muss er das, weil beim Rechnerstart keine volle 
Auflösung an der Schnittstelle ankommt.

von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Ich hatte aber immer eine hohe Meinung von EIZO-Monitoren. Aber bei
> deren Preis erwarte ich auch nur das beste. ;)

Sic transit gloria mundi.

Hatte ich nämlich auch erwartet, aus Erfahrung mit älteren EIZOs. Zumal 
ich den Zirkus mit Rücksendung nicht so gerne habe. Ein 27er mit guter 
Bedienung (weil vorne) und nützlichen Features -- der dann aber im 
Randbereich eine auffällig miese Helligkeit aufwies. Der ging dann eben 
doch gleich zurück und es wurde der viel billigere Acer. Bild ist 
wichtiger.

: Bearbeitet durch User
von Zefix (Gast)


Lesenswert?

3h schrieb:
> Ein digital angeschlossener Monitor kann oft nur genau
> eine Aufloesung.

Ich ergänze:
Ein digital angeschlossener Monitor kann oft nur genau eine Aufloesung 
gut. Die native. Das trifft auf LCD IMMER zu, unabhängig von der 
Schnittstelle.

Können tun tun die Monitore exakt das was in der EDID steht, das ist oft 
eine ganze Wagenladung an verschiedenen Auflösungen.

Nicht native Auflösungen werden skaliert und das sieht mehr oder weniger 
gut aus. Umso krummer das Verhältnis, umso schlchter. Wenn der Monitor 
gut *1) ist oder das Verhältnis z.B. exakt die Hälfte (aus 4 Pixel mach 
1) kann das Ergebnis duraus gut bis sehr gut sein.

Probieren geht da über studieren, und wenn ein Spiel ruckelt, kann es 
mit einer kleineren skalierten Auflösung so oft trotzdem noch spielbar 
gemacht werden.

*1) Hier kann es durchaus Unterschiede geben, es gibt anscheinend 
verschieden gute Skalierungsverfahren, einige tun das eben besser als 
andere.

von Rolf M. (rmagnus)


Lesenswert?

Niklas schrieb:
> Sowas wird normalerweise ja mit HDMI verkabelt.

Das kommt drauf an. Es gibt auch DVI und DisplayPort. Für 
Computer-Monitore ist DisplayPort heute eher üblich.

Schlaumaier schrieb:
> Falls du den Monitor meinst, ist das eigentlich relativ egal. Du kannst
> sogar wenn dein Laptop eine Digitale-Videoschnittstelle hat, den an dein
> TV mit HDMI-Anschluß problemlos anschließen.

Gerade da muss man dann aber tatsächlich etwas aufpassen, da Fernseher 
gerne mal eine große Latenz haben können. Falls er einen "Game"-Modus 
hat, sollte man den einschalten, oder ansonsten möglichst alle 
Bildverschlimmbesserer ausmachen, denn die sorgen oft für zusätzliche 
Verzögerungen.

> Digitale-Videoschnittstelle = HDMI oder DVI Anschluss. DVI brauchst du
> aber ein Adapter für 5 Euro der das Signal auf HDMI umwandelt.

Die wandeln nix um. Und DVI ist am aussterben. Heute hat man 
DisplayPort.

> Die Frage ist nur dabei. Welche Auflösung kann das TV und welche der
> Monitor. Gute Monitoren haben eine höhere Auflösung als die meisten
> TV's. Deren Auflösung ist meist auf die TV-Normen (Full-HD z.b.)
> begrenzt.

Dann geh mal zum Elektromarkt. Da findest du jede Menge 4k-Fernseher - 
wahrscheinlich mehr als mit Full-HD. Mehr als Full-HD ist aber für den 
TO eh nicht nützlich, da seine Grafikkarte dafür zu langsam ist.

(prx) A. K. schrieb:
> Oder er einigt sich mit dem Notebook auf eine geringere Auflösung mit
> z.B. 60 Hz. Nur muss der Bildschirm das dann umrechnen, was das Bild
> verschlechtert. Können muss er das, weil beim Rechnerstart keine volle
> Auflösung an der Schnittstelle ankommt.

Alternativ kann auch die Grafikkarte bei der Ausgabe skalieren. 
Zumindest bei NVidia geht das.

(prx) A. K. schrieb:
> Ein 27er mit guter Bedienung (weil vorne)

Monitore mit vernünftiger Bedienung sind sehr rar. Ich habe auch einen 
Acer, und die Bedienung dort ist grausig, wie bei fast allen Monitoren, 
die ich kenne. Und sie ist auf der Rückseite.

Zefix schrieb:
> Wenn der Monitor gut *1) ist oder das Verhältnis z.B. exakt die Hälfte
> (aus 4 Pixel mach 1) kann das Ergebnis duraus gut bis sehr gut sein.

Leider wird auch da teilweise interpoliert, was das Bild auch matschig 
macht.

> *1) Hier kann es durchaus Unterschiede geben, es gibt anscheinend
> verschieden gute Skalierungsverfahren, einige tun das eben besser als
> andere.

Ja, das habe ich auch beobachtet.

pnp schrieb:
> Das ist ja sowas von "intelligent", eine entweder/oder-Frage mit "ja" zu
> beantworten...

Lies die Frage nochmal ganz langsam. Dann wirst du evtl. feststellen, 
dass es gar keine entweder/oder-Frage ist.

von bhf (Gast)


Lesenswert?

-was für Auflösungen kann deine Laptopgrafik?
-in welcher Auflösung möchtest du spielen?
-welche Hardwareanschlüsse hat dein Laptop?(DP,HDMI,DVI,VGA)
-Bildschirmdiagonale - ja was willst Du?
-TV als Monitor - ggf. (sehr wahrscheinlich) Latenzprobleme - bei Games 
echt    blöd und viele interpolieren die Auflösung - auch blöd

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Habe gerade unter Linux damit rumgespielt (Sony Vaio Notebook mit NVidia 
9300 am BenQ 24" Monitor).
Damit kann man 'Bildschirm erweitern' mit erheblichen Performance 
Einbrüchen, 'Bildschirm synchronisieren' geht nicht, weil BenQ mir ein 
'Out of Range' vorwirft, 'Bildschirm extern' spielt gut, muss nur mehr 
ackern, weil die Fläche des BenQ viel grösser ist.
Dabei hat der Vaio eine native Auflösung von 1280*800 und der BenQ 
1920*1080.

Fazit: Maximale FPS gibts auf dem eingebauten Schirm.

von Zefix (Gast)


Lesenswert?

Rolf M. schrieb:
> Die wandeln nix um. Und DVI ist am aussterben. Heute hat man
> DisplayPort.

Nur zur Klarstellung, nicht als Kritik:
HDMI und DVI sind signaltechnisch kompatibel (TMDS), lediglich das 
Pinning der Stecker ist unterschiedlich *1). Die Kabel sind wirklich nur 
Kabel.
Und das trifft auf die meisten (oder alle?) Displayport-Anschlüsse 
ebenso zu!

Und damit können auch modernste Grafikkarten DVI-Displays ansteuern, 
ohne irgenwelche Nachteile.
Ich sitze vor so einem Setup. Also Radeon RX-5600XT und 2x 1920x1200 mit 
Displayport, die Kabel habe irgendwas mit 6€ gekostet, und sind wirklich 
nur Kabel ohne jede Elektronik.

Veraltet ist technisch gesehen in diesem Fall daher SEHR relativ, es ist 
wirklich quasi nur der Stecker.

*1) Natürlich geht über DVI nicht alles was über HDMI geht, wie Audio 
oder dieser Kopierschutzquatsch oder diverse Auflösungen.

von Zefix (Gast)


Lesenswert?

Zefix schrieb:
> Ich sitze vor so einem Setup. Also Radeon RX-5600XT und 2x 1920x1200 mit
> Displayport, die Kabel habe irgendwas mit 6€ gekostet, und sind wirklich
> nur Kabel ohne jede Elektronik.

Sorry. Meine Monitore haben DVI. Die Kabel sind solche:
https://www.amazon.de/Benfei-DisplayPort-Display-Adapter-Gold-Plated-1-PACK/dp/B082CXRNPW?ref_=ast_sto_dp&th=1

von Rolf M. (rmagnus)


Lesenswert?

Zefix schrieb:
> Rolf M. schrieb:
>> Die wandeln nix um. Und DVI ist am aussterben. Heute hat man
>> DisplayPort.
>
> Nur zur Klarstellung, nicht als Kritik:
> HDMI und DVI sind signaltechnisch kompatibel (TMDS), lediglich das
> Pinning der Stecker ist unterschiedlich *1).

Der Vollständigkeit halber: Das gilt nur für Auflösungen bis 1920x1200 
bei 60 Hz. Darüber hinaus gibt es Unterschiede.

> Die Kabel sind wirklich nur Kabel.
> Und das trifft auf die meisten (oder alle?) Displayport-Anschlüsse
> ebenso zu!

DisplayPort ist protokolltechnisch nicht das selbe wie HDMI und DVI. 
Aber viele (nicht alle) Rechner / Grafikkarten können am 
DisplayPort-Ausgang alternativ auch DVI-/HDMI-Signale ausgeben. In dem 
Fall geht ein solcher Adapter, der nur aus einem Kabel besteht, aber 
nur, um einem DVI-/HDMI-Monitor an den DisplayPort-Ausgang 
anzuschließen, nicht umgekehrt.
Falls der Rechner das nicht kann, braucht man einen aktiven Adapter. 
Diese kosten wohl so typischerweise ab ca. 25 Euro.

> Veraltet ist technisch gesehen in diesem Fall daher SEHR relativ, es ist
> wirklich quasi nur der Stecker.

Wenn du auf mehr als 1920x1200 und/oder mehr als 60Hz gehen willst, dann 
wirst du den Unterschied merken.

von TO (Gast)


Lesenswert?

Der TO hat  sich wohl ausgeklinkt...

von Zefix (Gast)


Lesenswert?

Rolf M. schrieb:
> Wenn du auf mehr als 1920x1200 und/oder mehr als 60Hz gehen willst, dann
> wirst du den Unterschied merken.

Schrieb ich doch?
Ich zitier mich mal selber:

Zefix schrieb:
> *1) Natürlich geht über DVI nicht alles was über HDMI geht, wie Audio
> oder dieser Kopierschutzquatsch oder diverse Auflösungen.

von Rolf M. (rmagnus)


Lesenswert?

Zefix schrieb:
> Schrieb ich doch?

Es ging mir um diese Aussage:

Zefix schrieb:
> Und das trifft auf die meisten (oder alle?) Displayport-Anschlüsse
> ebenso zu!


> Ich zitier mich mal selber:
>
> Zefix schrieb:
>> *1) Natürlich geht über DVI nicht alles was über HDMI geht, wie Audio
>> oder dieser Kopierschutzquatsch oder diverse Auflösungen.

Da steht aber nix von DisplayPort.

von Reinhard S. (rezz)


Lesenswert?

Schlaumaier schrieb:
> Digitale-Videoschnittstelle = HDMI oder DVI Anschluss. DVI brauchst du
> aber ein Adapter für 5 Euro der das Signal auf HDMI umwandelt.

Du lebst in der Vergangenheit. DVI ist veraltet und bereits länger durch 
DisplayPort oder halt HDMI ersetzt. Wobei HDMI da meinem Eindruck nach 
auch eher auf dem Rückzug ist.

> gehe bei den
> "üblichen Verdächtigen" ins Geschäft und schaue die die Monitore in
> Action
> an. Schau ob dir das Bild an und der Preis gefällt.

Wobei die Bildeinstellung im Laden eh immer speziell ist und die 
Beleuchtung auch. Kann schon sein, das zuhause der Spaß dann weniger 
toll wirkt.

von MaWin (Gast)


Lesenswert?

Niklas schrieb:
> habe ich da beim zocken dann zusätzliche Verluste durch das Kabel

Natürlich.

Was studierst du, Marketing ?
Die lügen sich immer was zusammen.

Als Informatiker wüsstest du was ein HDMI Interface ist und wie das 
zwischen Graphikchip und LCD Panel hängt.

Aber Computerspiele zocken und Informatik studieren passt ja auch nicht 
zusammen, da kommen ja nur Loser bei raus.

von Produktiv (Gast)


Lesenswert?

Ich würde mal noch die Bildschirmfläche und Auslösung zur Diskussion 
stellen:

Es ist sehr angenehm mehr Fläche auf dem Bildschirm zu haben um zwei 
Fenster mit ordenlicher Größe nebeneinander offen haben zu können. 
Beispiel wäre Text überarbeiten, eins Vorlage/Recherche, anderes das 
Textprogramm der Wahl in der man schreibt.

Dabei stößt FullHD (1920x1080) an seine Grenzen, denn über 24" werden 
die Pixel arg groß. Mit WQHD (2560x1440) hat man da bei 27" schon 
einiges mehr auf dem Monitor (=entspricht auch mehr Arbeit für die GraKa 
WENN man die volle Auflösung nutzt). 4k kann man machen, aber wenn man 
es nciht für die superfeinen Pixel macht dann wird der Monitor arg groß, 
so um die 40" und dann ist der Betrachtungsabstand bei normaler Arbeit 
eben schon grenzwertig. Ich hab so einen und bin in gewissen Grenzen 
ganz glücklich damit.

Ich halte aber 27" WQHD für die beste Mitte und das ist auch nicht 
gleich so teuer. Wenn man in Spielen auf Full HD schaltet sieht das auch 
gut aus und belastet die Graka nicht mehr als ein normaler Full HD 
Monitor.

von Schlaumaier (Gast)


Lesenswert?

@TO

Sag mal die Daten und Name deine Lappi.

Es ist nämlich (egal was alle sagen) eine Frage der Leistung + der 
Fähigkeit deiner Grafikkarte.  Das kann man i.d.R. nachprüfen wenn man 
weiß, was du für ein Gerät hast.

von Nano (Gast)


Lesenswert?

3h schrieb:
> Da du nichts genaues zu deiner Hardware schreibst:
>> relativen alten schwachen Laptop auf dem ich
>> CounterStrike spiele mit nur 30fps.
>
> Ein digital angeschlossener Monitor kann oft nur genau
> eine Aufloesung. Ist die groesser als die vom Notebook,
> wars das mit 30 fps. Dann hast du blos noch eine Diashow.

Das ist falsch.

Die Monitore können auch kleinere Auflösungen fahren, nur ist das dann 
oft nicht mehr ein vielfaches der nativen Auflösung und sieht dann 
entsprechend schlecht aus.

Grundsätzlich macht es daher Sinn einen externen Monitor zu nehmen, der 
genau die gleiche native Auflösung hat, wie das Display am Notebook.

Wen das Notebook also FullHD hat, dann sollte auch der Monitor FullHD 
sein oder Alterantiv, genau das doppelte.
Denn gerade Vielfache der Ursprungsauflösung sehen natürlich, selbst 
wenn man so einen Monitor auf die kleinere Usprungsauflösung einstellt, 
immer noch scharf und gut aus.

Bei FullHD mit seinen 1920 × 1080 wäre das also ein Monitor mit einer 
nativen Auflösung von 2 x 1920 × 1080 = 3840 x 2160 Pixeln.
Einen solchen kann man dann problemlos nehmen.

Spielt man das Spiel dann mit halber Auflösung um die 30 fps zu 
behalten, sieht das immer noch gut aus, da 1 Pixel dann auf so einem 
Bildschirm zu einer 2x2 Pixelfläche wird.
Und das ist gerade.

Auflösungen die davon abweichen sind dagegen schlecht.

von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Dann geh mal zum Elektromarkt. Da findest du jede Menge 4k-Fernseher -
> wahrscheinlich mehr als mit Full-HD. Mehr als Full-HD ist aber für den
> TO eh nicht nützlich, da seine Grafikkarte dafür zu langsam ist.

Das ist eben falsch.
Siehe oben. Genau 2 x FullHD kann nützlich sein.
Er wird dann zwar seine Spiele weiterhin in nur FullHD spielen, da seine 
GPU langsam ist, aber außerhalb der Spiele profitiert er dann von der 
2xFullHD Auflösung.
Und bei alten Spielen, sofern die das unterstützen erst recht.

von (prx) A. K. (prx)


Lesenswert?

Auflösung ist eine individuelle Sache. 110 DPI, also z.B. 27" 2560x1440, 
ist für mich die Grenze. Bei deutlich höherem DPI Wert beim stationären 
Bildschirm wäre es im normalen Desktop nötig, manches hoch zu skalieren, 
und das gibt dann wieder eigene Probleme.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> Wen das Notebook also FullHD hat, dann sollte auch der Monitor FullHD
> sein oder Alterantiv, genau das doppelte.

Vielleicht bei Spiegelung des Desktops. Bei Erweiterung des Desktops auf 
alle Bildschirme sind alle unabhängig. Windows und Linux.

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

Nano schrieb:
> Siehe oben. Genau 2 x FullHD kann nützlich sein.
> Er wird dann zwar seine Spiele weiterhin in nur FullHD spielen, da seine
> GPU langsam ist, aber außerhalb der Spiele profitiert er dann von der
> 2xFullHD Auflösung.

Ich hatte mich jetzt auf die Spiele bezogen. Und ob der mit dem

Niklas schrieb:
> relativen alten schwachen Laptop

überhaupt 4k ausgeben kann, ist eher fraglich. Falls ja, dann muss man 
aber auf jeden Fall schauen, ob HDMI oder DisplayPort, denn sowohl bei 
den Monitoren, als auch bei den Rechnern gibt es auch welche, die nur 
auf einem davon mit 4k arbeiten können, je nachdem, welche Version der 
jeweiligen Schnittstelle sie unterstützen. Evtl. hat man dann bei 4k 
auch nur 30 Hz, was zwar geht, aber zumindest für mich auch auf dem 
Desktop eher unschön ist.

von Blechbieger (Gast)


Lesenswert?

Produktiv schrieb:
> Dabei stößt FullHD (1920x1080) an seine Grenzen, denn über 24" werden
> die Pixel arg groß. Mit WQHD (2560x1440) hat man da bei 27" schon
> einiges mehr auf dem Monitor (=entspricht auch mehr Arbeit für die GraKa
> WENN man die volle Auflösung nutzt). 4k kann man machen, aber wenn man
> es nciht für die superfeinen Pixel macht dann wird der Monitor arg groß,
> so um die 40" und dann ist der Betrachtungsabstand bei normaler Arbeit
> eben schon grenzwertig. Ich hab so einen und bin in gewissen Grenzen
> ganz glücklich damit.

Besonders IDEs wie Eclipse oder Visual Studio mit ihren vielen 
Nebenfenstern profitieren von 4K. Damit Text dann noch lesbar bleibt 
sollte der Monitor groß sein. 27 Zoll wäre mir zu klein, ein Trumm von 
40 Zoll hätte bei mir keinen Platz, daher 32 Zoll bei 90 cm Abstand. In 
den IDEs nicht aber in anderen Anwendungen, z.B. Browser vergrößere ich 
teilweise die Schrift.

Bei so großen Bildschirmen kann die Blickwinkelabhängigkeit wichtig 
werden. Ich habe deshalb einen mit IPS-Panel genommen.

von Schlaumaier (Gast)


Lesenswert?

Blechbieger schrieb:
> Damit Text dann noch lesbar bleibt
> sollte der Monitor groß sein.

Das ist absolut kein Argument.

Ich habe in allen IDE's die ich nutzt die SChriftart vergrößern müssen.

Aber ansonsten gebe ich dir Recht.

Wenn man 800 x 600 als kleinste !!! Auflösung in einen VOLL-Skalierbaren 
Programm vorsieht (das ist auch die Auflösung in der ich mein Design 
erstelle) , und das 1:1 ohne scrollen designen will, braucht mal ne 
Menge Pixel für all die Objekte und Eigenschaften-Fenster rund herum. ;)

Der einzige der Schriftgrößen nicht wirklich im Griff hat, ist MS 
selbst. Das ist zum kotzen mit deren Schriftgrößen-Einstellungen im 
Desktop.

von Schlaumaier (Gast)


Lesenswert?

Blechbieger schrieb:
> Bei so großen Bildschirmen kann die Blickwinkelabhängigkeit wichtig
> werden. Ich habe deshalb einen mit IPS-Panel genommen.

Ich habe das Problem übrigens gelöst in den ich den Monitor aufgehängt 
habe.

Einfach gesagt, ich habe am Schreibtisch ein Rohr montiert, an den eine 
höhenverstellbare Winkel-Achse montiert ist, und an deren Ende ist eine 
rotierende VESA-Halterung mit 15° Kipp-Winkel-Einstellung.

Damit stelle ich den Monitor in fast JEDE Position die ich will. Aktuell 
3° schief auf mich zu geneigt.

Ach so nebenbei. Das Zauberteil gab/gibt es bei Amazon. Das ist nicht 
selbst gebastelt. Mann sollte allerdings ein Schreibtisch aus Holz 
haben, nicht aus gepresster Pappe. Meine ich ernst.

von omg (Gast)


Lesenswert?

>Moin, ich habe einen relativen alten schwachen Laptop auf dem ich
>CounterStrike spiele mit nur 30fps.

Und ihr träumt von höchsten Auflösungen / Bilddiagonalen? Der Laptop 
müsste das ja auch liefern können.
Der TO müsste mal (wie öfters gefordert) sagen, was seine Grafik bieten 
kann (bei 30fps glaube ich eher weniger), welche Schnittstellen 
vorhanden sind etc.
Ansonsten ist das hier sinnlos!

von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Der einzige der Schriftgrößen nicht wirklich im Griff hat, ist MS
> selbst. Das ist zum kotzen mit deren Schriftgrößen-Einstellungen im
> Desktop.

Wegen solcher Spielchen ziehe ich es vor, gleich einen an meine 
Adleraugen angepassten Monitor zu kaufen, statt einen mit zu hohem DPI 
hinterher korrigieren zu müssen.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?


von Blechbieger (Gast)


Lesenswert?

Schlaumaier schrieb:
> Blechbieger schrieb:
>> Damit Text dann noch lesbar bleibt
>> sollte der Monitor groß sein.
>
> Das ist absolut kein Argument.
>
> Ich habe in allen IDE's die ich nutzt die SChriftart vergrößern müssen.

Damit passt aber weniger Text in denselben Bereich. Bei einer IDE geht 
es mir gerade darum möglichst viel auf einmal zu sehen ohne Scrollen zu 
müssen.

Schlaumaier schrieb:
> Blechbieger schrieb:
>> Bei so großen Bildschirmen kann die Blickwinkelabhängigkeit wichtig
>> werden. Ich habe deshalb einen mit IPS-Panel genommen.
>
> Ich habe das Problem übrigens gelöst in den ich den Monitor aufgehängt
> habe.
>
> Einfach gesagt, ich habe am Schreibtisch ein Rohr montiert, an den eine
> höhenverstellbare Winkel-Achse montiert ist, und an deren Ende ist eine
> rotierende VESA-Halterung mit 15° Kipp-Winkel-Einstellung.

Mir ging es eher um den Winkel zwischen linkem und rechtem Rand. Der ist 
nur von Größe und Abstand abhängig. Höhe und Kippwinkel sind am Fuß 
meines Monitors weit genug einstellbar.

von (prx) A. K. (prx)


Lesenswert?

Blechbieger schrieb:
> Mir ging es eher um den Winkel zwischen linkem und rechtem Rand. Der ist
> nur von Größe und Abstand abhängig.

Und vom Bildschirm. Blech zu biegen ist einfacher, als Bildschirme zu 
biegen. Das überlässt man lieber den Herstellern. Und die haben gemerkt, 
dass das sinnvoll sein kann, um den Betrachtungswinkel in Grenzen zu 
halten.

Blickwinkelabhängigkeit war das Problem am erwähnten EIZO. Wenn ich 
senkrecht auf den linken Rand unten draufsah, war er an dieser Stelle 
gut. Aber eben nicht mitten davor. Sowas darf beim Preis eines EIZO 
einfach nicht vorkommen.

: Bearbeitet durch User
von Blechbieger (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Und vom Bildschirm. Blech zu biegen ist einfacher, als Bildschirme zu
> biegen. Das überlässt man lieber den Herstellern. Und die haben gemerkt,
> dass das sinnvoll sein kann, um den Betrachtungswinkel in Grenzen zu
> halten.

Stimmt, an curved habe ich gar nicht gedacht. Vermutlich weil ich die 
nicht mag aber das ist Geschmackssache.

Für Liniengrafik wie Layout oder CAD ist 4K auch angenehm, man sieht bei 
gleicher Zoomstufe mehr Details.

von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Falls ja, dann muss man
> aber auf jeden Fall schauen, ob HDMI oder DisplayPort, denn sowohl bei
> den Monitoren, als auch bei den Rechnern gibt es auch welche, die nur
> auf einem davon mit 4k arbeiten können, je nachdem, welche Version der
> jeweiligen Schnittstelle sie unterstützen. Evtl. hat man dann bei 4k
> auch nur 30 Hz, was zwar geht, aber zumindest für mich auch auf dem
> Desktop eher unschön ist.

Ja, das stimmt natürlich.
Der GPU Ausgang sollte so eine 4K Auflösung natürlich auch noch fahren 
können.
Da muss man dann mal genau hinsehen, wie alt das Notebook wirklich ist 
oder ob es vielleicht nur einfach schwachbrüstig, aber nicht all zu alt 
ist.


Für Spieler ist eine Auflösung von 3840 x 2160 Pixeln jedenfalls die 
beste Lösung, eben weil FullHD dann nur die Hälfte davon ist und das 
nativ dann immer noch auf solchen Bildschirmen sehr gut aussieht.

Leider gibt es Bildschirme mit dieser Auflösung kaum in kleinen 
Bildschirmdiagonalen. Das würde mich zumindest stören.
Ich halte es nämlich für sinnvoller, lieber 3 mal 24" oder 26" Monitore 
aufzustellen, als einen großen 32" oder gar noch größeren Bildschirm.
Aber vielleicht bin ich da auch einfach altmodisch, denn zugegeben, so 
einen großen überbreiten krummen Bildschirm ohne Rand hatte ich auch 
noch nicht.
3 Bildschirme haben halt den Vorteil, dass der Centerbildschirm sich 
auch für alte Spiele eignet, wo man an überbreite Bildschirme noch gar 
nicht gedacht hat.
Und man braucht auch keine Tiling Softwarelösung, wenn man mehrere 
Fenster nebeneinander in einer quasi Vollbilddarstellung haben möchte.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.