Moin, ich habe einen relativen alten schwachen Laptop auf dem ich CounterStrike spiele mit nur 30fps. Ist zwar wenig aber ist noch ok für mich. Da ich aber nicht auf Laptop spielen will sondern auf einem größeren Bildschirm und ich das fürs studium auch brauchen kann werden ich mir einen neuen Bildschirm kaufen. Sowas wird normalerweise ja mit HDMI verkabelt. Meine Frage ist habe ich da beim zocken dann zusätzliche Verluste durch das Kabel oder bzw fallen die dann ins Gewicht ?
:
Verschoben durch Moderator
Niklas schrieb: > Meine Frage ist habe ich da beim zocken dann zusätzliche Verluste durch > das Kabel oder bzw fallen die dann ins Gewicht ? ja
Ich denke nicht wirklich. Die Frage dabei ist, ob deine Grafikkarte damit umgehen kann. Es gibt ja die üblichen 3-4 Modis. Ich persönlich bevorzuge den Modus "umschalten" was bedeutet der Bildschirm des Laptop wird abgeschaltet und das Signal wird in der "Monitor-Auflösung" an den Bildschirm gesendet. Diesen Modus habe ich in der Firma meine Chef und den Prokuristen eingestellt. Die haben den Monitor und die Tastatur/Maus an den Laptop gesteckt und dann stand das Teil in der Ecke wie ein Desktop. OFFEN aber ohne Anzeige auf den Laptop. Das belastet die Grafikkarte am allerwenigsten und die Latenzzeiten sind i.d.R. irrelevant. Bei den Modus "Mirror" (Das salbe Bild wird auf beiden Angezeigt)kann es zu höheren Latenzzeiten kommen und auch zu Timingproblemem, weil die GK 2 Bildschirme (möglicherweise mit unterschiedlichen Auflösungen) berechnen muss.
welcher wäre da empfehlenswert ? Muss nicht viel können sollte nicht zu klein sein
bhf schrieb: > Niklas schrieb: >> Meine Frage ist habe ich da beim zocken dann zusätzliche Verluste durch >> das Kabel oder bzw fallen die dann ins Gewicht ? > > ja Das ist ja sowas von "intelligent", eine entweder/oder-Frage mit "ja" zu beantworten...
niklas schrieb: > ok danke Schlaumeier Der hat hauptsächlich Topfen verzapft. Er klingt schlau, viel Ahnung hat er leider nicht. Ob du Verluste an FPS hast, hängt hauptächlich davon ab, ob die Bildschirmauflösung des externen Monitors höher ist oder nicht. Höhere Auflösung, mehr Aufwand für die Grafikkate. Ob der Laptopbildschirm dabei an oder aus ist, sollte keinen großartigen Unterschied machen, denn Counterstrike belastet den 3D-Teil der GPU, Windows nicht. Die Generierung des HDMI-Signals macht ein Stück Hardware, das belastet die GPU gar nicht. Eine großartige Zeitverzögerund hat man mit HDMI auch nicht.
niklas schrieb: > welcher wäre da empfehlenswert ? Muss nicht viel können sollte nicht zu > klein sein Falls du den Monitor meinst, ist das eigentlich relativ egal. Du kannst sogar wenn dein Laptop eine Digitale-Videoschnittstelle hat, den an dein TV mit HDMI-Anschluß problemlos anschließen. Digitale-Videoschnittstelle = HDMI oder DVI Anschluss. DVI brauchst du aber ein Adapter für 5 Euro der das Signal auf HDMI umwandelt. Ich persönlich halte die Grenzen zwischen Monitor und Flat-TV ziemlich verwaschen. Und ich kenne Leute die ihren 2. TV als Monitor nutzen. Die Frage ist nur dabei. Welche Auflösung kann das TV und welche der Monitor. Gute Monitoren haben eine höhere Auflösung als die meisten TV's. Deren Auflösung ist meist auf die TV-Normen (Full-HD z.b.) begrenzt. Aber Testweise kannst du es problemlos probieren. Monitore selbst empfehle ich NIE. Der Grund ist das jeder Mensch ein eigenen Empfinden hat was er sieht. Mein Rat. Lass dich Impfen damit sie dich rein lassen, gehe bei den "üblichen Verdächtigen" ins Geschäft und schaue die die Monitore in Action an. Schau ob dir das Bild an und der Preis gefällt. Notiere die die Bezeichnung bis auf den letzten i-Punkt (kein Witz) und suche genau danach im Netz oder nimm das Teil halt mit. Ich hatte aber immer eine hohe Meinung von EIZO-Monitoren. Aber bei deren Preis erwarte ich auch nur das beste. ;)
Da du nichts genaues zu deiner Hardware schreibst: > relativen alten schwachen Laptop auf dem ich > CounterStrike spiele mit nur 30fps. Ein digital angeschlossener Monitor kann oft nur genau eine Aufloesung. Ist die groesser als die vom Notebook, wars das mit 30 fps. Dann hast du blos noch eine Diashow. Auf das Gelaber von Schlaumeier muss man exakt gar nichts geben. Dem mangelt es an allem.
Schlaumaier schrieb: > Notiere die die Bezeichnung bis auf den letzten i-Punkt (kein Witz) Mein Acer heisst B277Ubmiipprzx. Auch kein Witz.
3h schrieb: > Ein digital angeschlossener Monitor kann oft nur genau > eine Aufloesung. Ist die groesser als die vom Notebook, > wars das mit 30 fps. Oder er einigt sich mit dem Notebook auf eine geringere Auflösung mit z.B. 60 Hz. Nur muss der Bildschirm das dann umrechnen, was das Bild verschlechtert. Können muss er das, weil beim Rechnerstart keine volle Auflösung an der Schnittstelle ankommt.
Schlaumaier schrieb: > Ich hatte aber immer eine hohe Meinung von EIZO-Monitoren. Aber bei > deren Preis erwarte ich auch nur das beste. ;) Sic transit gloria mundi. Hatte ich nämlich auch erwartet, aus Erfahrung mit älteren EIZOs. Zumal ich den Zirkus mit Rücksendung nicht so gerne habe. Ein 27er mit guter Bedienung (weil vorne) und nützlichen Features -- der dann aber im Randbereich eine auffällig miese Helligkeit aufwies. Der ging dann eben doch gleich zurück und es wurde der viel billigere Acer. Bild ist wichtiger.
:
Bearbeitet durch User
3h schrieb: > Ein digital angeschlossener Monitor kann oft nur genau > eine Aufloesung. Ich ergänze: Ein digital angeschlossener Monitor kann oft nur genau eine Aufloesung gut. Die native. Das trifft auf LCD IMMER zu, unabhängig von der Schnittstelle. Können tun tun die Monitore exakt das was in der EDID steht, das ist oft eine ganze Wagenladung an verschiedenen Auflösungen. Nicht native Auflösungen werden skaliert und das sieht mehr oder weniger gut aus. Umso krummer das Verhältnis, umso schlchter. Wenn der Monitor gut *1) ist oder das Verhältnis z.B. exakt die Hälfte (aus 4 Pixel mach 1) kann das Ergebnis duraus gut bis sehr gut sein. Probieren geht da über studieren, und wenn ein Spiel ruckelt, kann es mit einer kleineren skalierten Auflösung so oft trotzdem noch spielbar gemacht werden. *1) Hier kann es durchaus Unterschiede geben, es gibt anscheinend verschieden gute Skalierungsverfahren, einige tun das eben besser als andere.
Niklas schrieb: > Sowas wird normalerweise ja mit HDMI verkabelt. Das kommt drauf an. Es gibt auch DVI und DisplayPort. Für Computer-Monitore ist DisplayPort heute eher üblich. Schlaumaier schrieb: > Falls du den Monitor meinst, ist das eigentlich relativ egal. Du kannst > sogar wenn dein Laptop eine Digitale-Videoschnittstelle hat, den an dein > TV mit HDMI-Anschluß problemlos anschließen. Gerade da muss man dann aber tatsächlich etwas aufpassen, da Fernseher gerne mal eine große Latenz haben können. Falls er einen "Game"-Modus hat, sollte man den einschalten, oder ansonsten möglichst alle Bildverschlimmbesserer ausmachen, denn die sorgen oft für zusätzliche Verzögerungen. > Digitale-Videoschnittstelle = HDMI oder DVI Anschluss. DVI brauchst du > aber ein Adapter für 5 Euro der das Signal auf HDMI umwandelt. Die wandeln nix um. Und DVI ist am aussterben. Heute hat man DisplayPort. > Die Frage ist nur dabei. Welche Auflösung kann das TV und welche der > Monitor. Gute Monitoren haben eine höhere Auflösung als die meisten > TV's. Deren Auflösung ist meist auf die TV-Normen (Full-HD z.b.) > begrenzt. Dann geh mal zum Elektromarkt. Da findest du jede Menge 4k-Fernseher - wahrscheinlich mehr als mit Full-HD. Mehr als Full-HD ist aber für den TO eh nicht nützlich, da seine Grafikkarte dafür zu langsam ist. (prx) A. K. schrieb: > Oder er einigt sich mit dem Notebook auf eine geringere Auflösung mit > z.B. 60 Hz. Nur muss der Bildschirm das dann umrechnen, was das Bild > verschlechtert. Können muss er das, weil beim Rechnerstart keine volle > Auflösung an der Schnittstelle ankommt. Alternativ kann auch die Grafikkarte bei der Ausgabe skalieren. Zumindest bei NVidia geht das. (prx) A. K. schrieb: > Ein 27er mit guter Bedienung (weil vorne) Monitore mit vernünftiger Bedienung sind sehr rar. Ich habe auch einen Acer, und die Bedienung dort ist grausig, wie bei fast allen Monitoren, die ich kenne. Und sie ist auf der Rückseite. Zefix schrieb: > Wenn der Monitor gut *1) ist oder das Verhältnis z.B. exakt die Hälfte > (aus 4 Pixel mach 1) kann das Ergebnis duraus gut bis sehr gut sein. Leider wird auch da teilweise interpoliert, was das Bild auch matschig macht. > *1) Hier kann es durchaus Unterschiede geben, es gibt anscheinend > verschieden gute Skalierungsverfahren, einige tun das eben besser als > andere. Ja, das habe ich auch beobachtet. pnp schrieb: > Das ist ja sowas von "intelligent", eine entweder/oder-Frage mit "ja" zu > beantworten... Lies die Frage nochmal ganz langsam. Dann wirst du evtl. feststellen, dass es gar keine entweder/oder-Frage ist.
-was für Auflösungen kann deine Laptopgrafik? -in welcher Auflösung möchtest du spielen? -welche Hardwareanschlüsse hat dein Laptop?(DP,HDMI,DVI,VGA) -Bildschirmdiagonale - ja was willst Du? -TV als Monitor - ggf. (sehr wahrscheinlich) Latenzprobleme - bei Games echt blöd und viele interpolieren die Auflösung - auch blöd
Habe gerade unter Linux damit rumgespielt (Sony Vaio Notebook mit NVidia 9300 am BenQ 24" Monitor). Damit kann man 'Bildschirm erweitern' mit erheblichen Performance Einbrüchen, 'Bildschirm synchronisieren' geht nicht, weil BenQ mir ein 'Out of Range' vorwirft, 'Bildschirm extern' spielt gut, muss nur mehr ackern, weil die Fläche des BenQ viel grösser ist. Dabei hat der Vaio eine native Auflösung von 1280*800 und der BenQ 1920*1080. Fazit: Maximale FPS gibts auf dem eingebauten Schirm.
Rolf M. schrieb: > Die wandeln nix um. Und DVI ist am aussterben. Heute hat man > DisplayPort. Nur zur Klarstellung, nicht als Kritik: HDMI und DVI sind signaltechnisch kompatibel (TMDS), lediglich das Pinning der Stecker ist unterschiedlich *1). Die Kabel sind wirklich nur Kabel. Und das trifft auf die meisten (oder alle?) Displayport-Anschlüsse ebenso zu! Und damit können auch modernste Grafikkarten DVI-Displays ansteuern, ohne irgenwelche Nachteile. Ich sitze vor so einem Setup. Also Radeon RX-5600XT und 2x 1920x1200 mit Displayport, die Kabel habe irgendwas mit 6€ gekostet, und sind wirklich nur Kabel ohne jede Elektronik. Veraltet ist technisch gesehen in diesem Fall daher SEHR relativ, es ist wirklich quasi nur der Stecker. *1) Natürlich geht über DVI nicht alles was über HDMI geht, wie Audio oder dieser Kopierschutzquatsch oder diverse Auflösungen.
Zefix schrieb: > Ich sitze vor so einem Setup. Also Radeon RX-5600XT und 2x 1920x1200 mit > Displayport, die Kabel habe irgendwas mit 6€ gekostet, und sind wirklich > nur Kabel ohne jede Elektronik. Sorry. Meine Monitore haben DVI. Die Kabel sind solche: https://www.amazon.de/Benfei-DisplayPort-Display-Adapter-Gold-Plated-1-PACK/dp/B082CXRNPW?ref_=ast_sto_dp&th=1
Zefix schrieb: > Rolf M. schrieb: >> Die wandeln nix um. Und DVI ist am aussterben. Heute hat man >> DisplayPort. > > Nur zur Klarstellung, nicht als Kritik: > HDMI und DVI sind signaltechnisch kompatibel (TMDS), lediglich das > Pinning der Stecker ist unterschiedlich *1). Der Vollständigkeit halber: Das gilt nur für Auflösungen bis 1920x1200 bei 60 Hz. Darüber hinaus gibt es Unterschiede. > Die Kabel sind wirklich nur Kabel. > Und das trifft auf die meisten (oder alle?) Displayport-Anschlüsse > ebenso zu! DisplayPort ist protokolltechnisch nicht das selbe wie HDMI und DVI. Aber viele (nicht alle) Rechner / Grafikkarten können am DisplayPort-Ausgang alternativ auch DVI-/HDMI-Signale ausgeben. In dem Fall geht ein solcher Adapter, der nur aus einem Kabel besteht, aber nur, um einem DVI-/HDMI-Monitor an den DisplayPort-Ausgang anzuschließen, nicht umgekehrt. Falls der Rechner das nicht kann, braucht man einen aktiven Adapter. Diese kosten wohl so typischerweise ab ca. 25 Euro. > Veraltet ist technisch gesehen in diesem Fall daher SEHR relativ, es ist > wirklich quasi nur der Stecker. Wenn du auf mehr als 1920x1200 und/oder mehr als 60Hz gehen willst, dann wirst du den Unterschied merken.
Rolf M. schrieb: > Wenn du auf mehr als 1920x1200 und/oder mehr als 60Hz gehen willst, dann > wirst du den Unterschied merken. Schrieb ich doch? Ich zitier mich mal selber: Zefix schrieb: > *1) Natürlich geht über DVI nicht alles was über HDMI geht, wie Audio > oder dieser Kopierschutzquatsch oder diverse Auflösungen.
Zefix schrieb: > Schrieb ich doch? Es ging mir um diese Aussage: Zefix schrieb: > Und das trifft auf die meisten (oder alle?) Displayport-Anschlüsse > ebenso zu! > Ich zitier mich mal selber: > > Zefix schrieb: >> *1) Natürlich geht über DVI nicht alles was über HDMI geht, wie Audio >> oder dieser Kopierschutzquatsch oder diverse Auflösungen. Da steht aber nix von DisplayPort.
Schlaumaier schrieb: > Digitale-Videoschnittstelle = HDMI oder DVI Anschluss. DVI brauchst du > aber ein Adapter für 5 Euro der das Signal auf HDMI umwandelt. Du lebst in der Vergangenheit. DVI ist veraltet und bereits länger durch DisplayPort oder halt HDMI ersetzt. Wobei HDMI da meinem Eindruck nach auch eher auf dem Rückzug ist. > gehe bei den > "üblichen Verdächtigen" ins Geschäft und schaue die die Monitore in > Action > an. Schau ob dir das Bild an und der Preis gefällt. Wobei die Bildeinstellung im Laden eh immer speziell ist und die Beleuchtung auch. Kann schon sein, das zuhause der Spaß dann weniger toll wirkt.
Niklas schrieb: > habe ich da beim zocken dann zusätzliche Verluste durch das Kabel Natürlich. Was studierst du, Marketing ? Die lügen sich immer was zusammen. Als Informatiker wüsstest du was ein HDMI Interface ist und wie das zwischen Graphikchip und LCD Panel hängt. Aber Computerspiele zocken und Informatik studieren passt ja auch nicht zusammen, da kommen ja nur Loser bei raus.
Ich würde mal noch die Bildschirmfläche und Auslösung zur Diskussion stellen: Es ist sehr angenehm mehr Fläche auf dem Bildschirm zu haben um zwei Fenster mit ordenlicher Größe nebeneinander offen haben zu können. Beispiel wäre Text überarbeiten, eins Vorlage/Recherche, anderes das Textprogramm der Wahl in der man schreibt. Dabei stößt FullHD (1920x1080) an seine Grenzen, denn über 24" werden die Pixel arg groß. Mit WQHD (2560x1440) hat man da bei 27" schon einiges mehr auf dem Monitor (=entspricht auch mehr Arbeit für die GraKa WENN man die volle Auflösung nutzt). 4k kann man machen, aber wenn man es nciht für die superfeinen Pixel macht dann wird der Monitor arg groß, so um die 40" und dann ist der Betrachtungsabstand bei normaler Arbeit eben schon grenzwertig. Ich hab so einen und bin in gewissen Grenzen ganz glücklich damit. Ich halte aber 27" WQHD für die beste Mitte und das ist auch nicht gleich so teuer. Wenn man in Spielen auf Full HD schaltet sieht das auch gut aus und belastet die Graka nicht mehr als ein normaler Full HD Monitor.
@TO Sag mal die Daten und Name deine Lappi. Es ist nämlich (egal was alle sagen) eine Frage der Leistung + der Fähigkeit deiner Grafikkarte. Das kann man i.d.R. nachprüfen wenn man weiß, was du für ein Gerät hast.
3h schrieb: > Da du nichts genaues zu deiner Hardware schreibst: >> relativen alten schwachen Laptop auf dem ich >> CounterStrike spiele mit nur 30fps. > > Ein digital angeschlossener Monitor kann oft nur genau > eine Aufloesung. Ist die groesser als die vom Notebook, > wars das mit 30 fps. Dann hast du blos noch eine Diashow. Das ist falsch. Die Monitore können auch kleinere Auflösungen fahren, nur ist das dann oft nicht mehr ein vielfaches der nativen Auflösung und sieht dann entsprechend schlecht aus. Grundsätzlich macht es daher Sinn einen externen Monitor zu nehmen, der genau die gleiche native Auflösung hat, wie das Display am Notebook. Wen das Notebook also FullHD hat, dann sollte auch der Monitor FullHD sein oder Alterantiv, genau das doppelte. Denn gerade Vielfache der Ursprungsauflösung sehen natürlich, selbst wenn man so einen Monitor auf die kleinere Usprungsauflösung einstellt, immer noch scharf und gut aus. Bei FullHD mit seinen 1920 × 1080 wäre das also ein Monitor mit einer nativen Auflösung von 2 x 1920 × 1080 = 3840 x 2160 Pixeln. Einen solchen kann man dann problemlos nehmen. Spielt man das Spiel dann mit halber Auflösung um die 30 fps zu behalten, sieht das immer noch gut aus, da 1 Pixel dann auf so einem Bildschirm zu einer 2x2 Pixelfläche wird. Und das ist gerade. Auflösungen die davon abweichen sind dagegen schlecht.
Rolf M. schrieb: > Dann geh mal zum Elektromarkt. Da findest du jede Menge 4k-Fernseher - > wahrscheinlich mehr als mit Full-HD. Mehr als Full-HD ist aber für den > TO eh nicht nützlich, da seine Grafikkarte dafür zu langsam ist. Das ist eben falsch. Siehe oben. Genau 2 x FullHD kann nützlich sein. Er wird dann zwar seine Spiele weiterhin in nur FullHD spielen, da seine GPU langsam ist, aber außerhalb der Spiele profitiert er dann von der 2xFullHD Auflösung. Und bei alten Spielen, sofern die das unterstützen erst recht.
Auflösung ist eine individuelle Sache. 110 DPI, also z.B. 27" 2560x1440, ist für mich die Grenze. Bei deutlich höherem DPI Wert beim stationären Bildschirm wäre es im normalen Desktop nötig, manches hoch zu skalieren, und das gibt dann wieder eigene Probleme.
:
Bearbeitet durch User
Nano schrieb: > Wen das Notebook also FullHD hat, dann sollte auch der Monitor FullHD > sein oder Alterantiv, genau das doppelte. Vielleicht bei Spiegelung des Desktops. Bei Erweiterung des Desktops auf alle Bildschirme sind alle unabhängig. Windows und Linux.
:
Bearbeitet durch User
Nano schrieb: > Siehe oben. Genau 2 x FullHD kann nützlich sein. > Er wird dann zwar seine Spiele weiterhin in nur FullHD spielen, da seine > GPU langsam ist, aber außerhalb der Spiele profitiert er dann von der > 2xFullHD Auflösung. Ich hatte mich jetzt auf die Spiele bezogen. Und ob der mit dem Niklas schrieb: > relativen alten schwachen Laptop überhaupt 4k ausgeben kann, ist eher fraglich. Falls ja, dann muss man aber auf jeden Fall schauen, ob HDMI oder DisplayPort, denn sowohl bei den Monitoren, als auch bei den Rechnern gibt es auch welche, die nur auf einem davon mit 4k arbeiten können, je nachdem, welche Version der jeweiligen Schnittstelle sie unterstützen. Evtl. hat man dann bei 4k auch nur 30 Hz, was zwar geht, aber zumindest für mich auch auf dem Desktop eher unschön ist.
Produktiv schrieb: > Dabei stößt FullHD (1920x1080) an seine Grenzen, denn über 24" werden > die Pixel arg groß. Mit WQHD (2560x1440) hat man da bei 27" schon > einiges mehr auf dem Monitor (=entspricht auch mehr Arbeit für die GraKa > WENN man die volle Auflösung nutzt). 4k kann man machen, aber wenn man > es nciht für die superfeinen Pixel macht dann wird der Monitor arg groß, > so um die 40" und dann ist der Betrachtungsabstand bei normaler Arbeit > eben schon grenzwertig. Ich hab so einen und bin in gewissen Grenzen > ganz glücklich damit. Besonders IDEs wie Eclipse oder Visual Studio mit ihren vielen Nebenfenstern profitieren von 4K. Damit Text dann noch lesbar bleibt sollte der Monitor groß sein. 27 Zoll wäre mir zu klein, ein Trumm von 40 Zoll hätte bei mir keinen Platz, daher 32 Zoll bei 90 cm Abstand. In den IDEs nicht aber in anderen Anwendungen, z.B. Browser vergrößere ich teilweise die Schrift. Bei so großen Bildschirmen kann die Blickwinkelabhängigkeit wichtig werden. Ich habe deshalb einen mit IPS-Panel genommen.
Blechbieger schrieb: > Damit Text dann noch lesbar bleibt > sollte der Monitor groß sein. Das ist absolut kein Argument. Ich habe in allen IDE's die ich nutzt die SChriftart vergrößern müssen. Aber ansonsten gebe ich dir Recht. Wenn man 800 x 600 als kleinste !!! Auflösung in einen VOLL-Skalierbaren Programm vorsieht (das ist auch die Auflösung in der ich mein Design erstelle) , und das 1:1 ohne scrollen designen will, braucht mal ne Menge Pixel für all die Objekte und Eigenschaften-Fenster rund herum. ;) Der einzige der Schriftgrößen nicht wirklich im Griff hat, ist MS selbst. Das ist zum kotzen mit deren Schriftgrößen-Einstellungen im Desktop.
Blechbieger schrieb: > Bei so großen Bildschirmen kann die Blickwinkelabhängigkeit wichtig > werden. Ich habe deshalb einen mit IPS-Panel genommen. Ich habe das Problem übrigens gelöst in den ich den Monitor aufgehängt habe. Einfach gesagt, ich habe am Schreibtisch ein Rohr montiert, an den eine höhenverstellbare Winkel-Achse montiert ist, und an deren Ende ist eine rotierende VESA-Halterung mit 15° Kipp-Winkel-Einstellung. Damit stelle ich den Monitor in fast JEDE Position die ich will. Aktuell 3° schief auf mich zu geneigt. Ach so nebenbei. Das Zauberteil gab/gibt es bei Amazon. Das ist nicht selbst gebastelt. Mann sollte allerdings ein Schreibtisch aus Holz haben, nicht aus gepresster Pappe. Meine ich ernst.
>Moin, ich habe einen relativen alten schwachen Laptop auf dem ich >CounterStrike spiele mit nur 30fps. Und ihr träumt von höchsten Auflösungen / Bilddiagonalen? Der Laptop müsste das ja auch liefern können. Der TO müsste mal (wie öfters gefordert) sagen, was seine Grafik bieten kann (bei 30fps glaube ich eher weniger), welche Schnittstellen vorhanden sind etc. Ansonsten ist das hier sinnlos!
Schlaumaier schrieb: > Der einzige der Schriftgrößen nicht wirklich im Griff hat, ist MS > selbst. Das ist zum kotzen mit deren Schriftgrößen-Einstellungen im > Desktop. Wegen solcher Spielchen ziehe ich es vor, gleich einen an meine Adleraugen angepassten Monitor zu kaufen, statt einen mit zu hohem DPI hinterher korrigieren zu müssen.
:
Bearbeitet durch User
Schlaumaier schrieb: > Blechbieger schrieb: >> Damit Text dann noch lesbar bleibt >> sollte der Monitor groß sein. > > Das ist absolut kein Argument. > > Ich habe in allen IDE's die ich nutzt die SChriftart vergrößern müssen. Damit passt aber weniger Text in denselben Bereich. Bei einer IDE geht es mir gerade darum möglichst viel auf einmal zu sehen ohne Scrollen zu müssen. Schlaumaier schrieb: > Blechbieger schrieb: >> Bei so großen Bildschirmen kann die Blickwinkelabhängigkeit wichtig >> werden. Ich habe deshalb einen mit IPS-Panel genommen. > > Ich habe das Problem übrigens gelöst in den ich den Monitor aufgehängt > habe. > > Einfach gesagt, ich habe am Schreibtisch ein Rohr montiert, an den eine > höhenverstellbare Winkel-Achse montiert ist, und an deren Ende ist eine > rotierende VESA-Halterung mit 15° Kipp-Winkel-Einstellung. Mir ging es eher um den Winkel zwischen linkem und rechtem Rand. Der ist nur von Größe und Abstand abhängig. Höhe und Kippwinkel sind am Fuß meines Monitors weit genug einstellbar.
Blechbieger schrieb: > Mir ging es eher um den Winkel zwischen linkem und rechtem Rand. Der ist > nur von Größe und Abstand abhängig. Und vom Bildschirm. Blech zu biegen ist einfacher, als Bildschirme zu biegen. Das überlässt man lieber den Herstellern. Und die haben gemerkt, dass das sinnvoll sein kann, um den Betrachtungswinkel in Grenzen zu halten. Blickwinkelabhängigkeit war das Problem am erwähnten EIZO. Wenn ich senkrecht auf den linken Rand unten draufsah, war er an dieser Stelle gut. Aber eben nicht mitten davor. Sowas darf beim Preis eines EIZO einfach nicht vorkommen.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Und vom Bildschirm. Blech zu biegen ist einfacher, als Bildschirme zu > biegen. Das überlässt man lieber den Herstellern. Und die haben gemerkt, > dass das sinnvoll sein kann, um den Betrachtungswinkel in Grenzen zu > halten. Stimmt, an curved habe ich gar nicht gedacht. Vermutlich weil ich die nicht mag aber das ist Geschmackssache. Für Liniengrafik wie Layout oder CAD ist 4K auch angenehm, man sieht bei gleicher Zoomstufe mehr Details.
Rolf M. schrieb: > Falls ja, dann muss man > aber auf jeden Fall schauen, ob HDMI oder DisplayPort, denn sowohl bei > den Monitoren, als auch bei den Rechnern gibt es auch welche, die nur > auf einem davon mit 4k arbeiten können, je nachdem, welche Version der > jeweiligen Schnittstelle sie unterstützen. Evtl. hat man dann bei 4k > auch nur 30 Hz, was zwar geht, aber zumindest für mich auch auf dem > Desktop eher unschön ist. Ja, das stimmt natürlich. Der GPU Ausgang sollte so eine 4K Auflösung natürlich auch noch fahren können. Da muss man dann mal genau hinsehen, wie alt das Notebook wirklich ist oder ob es vielleicht nur einfach schwachbrüstig, aber nicht all zu alt ist. Für Spieler ist eine Auflösung von 3840 x 2160 Pixeln jedenfalls die beste Lösung, eben weil FullHD dann nur die Hälfte davon ist und das nativ dann immer noch auf solchen Bildschirmen sehr gut aussieht. Leider gibt es Bildschirme mit dieser Auflösung kaum in kleinen Bildschirmdiagonalen. Das würde mich zumindest stören. Ich halte es nämlich für sinnvoller, lieber 3 mal 24" oder 26" Monitore aufzustellen, als einen großen 32" oder gar noch größeren Bildschirm. Aber vielleicht bin ich da auch einfach altmodisch, denn zugegeben, so einen großen überbreiten krummen Bildschirm ohne Rand hatte ich auch noch nicht. 3 Bildschirme haben halt den Vorteil, dass der Centerbildschirm sich auch für alte Spiele eignet, wo man an überbreite Bildschirme noch gar nicht gedacht hat. Und man braucht auch keine Tiling Softwarelösung, wenn man mehrere Fenster nebeneinander in einer quasi Vollbilddarstellung haben möchte.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.