Moin! VGA war lange der gebräuchlichste Monitor Anschluss am PC. Welcher ist es heute bei neuen Monitoren?
HDMI (DVI) - Die sind auch elektrisch kompatibel Im Profibereich eher Displayport - Nicht kompatibel mit HDMI / DVI
waflija schrieb: > Nicht kompatibel mit HDMI / DVI So groß ist das Problem nicht - einerseits sind viele Graphikkarten mit Displayport "bilingual", d.h. sie können mit sehr günstigen passiven Adaptern am DisplayPort ein HDMI/DVI-Signal ausgeben, andererseits sind auch aktive Displayport-zu-HDMI/DVI kaum teurer als passive Adapter. Vorzüge von Displayport: Höhere Auflösungen, mechanische Verriegelung des Steckers (sofern nicht Mini-DP), und die prinzipiell vorgesehene Möglichkeit des "daisy-chaining", d.h. mehrere Monitore können quasi hintereinander an einen DP-Ausgang angeschlossen werden, sofern Graphikkarte und Monitore das unterstützen.
Displayport ist recht verbreitet. HDMI, DVI und Displayport sind zwar nicht direkt kompatibel, aber eng miteinander verwandt. Daher sind Konverter günstig erhältlich.
Gemäß den Postings scheint es - anders als beim früher allgegenwärtigen VGA - DEN Standard nicht zu geben. Wenn man von Anwendungen ausgeht, die auf dem Intel-CPU internen Grafikprozessor ausgeführt werden und keiner Grafikkarte bedürfen: Gibt es dort auch keine Präferenz für HDMI, DVI oder Displayport, so dass man auf einer relativ sicheren Seite ist, Alles mit Allem ohne Adapter verbinden zu können?
Harm P. schrieb: > Gibt es dort auch keine Präferenz für HDMI, DVI > oder Displayport, so dass man auf einer relativ sicheren Seite ist, > Alles mit Allem ohne Adapter verbinden zu können? Das interessiert eigentlich die Anwendung gar nicht. Das Programm weiß in der Regel gar nicht, welche Schnittstelle zum Monitor geht. Im Extremfall ist gar kein Monitor angeschlossen, sondern am anderen Ende der Welt sitzt jemand, der den Rechner z.B. über RDP oder ähnliches bedient... Ich verstehe im Moment dein Problem nicht :-)
PC-Monitore haben oft mehrere verschiedene Schnittstellentypen.
Harm P. schrieb: > Gibt es dort auch keine Präferenz für HDMI, DVI oder Displayport, Die native Schnittstelle aktueller Intel-Graphikhardware ist Displayport, auf Motherboards sind entsprechende Konverterbausteine verbaut, die darauf DVI/HDMI oder auch VGA-Signale erzeugen. Aber das ist ein reines Hardware-, kein Softwarethema.
Harm P. schrieb: > so dass man auf einer relativ sicheren Seite ist, > Alles mit Allem ohne Adapter verbinden zu können? Das glaube ich nicht, es gibt schon Probleme DVI mit DVI zu verbinden. Ich habe mehrere NVidia-Karten, die mit einem Samsung-Monitor (VGA + DVI) absolut nicht reden wollen, nur mit einem DVI-VGA-Adapter, was die Sache ziemlich absurd macht. Es gibt von DVI soweit ich weiss 3 Ausführungen. Ich denke, DVI war so eine Fehlentwicklung wie die Energiesparlampen. Der Stecker ist ja grösser als VGA und die Kompatibilität miserabel. Langfristig sollten sich Displayport und HDMI durchsetzen, wobei man eigentlich nicht 2 Standards braucht. Georg
Georg schrieb: > Es gibt von DVI soweit ich weiss 3 Ausführungen. Naja, praktisch nutzlos war die Idee, darüber auch VGA-Signale transportieren zu wollen. Lässt man das beiseite, gibt es zwei Varianten - Single-Channel-DVI, was die Bildschirmauflösung auf WUXGA (1920x1200) begrenzt, oder Dual-Channel-DVI, was WQXGA (2560x1600) ermöglichte. Tatsächlich kann man DVI als überholt betrachten - HDMI schafft es mit höheren Datenraten höhere Auflösungen zu übertragen, obwohl die Anzahl der Signalleitungen der von Single-Channel-DVI entspricht. Allerdings gibt es viele HDMI-Standards, und noch wird viel Hardware mit veralteten Ausführungen verkauft (also HDMI < 2.0), was lästig ist, wenn man "UHD"- (3840x2160) oder gar "5K"-Displays (5120x2880) betreiben möchte. Natürlich ist auch bei DP keine Perfektion zu erwarten, auch da gibt es unterschiedliche Versionen, und man will mindestens DP 1.2 haben (kann 2160p60), besser aber DP 1.3 (2880p60). Immerhin hatte OpenLDI als Monitorschnittstelle nur ein kurzes Gastspiel ... das gab es nur bei einem einzigen Monitor, den man heute als komplett obsolet betrachten kann (SGI 1600SW mit sagenhaften 1200x1024 Pixeln Auflösung).
Rufus Τ. F. schrieb: > Georg schrieb: >> Es gibt von DVI soweit ich weiss 3 Ausführungen. > Naja, praktisch nutzlos war die Idee, darüber auch VGA-Signale > transportieren zu wollen. Wie bitte!? Das war doch gerade in der Anfangszeit von DVI, als viele Monitore und Beamer nur mit VGA-Eingang daher kamen, richtig praktisch. Statt dass man auf dem Slotblech der Grafikkarte oder dem Laptop-Gehäuse Platz für einen VGA-Ausgang verschwenden musste, konnte man sich einfach für ein paar Mark einen DVI-VGA-Adapter besorgen und fertig.
Alter Mann schrieb: > Wie bitte!? Das war doch gerade in der Anfangszeit von DVI, als viele > Monitore und Beamer nur mit VGA-Eingang daher kamen, richtig praktisch. Sicher. Für die ersten drei Wochen*. Dann aber war VGA obsolet. *) etwas überspitzt dargestellt.
waflija schrieb: > HDMI (DVI) - Die sind auch elektrisch kompatibel > > Im Profibereich eher Displayport - Nicht kompatibel mit HDMI / DVI Falsch, denn es gibt diverse passive Adapter DP - HDMI. Ich habe so ein Teil und das funktioniert, von DM zu einem HDMI-Monitor.
>Welches ist der gebräuchlichste Monitor Anschluss am PC?
Der, an den man mit der Hand in der dunklen Zimmer-Ecke am schlechtesten
rankommt. Wenn man denkt, man hat ihn gefunden, ist es der von der
seriellen Schnittstelle.
BTDT
Paul
Erwin M. schrieb: > Falsch, denn es gibt diverse passive Adapter DP - HDMI. > Ich habe so ein Teil und das funktioniert, von DM zu einem HDMI-Monitor. deswegen sind sie noch lange nicht immer kompatibel https://de.wikipedia.org/wiki/DisplayPort [...] 1.keine direkte elektrische Kompatibilität mit DVI - allerdings durch automatische Erkennung des Verbindungstyps und Umschaltung der Leitungstreiber ab DisplayPort 1.1 emulierbar. [...] muss also nicht funktionieren.
Peter II schrieb: > Erwin M. schrieb: >> Falsch, denn es gibt diverse passive Adapter DP - HDMI. >> Ich habe so ein Teil und das funktioniert, von DP zu einem HDMI-Monitor. > > deswegen sind sie noch lange nicht immer kompatibel > > https://de.wikipedia.org/wiki/DisplayPort > [...] > 1.keine direkte elektrische Kompatibilität mit DVI - allerdings durch > automatische Erkennung des Verbindungstyps und Umschaltung der > Leitungstreiber ab DisplayPort 1.1 emulierbar. > [...] > > muss also nicht funktionieren. Ja, ok, es ist also halb-kompatibel. Oder wie Gates sagen würde "It works most of the time/tries.".
Peter II schrieb: > muss also nicht funktionieren. Ich schrieb schon vor Stunden, daß es auch aktive Adapter gibt, und daß die nur unwesentlich mehr kosten als die passiven Adapter für bilinguale Graphikkarten. Das ist also kein Problem.
Rufus Τ. F. schrieb: > Höhere Auflösungen, mechanische Verriegelung des Steckers (sofern nicht > Mini-DP), und die prinzipiell vorgesehene Möglichkeit des > "daisy-chaining", d.h. mehrere Monitore können quasi hintereinander an > einen DP-Ausgang angeschlossen werden, sofern Graphikkarte und > Monitore das unterstützen. Warum sollte das denn bei DVI und HDMI anders sein? Und warum muss die Grafikkarte das unterstützen? Harm P. schrieb: > Gemäß den Postings scheint es - anders als beim früher allgegenwärtigen > VGA - DEN Standard nicht zu geben. Das ist richtig. Früher war in Besprechungsräumen am Beamer ein VGA-Anschluss und fertig. Heute ist der meist auch noch vorhanden, daneben aber ein DisplayPort-Kabel und eine Handvoll Adapter für mini-DP, HDMI, mini-HDMI und DVI. Georg schrieb: > Das glaube ich nicht, es gibt schon Probleme DVI mit DVI zu verbinden. Das Problem hatte ich bisher nur mit Kabeln, die außerhalb der Spezifikation lagen. > Es gibt von DVI soweit ich weiss 3 Ausführungen. Naja, es gibt DVI-D, das nur ein Digital-Signal hat, DVI-I, bei dem auf dem Stecker zusätzlich noch ein VGA-Signal liegt und DVI-A, das nur das VGA-Signal hat. Letzteres habe ich aber in der realen Welt nie gesehen. Dann hat man noch DualLink-DVI, das man für Auflösungen größer als 1920x1200 benötigt. > Ich denke, DVI war so eine Fehlentwicklung wie die Energiesparlampen. > Der Stecker ist ja grösser als VGA und die Kompatibilität miserabel. Weil du einen Monitor gefunden hast, der nicht richtig funktioniert? Bei mir war DVI immer genauso zuverlässig wie VGA. > Langfristig sollten sich Displayport und HDMI durchsetzen, wobei man > eigentlich nicht 2 Standards braucht. Du beschwerst dich über den DVI-Stecker und willst dann HDMI. Bei dem hat man nicht mal an eine Arretierung gedacht. Rufus Τ. F. schrieb: > Natürlich ist auch bei DP keine Perfektion zu erwarten, auch da gibt es > unterschiedliche Versionen, und man will mindestens DP 1.2 haben (kann > 2160p60), besser aber DP 1.3 (2880p60). Gibt's denn überhaupt Monitore, die letzteres haben? Oder warum will "man" das? Rufus Τ. F. schrieb: > Alter Mann schrieb: >> Wie bitte!? Das war doch gerade in der Anfangszeit von DVI, als viele >> Monitore und Beamer nur mit VGA-Eingang daher kamen, richtig praktisch. > > Sicher. Für die ersten drei Wochen*. Dann aber war VGA obsolet. > > *) etwas überspitzt dargestellt. Eher sehr überspitzt. Ich würde eher so 5 Jahre nennen. Man muss eben mal weiter denken als den heimischen PC, zu dem man sich dann gleich den passenden Monitor dazu kauft. Auch heute hat praktisch jede Grafikkarte noch den DVI-I-Ausgang, damit man überhaupt noch VGA-Geräte anschließen kann. Die gibt es nämlich durchaus noch. Lustigerweise habe ich letztens geschäftlich einen 19"-Rechner mit aktuellem Xeon-Prozessor gekauft und mußte feststellen, dass der nur einen VGA-Ausgang hat. Kein DVI, kein HDMI, kein Displayport. Es werden also auch heute noch neue Rechner verkauft, die gar nix anders haben als VGA.
Ja, die Zeiten eines einheitlichen VGA Steckers für alle Lebenslagen sind vorbei. Aber dank der eifrigen Chinesen ist das kein Problem, denn aktive Kombi-Adapter mit beispielsweise Displayport rein und VGA+DVI+HDMI raus gibts für 10€ oder so. Das sieht ein wenig doof aus, funktioniert aber. Rolf M. schrieb: > also auch heute noch neue Rechner verkauft, die gar nix anders haben als > VGA. Bei Servern ist das völlig normal. Die werden oft headless betrieben und ein Monitor kommt nur bei Gelegenheit ran. Dafür tut es dann auch VGA. Bei Rackservern findet sich deshalb mitunter auch ein VGA-Anschluss vorne. Fürs Wägelchen mit Monitor, Tastatur und Maus.
:
Bearbeitet durch User
Georg schrieb: > Ich habe mehrere NVidia-Karten, die mit einem Samsung-Monitor (VGA + > DVI) absolut nicht reden wollen, nur mit einem DVI-VGA-Adapter, was die > Sache ziemlich absurd macht. Aus der Praxis kenne ich das nur von zwei Fällen her, die allerdinsg mit dem DVI-Standard an sich nichts zu tun haben. Einmal bestimmte Monitor-/Grafikkarten-Kombis unter Linux und der andere Fall war ein Problem des Treibers früherer Intel CPU-Grafik. Der wollte am DVI-Port nicht mit Monitoren arbeiten, die kein HDCP unterstützen. Die ließen sich nur per VGA betreiben. Das Problem wurde jedoch mit einem Treiberupdate behoben.
Rolf M. schrieb: > Warum sollte das denn bei DVI und HDMI anders sein? Und warum muss die > Grafikkarte das unterstützen? "Daisy Chaining" bedeutet nicht, daß die betroffenen Monitore das gleiche Bild darstellen; sie werden separat angesteuert. Und genau das ist bei DVI und HDMI nicht vorgesehen (nein, die Möglichkeit, mit einem Dual-Link-Ausgang zwei Single-Link-DVI-Geräte zu speisen ist nicht gleichwertig). > Gibt's denn überhaupt Monitore, die letzteres haben? Oder warum will > "man" das? Ja, natürlich. Die Auflösung nennt sich "5K". Beispiele dafür sindDell UP2715K oder Philips 275P4VYKEB/00.
A. K. schrieb: > Rolf M. schrieb: >> also auch heute noch neue Rechner verkauft, die gar nix anders haben als >> VGA. > > Bei Servern ist das völlig normal. Die werden oft headless betrieben und > ein Monitor kommt nur bei Gelegenheit ran. Dafür tut es dann auch VGA. Wobei ich mich schon frage, wo die überhaupt noch Grafikchips herbekommen, die nur VGA können. Auf dem Board ist irgendein uralter Matrox-Chip verlötet, für den's nicht mal Windows-7-Treiber gibt. Für Server-Betriebssysteme gibt's anscheinen noch irgendeinen hochgepatchten Treiber. Ich frage mich eh, warum Intel ausgerechnet bei den Server-CPUs die Prozessorgrafik weggelassen hat, sodass die Hersteller da immer noch eine separate Grafik auf dem Board verbauen müssen. > Bei Rackservern findet sich deshalb mitunter auch ein VGA-Anschluss > vorne. Fürs Wägelchen mit Monitor, Tastatur und Maus. Ja, ist in dem Fall auch so.
Rufus Τ. F. schrieb: > Rolf M. schrieb: >> Warum sollte das denn bei DVI und HDMI anders sein? Und warum muss die >> Grafikkarte das unterstützen? > > "Daisy Chaining" bedeutet nicht, daß die betroffenen Monitore das > gleiche Bild darstellen; sie werden separat angesteuert. Nein, aber ich habe Monitore, die man per DVI kaskadieren kann, sprich: Jeder hat einen DVI-Eingang und einen DVI-Ausgang. Die hängt man dann alle hintereinander (Daisy Chain eben), und dann kann man sie so konfigurieren, dass sich jeder seinen Teil aus dem Bild rauspickt. Die Grafikkarte merkt dabei nicht, dass das mehrere Monitore sind. Somit muss das nur vom Monitor unterstützt werden und nicht von der Grafikkarte. Daher die Frage: Warum muss das bei DisplayPort extra vorgesehen sein, und warum muss es da auch die Grafikkarte untestützen? >> Gibt's denn überhaupt Monitore, die letzteres haben? Oder warum will >> "man" das? > > Ja, natürlich. Die Auflösung nennt sich "5K". Beispiele dafür sindDell > UP2715K oder Philips 275P4VYKEB/00. Ach richtig, die hatte ich ganz vergessen. Ob man sowas aber zwingend braucht, muss jeder selber wissen. Die meisten werden sich eh keinen 5k-Monitor kaufen.
Rolf M. schrieb: > Ich frage mich eh, warum Intel ausgerechnet bei den Server-CPUs die > Prozessorgrafik weggelassen hat, sodass die Hersteller da immer noch > eine separate Grafik auf dem Board verbauen müssen. Bei Servern hat man heute routinemässig ein umfangreiches Remote-Management mit eigenem Prozessor und eigenem Ethernet-Anschluss mit drin. Das braucht sowieso eine eigene Grafikfunktion, um direkt aufs Bild zugreifen zu können. Die CPU soll das tun wozu sie da ist. Leicht schräg ist das nur bei den Lowend-Servern der e3-12xx Klasse. Das sind umgelabelte Desktop-Prozessoren mit abgeschalteter GPU.
:
Bearbeitet durch User
Rufus Τ. F. schrieb: > Rolf M. schrieb: >> ich habe Monitore, die man per DVI kaskadieren kann > > Ach? Welche wären das? Ich habe sie nicht selber, sondern sie sind geschäftlich im Einsatz. Den Typ weiß ich gerade nicht. Es handelt sich auch nicht um normale Desktop-Monitore, sondern um Präsentationstechnik, in dem Fall 70"-TFTs. Ich glaube, dass das bei solchen Monitoren auch nicht so unüblich ist.
Besonders hohe Auflösung können die Dinger dann aber nicht haben, und die Graphikkarte muss in der Lage sein, sehr bizarre Bildformate zu liefern, wie z.B. 3840x1200 für zwei WUXGA-Displays nebeneinander, oder 1920x2400 für zwei WUXGA-Displays übereinander. Beim DP-Daisychaining sind die Monitore zwar physisch an einem Kabel angeschlossen, aber logisch sind sie separat, d.h. sie können auch unterschiedliche Auflösungen haben, und die Graphikkarte muss nicht irgendein riesiges Bildformat über alles ausgeben, aus dem sich die Monitore dann was aussuchen.
A. K. schrieb: > Rolf M. schrieb: >> also auch heute noch neue Rechner verkauft, die gar nix anders haben als >> VGA. > > Bei Servern ist das völlig normal. Die werden oft headless betrieben und > ein Monitor kommt nur bei Gelegenheit ran. Dafür tut es dann auch VGA. Ja, aber auch das ist problematisch. Bei einem Server, den ich 2000 zusammenbaute und dann ohne Monitor im Keller aufstellte, zeigte sich das der ohne Monitor nicht bootet. Die Nachforschung ergab dann das die (Nvidia-)Grafikkarte dem Mainboard einen Fehler meldet, der in einer frühen POST-Phase zum Stopp führt. Gemeinerweise wird das dem Benutzer nicht gemeldet, beispielsweise über ein Piepen. Letztlich musste ich damals einen VGA-Stecker nehmen und einen 75 Ohm-Widerstand zwischen Masse und Grünsignal löten um den Bug zu umgehen. Die meisten Rechner werden nur für Mausschubser gemacht und sie wollen Fürsorge wie einen immer angeschlossenen Monitor.
Erwin M. schrieb: > Ja, aber auch das ist problematisch. Bei einem Server, den ich 2000 > zusammenbaute und dann ohne Monitor im Keller aufstellte, zeigte sich > das der ohne Monitor nicht bootet. Ich bezog mich auf Rechner, die für Serverfunktion gebaut werden. Nicht auf Bastelkram, oder Desktops, die als Server genutzt werden. Es gab einstmals auch wirklich Rechner mit der legendären Meldung No keyboard detected. Press F1 to continue. Oder so ähnlich. Heute gibts im BIOS von Desktops nicht selten eine "headless" Option.
:
Bearbeitet durch User
A. K. schrieb: > Es gab einstmals auch wirklich Rechner mit der legendären Meldung > No keyboard detected. > Press F1 to continue. > Oder so ähnlich. Ich meine, es war sowas wie "Keyboard error or no keyboard present. Press F1 to continue". Heute würde man sagen: FAIL! > Heute gibts im BIOS von Desktops nicht selten eine "headless" Option. Es gibt ja auch oft eine Option, um zu wählen, bei welchen "Fehlern" das BIOS anhält statt zu booten. Rufus Τ. F. schrieb: > Besonders hohe Auflösung können die Dinger dann aber nicht haben, Nein. Man kann auf jeden Fall nicht die volle Auflösung der Einzeldisplays ausreizen. Das ist ja schon durch die Bandbreite von DVI vorgegeben. Ich weiß nicht genau, ob das ganze überhaupt Dual-Link-fähig ist. > und die Graphikkarte muss in der Lage sein, sehr bizarre Bildformate zu > liefern, wie z.B. 3840x1200 für zwei WUXGA-Displays nebeneinander, oder > 1920x2400 für zwei WUXGA-Displays übereinander. Sowas ist für die Grafikkarte in der Regel kein Problem. Limitierend sind da oft die Treiber, vor allem unter Windows - und die Automatiken. Wenn man sich dagegen von Hand für Xorg eine Modeline schnitzt, gehen in der Regel auch sehr exotische Auflösungen. > Beim DP-Daisychaining sind die Monitore zwar physisch an einem Kabel > angeschlossen, aber logisch sind sie separat, d.h. sie können auch > unterschiedliche Auflösungen haben, und die Graphikkarte muss nicht > irgendein riesiges Bildformat über alles ausgeben, aus dem sich die > Monitore dann was aussuchen. Ah, ok. Es sind quasi getrennte Monitore, die aber über ein gemeinsames Kabel am Rechner hängen, statt jeder über ein eigenes.
Rolf Magnus schrieb: > Sowas ist für die Grafikkarte in der Regel kein Problem. Sofern man im Rahmen dessen bleibt, was die Hardware ermöglicht. Und da ist bei DVI die Luft sehr schnell sehr dünn - die TMDS-Transceiver haben eine nur endliche Bandbreite. Vor Äonen mal hatte ich mir meinen ersten Monitor mit DVI-Anschluss beschafft (mit UXGA-Auflösung) und vermeintlich passend dazu eine Matrox-Graphikkarte mit DVI-Anschluss. Leider stellte sich dann heraus, daß die auf dieser verbauten TMDS-Transceiver so lahm waren, daß bereits bei 1280x1024 das Ende der Fahnenstange erreicht war, und das Monitor nicht mit seiner nativen Auflösung angesteuert werden konnte. War, wenn ich mich recht erinnere, 'ne G450 oder 'ne G400.
Erwin M. schrieb: > Die Nachforschung ergab dann das die > (Nvidia-)Grafikkarte dem Mainboard einen Fehler meldet, der in einer > frühen POST-Phase zum Stopp führt Dafür sollte es die BIOS-Einstellung "Stop on Error" geben, die man ausschalten muss. Besonders für Server, aber nobody is perfect. Ein Server sollte eigentlich starten selbst wenn garkeine Grafikkarte drin ist. Georg
Rufus Τ. F. schrieb: > Rolf Magnus schrieb: >> Sowas ist für die Grafikkarte in der Regel kein Problem. > > Sofern man im Rahmen dessen bleibt, was die Hardware ermöglicht. Und da > ist bei DVI die Luft sehr schnell sehr dünn - die TMDS-Transceiver haben > eine nur endliche Bandbreite. Ich hatte mich nicht so sehr auf die hohe Auflösung, sondern eher auf "bizarre Bildformate" bezogen. Ich musste letztens ein Display mit einer Auflösung von 1920x610 ansteuern. Dafür habe ich mir vorher eine Modeline gebastelt, die diese Auflösung auch exakt so mit 60 Hz ausgibt. Der Full-HD-Monitor, wo ich's testweise angeschlossen habe, konnte das sogar darstellen, wenn auch in vertikaler Richtung gestreckt auf 1080 Zeilen. Dann nacher am Zieldisplay angeschlossen - Bild ist gestört und sieht fehlerhaft aus. Es hat sich dann rausgestellt, dass das Display ein Full-HD-Signal erwartet und daraus dann die ersten 610 Zeilen darstellt und den Rest verwirft. Mit seiner nativen Auflösung konnte man es gar nicht ansteuern. Die Grafikkarte hätt's gekonnt.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.