Hallo Leute ich brauche einen neuen Monitor, zur zeit habe ich einen Flatscr. von ACER in Aussicht, da gibt es jedoch zwei Modelle und zwar mit Analog oder mit Analog & DVI Inputs. Das Modell mit DVI ist natürlich etwas teurer. Nun meine Frage: Soll ich den billigeren der nur Analog Inputs hat nehmen oder den teueren mit Analog und DVI? (Preisdif.: ca. 30Euro) Des weiteren habe ich noch von HDCP gehört, da bin ich nicht ganz schlau draus geworden. Könnte ich mit meiner GraKa (NVIDIA GeForce FX 5200) die einen DVI Output hat diesen HDCP Input verwenden? Brauche ich einen Adapter? Ich danke im Voraus für Antworten :) Davidoff
Sofern der Monitor eine Auflösung jenseits von XGA hat: Nimm DVI. Die Bildqualität wird besser, weil der völlig unnötige analoge Übertragungsweg entfällt - die Graphikkarte erzeugt mit Aufwand ein analoges Signal (mittels ihres RAMDACs), das wird dann vom Monitor wieder digitalisiert und mit hohem Aufwand wird der in der Graphikkarte vorliegende, aber nicht über das VGA-Kabel übertragene Pixeltakt rekonstruiert ... HDCP ist nur eine Verschlüsselungstechnik der Content-Mafia, Monitore, die HDCP unterstützen, können auch Signale ohne HDCP anzeigen (also normale DVI-Signale). Wenn Du aus welchen Gründen auch immer Dir einen Blu-Ray-Player anschaffen willst und den mit dem Monitor nutzen willst, dann muss der Monitor HDCP unterstützen, denn der Player gibt nur dann hochauflösendes Material aus, wenn das Gegenstück HDCP unterstützt. Als Schnittstelle wird hierfür HDMI verwendet, was sich mit einem simplen Adapter zu DVI konvertieren lässt - wenn auch ohne Ton, den musst Du dann auf getrenntem Wege auf dem Player herausbekommen.
Uii....das ging aber schnell... Herzlichen Dank das war sehr nützlich. Ich denke ich werden den Monitor mit DVI nehmen, es ist ein 22" (Res.1680x1050). Davidoff
Hallo, nimm den mit DVI und schau Dich nach einer besseren Grafikkarte um. Die FX5200 ist bei dieser Auslösung schon sehr lahm. Gruß aus Berlin Michael
Kann ich nicht bestätigen. Ich habe hier eine FX5200 unter Linux mit dem propritären nvidia Treiber. Der Graka gelingt es mühelos den Bildschirm mit 1680x1050 via DVI zu füttern, sogar einfache opengl spiele laufen auf voller Auflösung flüssig. btw: 1680x1050 war bei mir mit der alten gf2mx400 über vga auch kein problem
Die Graphikkarte kann selbstverständlich den Monitor ansteuern, Michaels Kommentar bezieht sich auf die "Spieletauglichkeit". Und da ist jede Graphikkarte unter 300 Watt Leistungsaufnahme lahmer Schrott.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.