Hallo, Ist bei VGA genau festgelegt bei welcher Auflösung das Signal "negiert" ist oder ist das von Rechner zu Rechner unterschiedlich?
VGA ist 640x480, nein ? Die gibt's dann als RGB, oder als FBAS, oder als video signal...
Als die Anzahl unterschiedlicher Auflösungen noch übersichtlich war, da hatte man eine Konvention, dass diverse VGA/XVGA/wassweissichnoch-Modi über unterschiedliche Polarität der Sync-Signale dies dem Monitor mitteilten. Dank automatischer Erkennung ist das heute obsolet.
Also gibt es keine Norm und es ist unterschiedlich dank automatischer erkennung? Gibt es Lösungen das mit einem AVR erkennen zu können? Fragt jetzt nicht wozu oder warum.
Die Monitore haben ein Protokol ueber das sie mit dem PC reden. Beim Einschalten. Frueher konnte man noch einen Monitor abziehen und einstecken, das geht heute nicht mehr unbedingt. Es kann auch schwarz bleiben bis zum naechsten Einschalten...
vielleicht hilf dir das da weiter http://en.tldp.org/HOWTO/XFree86-Video-Timings-HOWTO/ ansonsten schau dir an wie ein videosignal aufgebaut ist http://de.wikipedia.org/wiki/Videosignal
Es gibt eine Norm. VGA kennt drei Modi, 350, 400 und 480 Zeilen. V H Zeilen + + -reserviert- - + 350 + - 400 - - 480 350- und 400-Zeilen-Modus werden mit 70 Hz Bildwechselfrequenz ausgegeben, der 480-Zeilen-Modus mit 60 Hz. Die Zeilenfrequenz beträgt bei allen drei Modi konstante 31.5 kHz. (Quelle: IBM PS/2 Model 30/286 Technical Reference)
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.