Guten Morgen, ich hab eine Software bekommen, wo ein Datenformat von 8 Bit, 0 Parity und 2 Stop Bit für die Datenübertragung eingestellt ist. Die Frage ist nun, warum stellt man zwei Stop Bit ein? Der genaue Unterschied zwischen 1- oder 2-Stop_Bit ist mir nicht ganz klar. Werden die Daten bei 2-Stop Bits langsamer übertragen? Welchen vortei hat das? Wäre nett wenn mir das mal jemand erklären könnte? Vielen Dank! Gruß Max
In der Praxis bedeutet es in der Tat das die Pause zwischen 8bit Nutzdaten anstatt 1Bit nun 2Bit betraegt. Ob das nun soviel Sinn macht daruber kann man streiten, wird ja auch kaum benutzt. Olaf
Hallo ist zum Teil historisch. Die alten Teletypes haben den ASCII-Code mechanisch dekodiert und da waren 2Stopbits sicherer zum Synchronisieren. Bei den ersten uCs war es auch sicherer. Bei heutigen Systemen eher überflüssig, aber eben "war schon immer so". Nachtrag: wir hatten an der Uni Systeme die aus der Länge der Stopbits die Baudrate gemessen haben und dann die richtige Geschwindigkeit automatisch eingestellt haben.
>Die Frage ist nun, warum stellt man zwei Stop Bit ein? Damit der Empfänger etwas mehr Zeit zum decodieren der Informationen bleibt oder der eine gewiesse Zeit ein stabiler Pegel auf der Leitung ist. >Werden die Daten bei 2-Stop Bits langsamer übertragen? Ja, dein Übertragungsrahmen (Startbit + Datenbits + Stoppbit(s)) ist ja länger. Du kannst also pro Sekunde weniger Nutzdaten übertragen. >Welchen vortei hat das? Weiß ich auch nicht. Das hat sich wohl irgendwer mal ausgedacht, als Computer noch sehr langsam waren (bzw. kein explizites UART hatten).
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.