ich hätte mal eine frage zur datenratenberechnung in lte: folgende annahmen: Transmission Mode: 1X1 (SISO) Kanalbandbreite: 20 Mhz Modulation: 64-QAM short Cyclic Prefix (-->7 ofdm symbole/slot) Die Datenrate berechnet sich dann wie folgt: 1 OFDM Symbol @ 20MHZ Kanalbandbreite = 1200 Subcarrier 64-QAM --> 6 bit/subcarrier --> 6*1200=7200 bits/ofdm_symbol 1 frame (10 ms) besteht aus 20 slots a 0.5 ms, 1 slot beinhaltet 7 ofdm symbole -->140 ofdm_symbole/frame = 14000 ofdm_symbole/s --> 14000ofdm_symbole/s * 7200 bits/ofdm_symbol = 100.8 Mbit/s so weit, so gut... jetzt müsste man aber doch auch eigentlich anders an die sache rangehen können: dauer eines ofdm_symbols: 66.66 µs 7200 bit/ofdm_symbol --> (7200bit/symbol)/(66.66µs/symbol) = 108 Mbit/s eigentlich sollte das ergebnis doch identisch sein, bzw. wer kann mir sagen wo mein fehler liegt? die werte sind alle aus dem standard übernommen, der wert von 100.8 Mbit/s ist der korrekte.
Ist in der Symboldauer schon ein Schutzintervall ("Guard-Intervall") mit eingerechnet?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.