Hallo, was darf ich mir den in der digitalen Signalverarbeitung unter Signalen vorstellen die zueinander orthogonal sind ? Warum müssen denn z.B. in der DSSS Technik die PN-Folgen zueinander orthogonal seien. Irgendwie klingelt es da bei mir nicht! Wäre super wenn mir mal das jemand erklären könnte ! Matze
Hallo Matze, eine sehr allgemeine Fragestellung. Ich hoffe, es bringt Dir etwas, wenn ich etwas aushole und versuche die mathematische Sichtweise mit Analogien zu erläutern. > was darf ich mir den in der digitalen Signalverarbeitung unter Signalen > vorstellen die zueinander orthogonal sind ? Etwas ähnliches, wie im Anschauungsraum (Euklidischer Vektorraum). Wie bestimmst Du z. B. Deine Position im Raum? Du wählst eine orthogonale Basis, gemeinhin (x, y ,z), und fällst die Projektion Deiner Position auf diese Basisvektoren. Das Ganze schreibst Du dann als Vektor. Warum macht man das so? Weil die Darstellung dann besonders einfach, d. h. berechenbar ist. Was sind hier orthogonale Vektoren? Vektoren, deren Skalarprodukt verschwindet (gleich Null ist). In der linearen Algebra kommt hier der Begriff der 'linearen Unabhängigkeit' ins Spiel. In der Signalverarbeitung hast Du es mit Funktionen zu tun; idealerweise fast überall stetige Funktionen, d. h. Funktionen, die nur an abzählbar vielen Stellen Sprünge aufweisen. Wie z.B. ein Rechteck-Signal, dass Du 10 s lang aufzeichnest - der Rechteck hat Sprünge, aber eben endlich viele. An dieser Stelle verallgemeinerst Du den Funktionsbegriff und fasst die zu analysierende Funktion als Vektor auf. Warum? Weil Dir damit der gesamte mathematische Apparat der (linearen) Vektorrechnung zur Verfügung steht, also: - Die Sätze zur Linearität - Existenzsätze für Gleichungen (Gibt es eine Lösung?) - Gleichungen lösen -> Matrizenrechnung Was muss man dazu machen? 1) Den Vektorraum auf (abzählbar) unendlich viele Dimensionen ausweiten 2) Einen Konvergenzbegriff einführen 3) Einen Vektorraum bauen, in dem sich ein Skalaprodukt für Funktionen definieren lässt Diese 3 Punkte führen dazu, die Funktionen in einem Raum spielen zu lassen, den man Hilbert-Raum nennt und zwar konkret: Einen quadratintegrablen, separablen Hilbertraum der Zweifach-Lesbeque-Integrablen Funktionen. Was hat es damit auf sich? Nun, die Funktionen selbst, also das zu bearbeitende Signal, ist ein Vektor. Der muss: a) existieren b) darstellbar sein ... die Funktionen selbst ... Was heißt das? Das Signal an sich, mit seiner gesamten zeitlichen Entwicklung, also Dein Sinus, Dein Rechteck, Dein Dreieck ist ein Ding, dass ich als Vektor verstehe - das Signal verstehe ich als eine Pfeil im Raum, einen Pfeil mit unenedlich vielen Komponeneten. Also nicht der Funktionswert, nicht die Abszisse, das Signal als Ganzes ist nun ein Vektor. Was in endlichen Vektorräumen Matrizenrechnung ist, wird hier zur Theorie der Operatoren: Matrix mal Vektor = veränderter Vektor wird zu Operator mal Vektor = veränderter Vektor Mach hier mal einen Schnitt und sieh Dir zwei Dinge an: 1) Least-Square-Fit (Methode der kleinsten Quadrate): Man macht eine reale Messung und ermittelt Messwerte, von denen man annimmt, das sich eine Gerade durch diese Messwerte legen lässt. Wie macht man das? Indem man die mittlere quadratische Abweichung minimiert. Aus Sicht der Vektorrechnung: Du machst die Summe der Skalarprodukte aller Messwerte minimal. Man sagt auch: Die Konvergenz im quadratischen Mittel ist ein sehr natürlicher Konvergenzbegriff, der technischen Vorgängen recht nahe kommt. 2) Differential- vs. Integralrechnung: Klar, Du kannst jeden Vorgang durch eine Differentialgleichung beschreiben. Das Problem ist nur, das DGLn ziemlich zickig in Bezug auf Sprünge reagieren. Denk mal an ein Rechtecksignal - an den Flanken zickt die DGL jedes Mal rum - Du darfst jede Zickenstelle einer gesonderten Betrachtung unterziehen. Demgegenüber sind Integrale sehr gutmütige Wesen, solange die Anzahl der Sprünge abzählbar bleibt. Kurzum, zur Beschreibung und Berechnung der Dinge bietet es sich also an, einen Vektorraum zu wählen, in dem sich ein Skalarprodukt auf Integral-Basis bauen lässt, das das Konzept des quadratischen Abstands berücksichtigt und das ist eben jenes Monstrum 'quadratintegrabler, separabler Hilbertraum der .....'. So. Ist da schlimm? Nein, denn zu jeder linearen DGL gibt es eine entsprechende integrale Formulierung. Deshalb funktionieren Fourier-, Wavelett- und Laplace-Transformationen, die ja allesamt Integraltransformationen sind. Wie sieht die (orthogonale) Basis dieses Funktionenraums aus? Im reellen Fundamentalsystem sind es sin und cos, als unendliche Summe mit immer kleiner werdenden Perioden. Warum unendliche Summe? Weil der Vektorraum unendlich viele Dimensionen hat. Warum sind sin und cos orthogonal? Weil sie um 90 Grad versetzt sind, so dass das Integral sin(x)cos(x) über eine volle Periode verschwindet (das Integral ist ja nun unser Abstandskriterium (*)). Im komplexen Fundamentalsystem: Klar, die komplexen e-Funktionen mit immer kleiner werdenden Perioden. (*) Denke an die Sätze: - Abstand = Metrik = Integrale Formulierung im Funktionenraum - Ein Raum mit Sklarprodukt lässt sich stets metrisieren, d. h. ausmessbar machen, per 'Metrik = Wurzel aus Skalarprodukt' Das riecht schon ziemlich nach Fourier-Entwicklung. Zurück zum Ausgangspunkt: Die Analogie zu 'Wie bestimmst Du z. B. Deine Position im Raum?' ist in der Signalverarbeitung: 'Wie stelle ich mein Signal im reellen oder komplexen Fundamentalsystem dar?' Ja wie? Als unendliche Summe aus: Projektion des Signals auf den jeweiligen Basisvektor mal dem Basisvektor Wann sind Signale orthogonal? Wenn das Skalarprodukt der Signale verschwindet. Was ist in einem Funktionenraum das Skalarprodukt aus zwei Signalen a und b? Intergral aus a* mal b über die Zeit. Uff - das ist in Etwa der grobe Zusammenhang zwischem dem gewohnten Orthogonalitätsberiff (Senkrecht) und der Interpretation im Funktionenraum (Ist übrigens in der Bildverarbeitung und Quantenmechanik das Selbe!). Zu Spread-Spektrum und PN nur kurz von mir, da das nicht mein Metier ist: So wie ich es verstehe, ist eine der Ideen bei Spread-Spektrum, die eigentliche Information mit PNs zu modulieren. Bei der Auswertung liefert Dir die Orthogonalität zweier benachbarter PNs ein Unterscheidungskriterium: das Sklaraprodukt zweier benachbarter PNs verschwindet aufgrund der Orthogonalität. Aber dies sagt mir hier nur mein Laiensinn - man mag mich bitte korrigieren. Gruß, Nils
Wow, Nils, das ist eine super Erklärung. Was hältst du davon das in einen Artikel zu kopieren?
Schöner Artikel Nils! > Zu Spread-Spektrum und PN nur kurz von mir, da das nicht mein Metier > ist: > So wie ich es verstehe, ist eine der Ideen bei Spread-Spektrum, die > eigentliche Information mit PNs zu modulieren. > Bei der Auswertung liefert Dir die Orthogonalität zweier benachbarter > PNs ein Unterscheidungskriterium: das Sklaraprodukt zweier benachbarter > PNs verschwindet aufgrund der Orthogonalität. > Aber dies sagt mir hier nur mein Laiensinn - man mag mich bitte > korrigieren. Spread-Sprektrum (DSSS) nutzt eigentlich nur eine PN-Sequenz um die Energie des Signals über einen möglichst großen Frequenzbereich zu verteilen, zu spreizen. Mehrere orthogonale PN-Sequenzen (in der Praxis eher Barker-, Walsh-, Gold-Codes) werden zur Teilnehmerunterscheidung in CDMA-Systemen benutzt. Was Nils schon angesprochen hat ist die Basis eines Vektorraumes. Die Basisvektoren eines Vektorraumes lassen sich nicht durch eine Linearkombinationen darstellen, eben weil sie orthogonal sind. Auf Signale übertragen heisst das, orthogonale Signale beeinflussen sich gegenseitig nicht. Ganz praktisch gesehen: Sendet man mit einer Antenne zwei orthogonale Signale auf die Reise, können beide Signale im Empfänger wieder problemlos getrennt werden (durch die Projektion auf die Basisvektoren des Vektorraumes). In herkömmlichen Kommunikationssystemen werden die Basisvektoren mit I und Q bezeichnet (was nichts anderes als sin() und cos() ist), neuere Systeme wie (W)CDMA nutzen andere Basisvektoren, nämlich orthogonale Codes. Ein weiteres Verfahren ist OFDM, ein Mehrträgerverfahren, d.h. es werden mehrere Träger gleichzeitig moduliert auf die Reise geschickt. Durch eine geschickte Wahl der Frequenzen der Subträger erreicht man Orthogonalität zwischen den Subträgern und die Subträger beeinflussen sich gegenseitig nicht. Im Empfänger können die Subträger wieder voneinander getrennt werden. Das geschieht durch eine DFT (praktisch FFT).
Auch nochmal von mir vielen Dank für die ausfürhliche Erklärung. Gruss, Matze
Ja Niels, das wäre ne super Sache deinen Beitrag als Artikel zu verpacken. Versehrt mit der ein oder anderen Abbildung bzw. Gleichung wäre das ne Runde Sache. Alles unter der Permisse, dass du Lust und Zeit hast. War jedoch wirklich ne nette Ausführung!
Hallo,
@Günter und Gunnar
> ...dass du Lust und Zeit hast
Lust - ja, Zeit - wenig. Aber im Prinzip ja - wird nur eine Weile
dauern, zumal ich das letzte Mal vor über 15 Jahren Formeln in LaTEX
gesetzt habe.
Danke für Euer Lob.
@Klaus
Danke für Deine Ausführungen zu Spread-Spectrum und OFDM. So auf den
Punkt gebracht habe ich dazu bisher noch nichts gelesen.
Jetzt verstehe auch ich diese beiden Übertragngsraten etwas besser.
Ach ja, noch ein Gedanke, der mir im Nachhinein gekommen ist:
Es ist ja lustig, dass man auch Folgen von diskreten Zufallszahen als
Vektor in einem Funktionenraum auffassen kann.
Die Idee als solche, die Orthogonalität solcher Folgen und deren
Erzeugung ist alles andere als trivial.
Gruß,
Nils
Netter Thread! @Klaus Werden solche DSSS Techniken auch in automotive radar systemen zur Abstandserkennung und Kollisionsverhinderung eingesetzt ? Marcel
Da hätte ich doch klatt noch ne Frage. Wie gross sind denn in der Regel die RN Längen in den verschiedenen DSSS Applikationen, d.h wieviele besitzt denn in eine zu rechnende Korrelationsfunktion im Empfanger ?
@Nils: WOW, schoene Zusammenfassung, ggf. sollte/muesste an einigen Stellen orthonormal statt orthogonal stehen. Merci an Nils, Hans
Automotive Radar ist m.W. meistens noch ganz einfaches FMCW-Radar. Die Code-Länge ist bei GPS (P-Code) zum Beispiel 1023.
@Hans (Gast)
> ggf. sollte/muesste an einigen Stellen orthonormal statt orthogonal stehen.
Ja, das stimmt - aber ich habe das bewusst weggelassen weil hier ja
sofort die Diracsche-Delta-Funktion ins Spiel kommt.
Während bei der Orthormierung beim 'normalen' Skalarprodukt 0 oder 1
ausreichen, wird dies ja bei der Normierung in Funktionenräumen zur
Formulierung per Delta-Funktion. Zwar handhabt man dies oftmals als
Funktion, oder tut so, als hätte man einen Skalar vor sich - in Wahrheit
fuchtelt man aber mit einer Distribution herum, also einem Ding, das im
Integralkern Funktionsargumente vertauscht. Das eigentlich irritierende
ist, das diese Distribution weder Bestandteil des Funktionenraums, noch
des skalaren Körpers des Funktionenraums ist.
Man darf nicht vergessen: Als Paul Dirac die Delta-Funktion vor
vielleicht 80 Jahren im Rahmen der Quantenmechanik bei den Physikern
solonfähig machte, haben die Mathematiker Knoblauch gegessen, um sich
vor diesem Vapmir zu schützen. Eine echte Theorie der Distributionen
entstand erst Ende der 1950er und im Laufe der 1960er mit Einführung der
'Testräume'.
Aber ich gebe Dir Recht, Hans, es wäre schön, auch das mit Anschauung
füllen. Da gibt es ja ein paar Ansatzpunkte:
- In der Signalverarbeitung identifiziert man die Delta-Funktion ja
oftmals mit einem idealen Impuls - unendlich schmal und hoch. Hier
müsste man versuchen, die Analogie zwischen der 'Endlichkeit' von
Impulsen und der Definition der Distribution als Integralkern hin zu
bekommen.
- Wie man die Delta-Funktion auf Werte nagelt, kann man ja auch sagen:
Indem man die zu distribuierende Funktion mit Funktionen 'einschnürt',
die schneller abfallen als jede Potenz der Exp-Funktion, also verdammt
schnell. Das würde zeigen, dass die Delta-Funktion das leistet, was sie
verspricht.
Letzlich ist man bei Funktionenräumen dann auch sehr schnell bei
Konvergenzproblemen ("Ist dies eine Darstellung meines Signals und
approximiert diese Darstellung mein Signal ausreichend?"). In diesem
Zusammenhang bleibt der Begriff 'Separabel' bei meiner kleiner
Darstellung ebenfalls im Dunkeln.
Sollte man mal drüber grübeln,
Gruß & Danke,
Nils
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.