Hallo liebes Forum, Ich muss ein Referat über Soundkarte halten. Nach dem CODEC brauche ich noch eine einfach Antwort darauf ob ich mit der Annahme was ein DSP kann richtig liege. Im Grunde Verarbeitet der DSP das binäre Signale das vom AD-Wandler kommt und komprimiert es. Danach wird es im RAM zwischengespeichert und auf der Festplatte abgespeichert. Dabei greift der DSP auf den ROM zu indem Befehle/Programme für Verarbeitung abgelegt sind. Korrigiert mich wenn das falsch ist! Nun liest man auf Wikipedia das der DSP, noch viel mehr kann: Frequenzfilter hoher Ordnung mit geringem Phasenfehler (z. B. Klangbeeinflussung beim Abmischen und in Mischpulten) Dynamikkompression und Rauschunterdrückung mit dynamischen (adaptiven) Parametern Störaustastung unter Berücksichtigung des Charakters des Signales Implementierung von Effekten wie Echo, Hall oder Verfremdung von Stimmen Echounterdrückung Spracherkennung und Sprachsynthese Messungen in Oszilloskopen (Datenkomprimierung zur digitalen Weiterverarbeitung) (Schnelle digitale Bildbearbeitung) Ist das korrekt? Grüße, Diskflopper
Ja, je nachdem wie der DSP programmiert wurde, kann er ein oder mehrere Aufgaben aus der Liste erledigen.
Auch die Leistungsfähigkeit des DSP spielt eine Rolle. DSPs gibt es in einer Vielzahl von Hardwarevarianten. DEN einen DSP gibt es nicht.
Disk F. schrieb: > Messungen in Oszilloskopen Das passt hier irgendwie nicht rein und wenn muss da noch erheblich mehr rein. DSPs sind praktisch überall drin, wenn man es so sieht. Da, wo es aber WIKI suggeriert, nämlich in Audio-APPs sind sie immer weniger drin :-)
Disk F. schrieb: > Ich muss ein Referat über Soundkarte halten. Vor dem Referat gibt es hoffentlich noch ein paar Stunden Deutschunterricht - Dein Geschreibsel hat den bitter nötig. > Im Grunde Verarbeitet der DSP das binäre Signale das vom AD-Wandler > kommt und komprimiert es. Danach wird es im RAM zwischengespeichert und > auf der Festplatte abgespeichert. Das würde ich so nicht schreiben, vielleicht sogar als falsch bezeichnen. Der Digitale-Signal-Prozessor bearbeitet ein Signal. Was er mit dem Signal tut, hängt von der Anwendung und damit seiner Programmierung ab. Der DSP als fertiges IC wird oftmals den AD-Wandler beinhalten, der nimmt also direkt das analoge SIgnal entgegen. Ob ein Signal komprimiert wird oder nicht, hängt auch wieder an der Anwendung: Will ich ein .wav oder ein .mp3 speichern? Gerade beim .mp3 gehe ich davon aus, dass das nicht auf der Soundkarte gerechnet wird, sondern man es die CPU des PCs machen lässt. Warum muß ein Signal auf die Festplatte gespeichert werden? Aktuell läuft auf meinem PC SAT-TV, da wird der von Astra digital angelieferte Ton einfach nur zum Lautsprecher ausgegeben, vorweg lediglich der Frequenzgang verändert. Ich denke, für einen qualifizierten Vortrag musst Du deutlich tiefer einsteigen.
DSP heißt erstmal nur ganz allgemein "Digitaler Signal Prozessor" Das sagt noch nichts darüber aus um welche Art von Signalen es sich überhaupt handelt und erst recht nichts darüber was ein etwaiges Programm mit den Daten anstellt. Geben tut es die von kleinen Standard µC die vom Marketing DSP genannt werden weil sie auch eine FPU besitzen bis hin zu irgendwelchen Spezialbausteinen für einzelne ganz Spezielle Anwendungen. Entscheidend ist am ende die Software die darauf läuft, die Hardware muss nur schnell genug sein alles im gegebenen Zeitrahmen abarbeiten zu können. Es kann sein das es sich z.B. um eine Audiosiganl handelt das z.B. mittels mp3-encoder eingedampft werden soll. Es kann aber auch eine Autosignal sein das mittels eines (software)Equalizer bearbeitet wird. Oder aber es kann auch eine ganz andere Art von Signal als Audio sein die hier irgendwie verarbeitet wird.
Das was im HiFi-Laden als DSP verkauft wird, hat nichts mit dem Bauelement DSP zu tun, ausser das in der HiFi-DSP-Kiste einer oder mehrere DSPs als Bauelement vor sich hin werkeln. Das könnten aber genauso gut auch FPGAs oder eher schlecht ganz normale Controller sein. Was ein DSP kann? Für das historische Quellenstudium: Intel 2920 Texas Instruments TMS320C10 Motorola 56000
DSP ist der Oberbegriff für Prozessoren, die nicht für allgemeine Aufgaben vorgesehen, sondern auf die Verarbeitung von Signalen optimiert sind. Ein CODEC ist eine von vielen Aufgaben, für die man DSPs nutzen kann.
Danke für die Antworten: Hier das was ich gefunden habe, wie würdet ihr es denn erklären? Erklärung muss nicht mal in die Tiefe gehen, da es sich nur um einen 10 Minuten Vortrag handelt. Erklärung aus meinem Schulbuch: DSP ist die Abkürzung für Digital Signal Prozessor und bezeichnet allgemein einen Prozessor, der spezielle für die Verarbeitung von digitalen Signalströmen geeignet ist. Im Zusammenhang mit der Soundkarte ist ein spezieller Prozessor zur Verarbeitung von Audioinformationen gemeint. Ein solcher DSP ist in der Lage, in Kombination mit einem Software-Synthesizer beliebig akustische Signale (Töne, Klänge, Geräusche) mit unterschiedlichen Verfahren zu erzeugen. Digitalisierte Klänge benötigen sehr viel Speicherkapazität Sk, da ein akustisches Signal regelmäßig in sehr kurzen Zeitabständen abgetastet werden muss und diese Abtastwerte dann digital gespeichert werden. Der Speicherbedarf in Byte eines digitalisierten Signals errechnet sich zu... http://audio-lexikon.com/analog-digital/interne-externe-soundkarte/ Abbildung 2 zeigt die rudimentäre Funktionsweise einer Soundkarte, egal welcher Bauart. Über den Input (Mic- /Line-Eingang) gelangt ein analoges Audiosignal, eine Wechselspannung, in die Soundkarte. Handelt es sich um ein Mikrofonsignal muss dieses noch per Preamp verstärkt werden. Ein Line-Signal (z.B. aus dem Keyboard) ist bereits laut genug und würde bei Verstärkung Clippen. Anschließend wird die Spannung per AD-Wandlung in ein binäres Signal umgewandelt. Jene Samples können nun intern in der Soundkarte mittels ihres Digitalen Signal Prozessors bearbeitet werden (Es könnte hier zum Beispiel ein Hall beigefügt werden). Soll die Bearbeitung mittels des CPU erfolgen, so werden die Samples an diesen mit einer bestimmten Sample Buffer Size (SBS)per Datenbus (z.B. PCI) weitergereicht. Bei guten Soundkarten lässt sich die Sample Buffer Size einstellen, hierbei muss ein Kompromiss aus zwei verschiedenen Fakten gefunden werden: Wird die SBS zu groß gewählt kommt es zu Latenzen, da Änderungen am Audiomaterial erst später in den nächsten Buffer kommen (bei kleiner Buffersize ist quasi die Frequenz der Bearbeitung höher). Wird die SBS zu klein gewählt kommt es zwar zu geringen Latenzen, es kann jedoch sein, dass der Computer mit dem Schreiben (bei der Audiowiedergabe) bzw. mit dem Lesen (bei der Audioaufnahme) der Samples nicht hinterherkommt — es entstehen plötzliche Momente der Stille welche sich auf Grund von drastischen Audiosprüngen als Plops oder Knackser bemerkbar machen. Über den Kontrollbus einer Soundkarte lässt sich zum Einen ein interner Mixer direkt ansteuern (falls dieser vorhanden ist), zum anderen lassen sich per MIDI Schnittstelle Befehle an eine Digital Audio Workstation geben. Die Samplingrate einer Soundkarte gibt an, wie oft die AD-Wandler ein analoges Signal pro Sekunde abtasten können. Eine hohe Samplingrate macht unter Umständen bei der Audiobearbeitung Sinn, siehe hierfür unseren Artikel A/D-Wandler und D/A-Wandler. Die Bauart einer Soundkarte beschreibt, ob es sich um eine interne oder externe Soundkarte handelt. Im folgenden wird zunächst die externe und dann die interne Soundkarte berschrieben. https://www.ibr.cs.tu-bs.de/courses/ws9798/seminar/haverkamp/seminar.html Abbildung 3 zeigt den prinzipiellen Aufbau eines DSP-Systems, welches beim Integrationsgrad heutiger ICs mit nur wenigen Bauteilen auskommt. Ein solches System könnte z.B. zur Realisierung eines digitalen Filters verwendet werden. Das zeit- und wertekontinuierliche Analogsignal wird so umgewandelt, daß am Eingang des DSP ein digitales Signal vorliegt. Der Tiefpaß am Eingang des A/D-Wandlers sorgt dafür, daß das Abtasttheorem stets erfüllt ist. Die eingehenden Messwerte (Samples) werden vom DSP verarbeitet und am Ausgang zum D/A-Wandler geführt. Am Ausgang des Tiefpaßses liegt nach der D/A-Wandlung wieder ein zeit- und wertekontinuierliches Analogsignal an. Weiter Forum Beitrag: DSPs sind eigentlich dazu gedacht, das Signal zu verarbeiten. z.B. Frequenzfilterung, Implemtierung von Effekten (Echo, Hall, ...) oder Spracherkennung. Bei Techniken wie z.B. EAX oder A3D wurden DSPs in den Soundchip integriert aber aufgrund der Tatsache, dass sowas heutzutage CPU-seitig erledigt werden kann und es auch noch kaum standisierte Schnittstellen gibt, um Hardware-DSPs anzusprechen, bestehen Soundchips heutzutage überwiegend noch noch aus einem D/A-Wandler für die Ausgänge und ein A/D-Wandler für die Eingänge. Siehe dazu auch den AC'97- oder HD Audio-Standard von Intel. https://computer.howstuffworks.com/sound-card3.htm Digital Signal Processor (DSP): Like a graphics processing unit (GPU), a DSP is a specialized microprocessor. It takes some of the workload off of the computer's CPU by performing calculations for analog and digital conversion. DSPs can process multiple sounds, or channels, simultaneously. Sound cards that do not have their own DSP use the CPU for processing. https://en.wikipedia.org/wiki/Digital_signal_processor A digital signal processor (DSP) is a specialized microprocessor (or a SIP block) chip, with its architecture optimized for the operational needs of digital signal processing.[1][2] DSPs are fabricated on MOS integrated circuit chips.[3][4] They are widely used in audio signal processing, telecommunications, digital image processing, radar, sonar and speech recognition systems, and in common consumer electronic devices such as mobile phones, disk drives and high-definition television (HDTV) products.[3] The goal of DSP is usually to measure, filter or compress continuous real-world analog signals. Most general-purpose microprocessors can also execute digital signal processing algorithms successfully, but may not be able to keep up with such processing continuously in real-time. Also, dedicated DSPs usually have better power efficiency, thus they are more suitable in portable devices such as mobile phones because of power consumption constraints.[5] DSPs often use special memory architectures that are able to fetch multiple data or instructions at the same time. DSPs often also implement data compression technology, with the discrete cosine transform (DCT) in particular being a widely used compression technology in DSPs. https://de.wikipedia.org/wiki/Digitaler_Signalprozessor Ein digitaler Signalprozessor (engl. digital signal processor, DSP) dient der kontinuierlichen Bearbeitung von digitalen Signalen (z. B. Audio- oder Videosignale). Zur Verarbeitung von analogen Signalen wird der DSP in Verbindung mit Analog-Digital-Umsetzern und Digital-Analog-Umsetzern eingesetzt. https://www.elektronik-kompendium.de/sites/com/0509261.htm: Der ADC sendet die binären Datenströme an den digitalen Signalprozessor (DSP). Er entlastet den Prozessor des Computersystems vor Arbeiten mit den Sound-Daten. Der DSP enthält Befehle und Anweisungen mit denen er die Sound-Daten verarbeitet. Da Sound-Daten sehr große Datenmengen sein können, übernimmt der DSP z. B. auch die Komprimierung der empfangenen Daten. Diese Daten werden dann in einem bestimmten Format (z. B. WAV, MP3, etc.) vom Arbeitsspeicher auf die Festplatte geschrieben. Um digitalisierte Sound-Daten durch die Soundkarte wiederzugeben werden die Daten vom Prozessor von der Festplatte oder von einem Wechselspeicher-Laufwerk gelesen. Diese Daten werden in den DSP geladen. Der DSP dekomprimiert die Daten und sendet sie zum Digital-Analog-Konverter (DAC), der aus den binären Daten analoge Signale erzeugt. Das analoge Signal wird dann verstärkt und über die Buchsen an die Lautsprecher ausgegeben. Die Qualität der Tonwiedergabe wird durch die Qualität der Klangaufnahme, dem DAC und den Lautsprechern bestimmt. https://www.it-surfer.de/hardware/grundlagen/soundkarte/: Der digitale Signalprozessor berechnet das Audio-Signal anhand binärer Informationen (0 und 1). Deshalb ist ein Konverter erforderlich, der ein eingehendes analoges Signal in ein digitales umwandelt. Ebenso muss das vom DSP berechnete digitale Signal vom Konverter auch wieder in ein analoges Ausgangssignal gewandelt werden, um es an analoge Audio-Geräte übertragen zu können. https://www.itwissen.info/Soundkarte-sound-card.html: Funktional handelt es sich um eine Erweiterungskarte die analoge Sprach- und Audiosignale in einem A/D-Wandler digitalisiert, die digitalisierten Daten verarbeitet und komprimiert und in einem Audiodateiformat im Arbeitsspeicher ablegt. Die Audioqualität wird durch die Quantisierung des A/D-Wandlers bestimmt und durch die Abtastrate. Bei einer Digitalisierung mit 16 Bit ergibt sich eine Auflösung von 65.536 Klangstufen, und bei einer Abtastrate von 44,1 kHz eine Datenmenge 88,2 kB/s. Diese Audiodaten werden in einem Digital Signal Processor (DSP) verarbeitet und mittels Audiokompression reduziert. Die komprimierten Daten werden in einem Audiodateiformat, beispielsweise in MP3 oder als Waveform Audio File (WAV) auf dem Arbeitsspeicher der Soundkarte zwischengespeichert, bevor sie auf die Festplatte geladen werden. Diese Audiodaten werden in einem Digital Signal Processor (DSP) verarbeitet und mittels Audiokompression reduziert. Die komprimierten Daten werden in einem Audiodateiformat, beispielsweise in MP3 oder als Waveform Audio File (WAV) auf dem Arbeitsspeicher der Soundkarte zwischengespeichert, bevor sie auf die Festplatte geladen werden. https://www.manualslib.com/manual/547219/Creative-Sb0350.html https://media.digikey.com/pdf/Data%20Sheets/Texas%20Instruments%20PDFs/TMS320F241,%20243.pdf Manfred schrieb: > Der DSP als fertiges IC wird oftmals den AD-Wandler beinhalten, der > nimmt also direkt das analoge SIgnal entgegen. > > Ob ein Signal komprimiert wird oder nicht, hängt auch wieder an der > Anwendung: Will ich ein .wav oder ein .mp3 speichern? Gerade beim .mp3 > gehe ich davon aus, dass das nicht auf der Soundkarte gerechnet wird, > sondern man es die CPU des PCs machen lässt. > > Warum muß ein Signal auf die Festplatte gespeichert werden? Aktuell > läuft auf meinem PC SAT-TV, da wird der von Astra digital angelieferte > Ton einfach nur zum Lautsprecher ausgegeben, vorweg lediglich der > Frequenzgang verändert. Da steht sowas oft nicht drinnen oder hab ich es nur übersehen? Irgend W. schrieb: > Es kann sein das es sich z.B. um eine Audiosiganl handelt das z.B. > mittels mp3-encoder eingedampft werden soll. Hardware DSP und Software Encoder? >Es kann aber auch eine >Autosignal sein das mittels eines (software)Equalizer bearbeitet wird. Also ein Kombination aus Hardware DSP und Bearbeitungssoftware?
>DSP heißt erstmal nur ganz allgemein "Digitaler Signal Prozessor"
Nicht nur. Im englischen wird DSP ganz allgemein für "digital signal
processing", was im deutschen dann "DSV - digitaler Signalverarbeitung"
bedeutet.
Die Unterschiede zwischen dem Bauteil "DSP" und dem Bauteil
"Mikrocontroller" verschwimmen heute ohnehin.
Während früher nur DSPs die Berechnung von gewichteten Summen für z.B.
FIR und IIR Filter durchführen konnten, sind heute in vielen besseren
Mikrocontroller und Mikroprozessor spezielle Recheneinheiten eingebaut.
Oder es werden gleich ganze Signalverarbeitungsblöcke für schnelle FFTs
wie im K210 Risc-V oder manchen PowerPCs Mikrocontrollern eingebaut.
Nachtrag: Die wichtigste Rechenoperation eines DSPs ist die "MAC"-Operation: https://de.wikipedia.org/wiki/Multiply-Accumulate Sie ist die Grundfunktion aller digitalen Filter und neuronalen Netze und sie war früher das wesentliche Unterscheidungsmerkmal zwischen gewöhnlicher CPU und DSP.
Disk F. schrieb: > Digitalisierte > Klänge benötigen sehr viel Speicherkapazität Sk, da ein akustisches > Signal regelmäßig in sehr kurzen Zeitabständen abgetastet werden muss > und diese Abtastwerte dann digital gespeichert werden. Die Angaben 'sehr viel Speicherkapazität' und 'sehr kurze Zeitabstände' haben für Audio (kHz-Bereich) vielleicht Anfang der 1990er Jahre gestimmt. Heute triffen diese Angaben eher auf Funksignale im GHz-Bereich (WLAN, Radar) zu. Es ist jede Aussage auch im Kontext ihrer Zeit zu betrachten.
Disk F. schrieb: > Erklärung aus meinem Schulbuch: > DSP ist die Abkürzung für Digital Signal Prozessor und bezeichnet > allgemein einen Prozessor, der spezielle für die Verarbeitung von > digitalen Signalströmen geeignet ist. Diese Aussage würde ich als falsch ansehen. DSPs wurden ursprünglich zur Verarbeitung von analogen Signalen in Echtzeit entwickelt. Dazu enthielten sie auch meist AD und DA Wandler. Typisch waren vorallen Anwendungen mit digitalen Filtern. Für solche Anwendungen waren die damals bekannten µCs zu langsam. Da inzwischen normale CPUs deutlich schneller arbeiten, haben sich die reinen DSPs m.E. überlebt. Natür- lich werden auch heute noch gewisse Strukturen aus DSPs in audiover- arbeitenden Chips verwendet. Ob dazu auch der damals übliche schnelle Produktsummenbildner gehört, weiss ich nicht.
:
Bearbeitet durch User
Dann will ich meinen Senf auch noch mal dazugeben: DSPs müssen nicht zwingend programmierbar sein. Wichtig ist in erster Linie für die Definition nur, das sie digital Signale verarbeiten. In vielen RF Chips z.B. befinden sich kleine DSP Blöcke, die eine fixe Signalbearbeitung vornehmen. Manche sind dabei auch parametrisierbar, aber wirklich programmieren kann man die Dinger nicht. Und dann gibt es noch welche, die so ein bischen programmierbar sind. Ein schönes Beispiel ist der FV-1 von Spin Semiconductor. Das ist ein Audio DSP der bei jedem Sample einfach stumpf bis zu 128 Befehle ausführt. Man kann Befehle überspringen aber im Ablauf keine Sprünge zurück ausführen. D.h. mit der Architektur bekommt man nicht mal eine for Schleife programmiert. Nicht desto trotz ist der Chip recht mächtig, weil die Befehle und das interne Datenformat zu 100% auf Audio Bearbeitung und Hall Effekte ausgelegt sind.
Harald W. schrieb: > Da inzwischen normale CPUs deutlich schneller arbeiten, DSP Befehle wurden zu Prozessoren hinzugefügt, was z.B. einfache Aufgaben in PCs von separater Hardware in Treiber verlagerte. > haben sich die reinen DSPs m.E. überlebt. Als Komponente sind sie weiterhin oft im Einsatz: https://en.wikipedia.org/wiki/Qualcomm_Hexagon Auch wenn es evtl möglich wäre, ergibt es wenig Sinn, in sehr energiesensitiven Anwendungen Universalprozessoren für solche Aufgaben einzusetzen, weil die für die gleiche Aufgabe viel mehr Energie fressen.
:
Bearbeitet durch User
> DSP Befehle wurden zu Prozessoren hinzugefügt, was z.B. einfache > Aufgaben in PCs von separater Hardware in Treiber verlagerte. Was z.B. aus einem ARM mit DSP-Erweiterungen noch immer keinen richtigen DSP macht. DSPs haben u.a. zahlreiche Busse, um Operationen parallel ausführen zu können. Z.B. mehrfache Adressberechnungen parallel zu arithmetischen Operationen. DSPs waren eine eigenständige Entwicklung. Ausnahmen waren vielleicht die DSPs von Microchip, deren Marktdurchdringung aber nie wesentlich wurde.
Ich würde mal vermuten das 99% der heute verbauten Soundkarten keinen einzigen DSP enthalten. Die meisten Audiocodecs machen nicht viel mehr als die Daten des AD oder D/A Wandlers vom/ins RAM zu holen/schieben. Echte Soundkarten mit DSPs will doch heutzutage keiner mehr bezahlen. Die kosten gerne mehr als die heute noch verkauften PCs. Den DSP Part übernimmt heute die CPU ohne mit der Wimper zu zucken nebenher. Selbst die meisten teuren Studiokarten bestehen aus kaum mehr als ein paar teueren AD oder DA Wandlern. In Handy's hat man noch am ehesten einen DSP im Codec der dann die Klanganpassung für die Mini-Quäke da drinnen macht.
Andreas M. schrieb: > In Handy's hat man noch am ehesten einen DSP im Codec der dann die > Klanganpassung für die Mini-Quäke da drinnen macht. Die Signale der oft 3 Mikrofone werden ebenfalls per DSP verarbeitet, einschliesslich Filtertechniken um Nebengeräusche zu unterdrücken. Dazu gehört auch Aufweckerkennung per "Ok Google" oder "Hey Siri", denn die hören ja permanent mit, dürfen dafür also kaum Strom verbrauchen: "Nowadays these same algorithms can run on a specialized audio and machine learning DSP in a smart microphone at less than 0.5mW."
:
Bearbeitet durch User
Nils schrieb: > DSPs müssen nicht zwingend programmierbar sein. Wichtig ist in erster > Linie für die Definition nur, das sie digital Signale verarbeiten. In > vielen RF Chips z.B. befinden sich kleine DSP Blöcke, die eine fixe > Signalbearbeitung vornehmen. Manche sind dabei auch parametrisierbar, > aber wirklich programmieren kann man die Dinger nicht. Z.B. Ethernet PHY ab 1G. Dort übernehmen sie u.a. Crosstalk- und Echocancelation.
Nils schrieb: > Das ist ein > Audio DSP der bei jedem Sample einfach stumpf bis zu 128 Befehle > ausführt. Wie wird das praktisch eingesetzt? D.h. wie wählt man da die gewollte Funktion aus?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.