Forum: Offtopic Wav und Midi/Noten zusammen arrangieren und abspielen


von Rainer U. (r-u)


Lesenswert?

Liebe alle,

Ich suche gerade die richtigen Werkzeuge und Konzepte um "Musik zu 
produzieren" wie folgt:

1) Was ich schon kann, ist Audio mit einem Looper und Mikrofon 
aufnehmen, in Audacity in Spuren organisieren, komprimieren, schneiden 
etc. Und dann alles zu einem Stereo-Wav auszuspielen. Also wenn ich 
selber "richtige, analoge Instrumente einspiele".

2) Was ich auch schon kann, ist Noten zu arrangieren, also in dem Fall 
mit Musescore eine Partitur zu öffnen, die Instrumente einzustellen, und 
dann mit Maus und Tastatur Noten aufzuschreiben für Streichquartette 
oder andere Ensembles. Da höre ich mir dann den lustigen, sehr 
reduzierten Musescore-Midi-Klang an und kann hören, ob das Arrangement 
grundlegend funktioniert.

Wenn ich jetzt 1) und 2) kombinieren will, spiele ich 2) Musescore nach 
WAV aus und mixe es dann in Audacity mit ein. Geht, ist aber sehr 
mühsam, und die Instrumente in MuseScore sind ja auch vom Klang her 
nicht ganz ernst gemeint.

Ich habe mich mal belesen und würde gerne folgendes erreichen:

3) Die Noten in Musescore mit einem Midi-Keyboard einspielen (das ist 
wahrscheinlich nicht so kompliziert, ich werde mir mal ein kleines Teil 
kaufen). Wichtiger:

4) Ich hätte gerne die Midi-Darstellung der Notenspuren ("Pianoroll" aus 
2) und die Audio-Wavegrafiken aus 1) gemeinsam untereinander 
dargestellt, so dass ich an beiden arbeiten kann, und die Noten aus 2) 
mit besseren "VST"-Instrumenten gespielt.

Welche "Toolchain" / Software brauche ich also mindestens noch? Wie 
gesagt, ich kann Noten lesen und Instrumente spielen, Noten arrangieren 
und Wav editieren. aber eben 1 und 2 noch extra, nicht gemeinsam. Wie 
macht man das / wie wird gewöhnlich sowas produziert?

von Jack V. (jackv)


Lesenswert?

Rainer U. schrieb:
> Welche "Toolchain" / Software brauche ich also mindestens noch?

Am einfachsten geht’s mit einer DAW, ich persönlich benutze Ardour sehr 
gerne. Leider schreibst du nichts zu deinem Betriebssystem, das wäre 
hier aber einigermaßen von Bedeutung: unter Linux stünde dir 
beispielsweise JACK zur Verfügung, mit dem man Programme untereinander 
verbinden und so syncronisieren kann – da ich aber nicht weiß, ob das 
hier überhaupt nutzbar ist, spare ich mir weitere Ausführungen dazu 
zunächst.

Unter Windows oder Mac stehen andere Möglichkeiten zur Verfügung, mit 
denen kenne ich mich allerdings nicht aus.

von A. S. (rava)


Lesenswert?

Die üblichen Verdächtigen für DAWs sind
Logic, Ableton, Cubase, Pro-Tools und FL Studio

von Rainer U. (r-u)


Lesenswert?

Jack V. schrieb:
> Leider schreibst du nichts zu deinem Betriebssystem

Danke + stimmt (vergessen) ich benutze Ubuntu - Musescore und Audacity 
laufen problemlos. Muss ich einen Mac kaufen? :-)

Werde mich gleich mal belesen zu Arduor.

: Bearbeitet durch User
von Klaus H. (klummel69)


Lesenswert?

Probiere Mal Reaper.

Läuft unter Windows/Mac/Linux.
Die Testversion läuft ohne Begrenzung.

Damit geht Kombination WAV und Midi.
Audacity ist für so etwas nicht gut geeignet.

: Bearbeitet durch User
von Ingo W. (uebrig) Benutzerseite


Angehängte Dateien:

Lesenswert?

Rainer U. schrieb:
> Da höre ich mir dann den lustigen, sehr
> reduzierten Musescore-Midi-Klang an

Höchstwahrscheinlich nutzt du den, mit der Standardinstallation von 
Musescore mitgelieferten FluidSynth und dem Default-Sound-Font (5,7MB).
Wenn du im Netz nach "FluidR3_GM.sf2" suchst, findest du sie an 
verschiedenen Stellen gezippt, die Datei hat ungezippt 140MB, und damit 
einen deutlich besseren Klang.

Die Datei wird lokal abgelegt, Das Verzeichnis in Musescore 
bekanntgegeben, dann kann der Font im Synthesizer (Fluid) ausgewählt 
werden.

von Jack V. (jackv)


Lesenswert?

Rainer U. schrieb:
> ich benutze Ubuntu

Dann wäre für mich Ardour mit JACK und den anderen Programmen der Weg 
zum Ziel. Beziehungsweise war, denn ich nutze das ja schon in der Form 
;)

von Rainer U. (r-u)


Lesenswert?

Ingo W. schrieb:
> Rainer U. schrieb:
>> Da höre ich mir dann den lustigen, sehr
>> reduzierten Musescore-Midi-Klang an
>
> Höchstwahrscheinlich nutzt du den, mit der Standardinstallation von
> Musescore mitgelieferten FluidSynth und dem Default-Sound-Font (5,7MB).
> Wenn du im Netz nach "FluidR3_GM.sf2" suchst, findest du sie an
> verschiedenen Stellen gezippt, die Datei hat ungezippt 140MB, und damit
> einen deutlich besseren Klang.
>
> Die Datei wird lokal abgelegt, Das Verzeichnis in Musescore
> bekanntgegeben, dann kann der Font im Synthesizer (Fluid) ausgewählt
> werden.

Ja, habe ich nie geändert. Guter Tip!

von Rainer U. (r-u)


Lesenswert?

Danke für die vielen Denkanstöße und Ideen! Jetzt habe ich wieder viel 
zum ausprobieren.

Wir produziert Ihr so von Anfang bis Ende (Reihenfolge, Tools)?

Also angefangen von dem Moment, wo man eine Idee hat - ich schreibe 
meist zuerst die Noten auf, ggf. auch den Text. Zum Ausprobieren mit 
anderen Musikern reicht das ja schon aus, wenn man es ausdruckt und 
zusammen probt.

Aber dann geht es ja weiter: Es soll ein Stück/Lied auf einer CD daraus 
werden.

Die Instrumente, die ich selber spiele, spiele ich oder die Kollegen 
halt ein mit Knopf im Ohr und Looper / Metronom. Dann habe ich die 
Wave-Teile.

Dann fehlt mir - sagen wir - ein Schlagzeug, und da kommt die Schlagzeug 
- Spur aus den Noten ins Spiel / soll dazu. Naja usw.

Wie ist Eure Vorgehensweise? Oder spielt Ihr gar nicht nach Noten? :-)

von Klaus H. (klummel69)


Lesenswert?

Bin jetzt kein Vollblut Musiker/Produzent.

Du solltest definitiv eine DAW Software nutzen. Versuche die Instrumente 
möglichst getrennt abzunehmen/aufzunehmen. Dann kannst Du besser 
variieren.

Einige Leute tun sich schwer, wenn sie nur mit Metronom/Loop spielen.
Dann ist gut, wenn bereits vorhandene Spuren parallel zur Aufnahme 
abgespielt werden.

Arbeite dich in die DAW ein, am Anfang habe ich ein paar Mixes vergeigt, 
weil ich nicht verstanden hatte, wie die Software die Spuren über die 
Plugins verarbeitet und was dabei passieren kann (Gain Staging….).

von Rainer U. (r-u)


Lesenswert?

Klaus H. schrieb:
> Dann ist gut, wenn bereits vorhandene Spuren parallel zur Aufnahme
> abgespielt werden.

Da brauche ich so ein "Audio interface", damit das gleichzeitig geht, 
oder?

von Jack V. (jackv)


Lesenswert?

Rainer U. schrieb:
> Da brauche ich so ein "Audio interface", damit das gleichzeitig geht,
> oder?

Jeder Onboard-Soundchip kann das. Wenn du allerdings ernsthaft Musik 
machen möchtest, wäre ein höherwertiges Interface nicht die schlechteste 
Option.

von Klaus H. (klummel69)


Lesenswert?

Wie Jack V. schrieb, klappt das bereits mit den normalen Audio 
Anschlüssen.
Aber du willst ja auch vermutlich per Mikro etwas aufnehmen.
Dann würde ich schon versuchen mit einem Equipment zu arbeiten,
dass Standard Mikros nutzen kann (XLR Anschlüsse und Phantomspeisung).
Da findet sich was kleines auch für wenig Geld.

Ich nutze hier teilweise noch ein 12Jahre altes Alesis USB Interface
(XLR zweikanalig plus MIDI Interface).
Das hab ich mal wenn's schnell gehen soll: Notebook+Interface+1..2 
Mikros.

Lieber in ordentliche Mikros investieren als in ein teures Interface.
Ich hab mal USB Mikros ausprobiert... ich war damit nicht zufrieden.

Meine Lieblings-DAW ist Reaper geworden.
Da die Software als Shareware vertrieben wird, kann man jemdem
die Aufnahmen plus das Projektfile in die Hand drücken und es läuft.
Mit anderen DAWs gab es dann oft mals Lizenzprobleme.
Wenn du aber sowieso alleine daran arbeitest, ist das wurst.

: Bearbeitet durch User
von Rainer U. (r-u)


Lesenswert?

Klaus H. schrieb:
> Lieber in ordentliche Mikros investieren als in ein teures Interface.

Also wenn ich so darüber nachdenke: Ich habe ein 
Großmembran-Kondensatormikrofon von Thomann und auch noch ein betagtes 
aber gutes ZoomH4n, damit bin ich bis jetzt gut ausgekommen. Aufgenommen 
habe ich bisher auf einen JamMan-Looper - mono, aber reicht ja für ein 
Mikro.

Gerade gesehen: das Zoom kann man auch als Interface benutzen - da hab 
ich ja schon eines, aber nie so benutzt :-)

von Klaus H. (klummel69)


Lesenswert?

Damit kannst du IMHO 4 Spuren parallel aufnehmen und es gibt auch ASIO 
Treiber. Keine Ahnung ob es auch parallel zur Aufnahme Audio Spuren 
ausgeben kann.

Aber damit kann man zumindest starten. Lass mal hören ob es klappt.

von Rainer U. (r-u)


Lesenswert?

Also gut, ich werde zunächst mal mit Reaper versuchen und evtl. auch 
Arduor.

Das das Zoom gut zum Aufnehmen (auf SD-Karte) ist, weiß ich ja schon. 
Ich denke, ich mal das erst mal weiter so und übe erstmal die 
Handhabung. Wird wohl etwas dauern.. :-)

von J. S. (engineer) Benutzerseite


Lesenswert?

Rainer U. schrieb:
> Das das Zoom gut zum Aufnehmen (auf SD-Karte) ist

das nimmt komprimiert auf, glaube ich. Jedenfalls haben mir schon 
mehrfach Sängerinnen ihre selbstgemachten Aufnahmen ihrer Konzerte 
vorbei gebracht, um sie auf CD zu bringen. Die sind total mies 
eingepegelt und durchs mp3 verhunzt. Wenn man ein Aufnahmegerät mit SD 
nutzen will, muss man schauen, dass man eine schnelle DS-Karte hat und 
das Gerät unkomprimiert speichern kann. Notfalls nur 44,1 und 16 Bit.

>Wav und Midi/Noten zusammen arrangieren und abspielen
Kann praktisch jede DAW. Die können es auch gemeinsam abspielen. Die 
meisten packen es sogar, das zu synchronisieren, weil die 
MIDI-Granularität nicht unbedingt zur Abtastraste (fps) passt. Da musst 
du dich tiefer reinfuchsen, was es da an Problemchen und Randbedingungen 
gibt. Gut funktioniert es mit 960 und 48kHz, weil die einen GGT haben.

Post Synch klappt auch samplegenau, aber nur, wenn die Klangerzeugung im 
PC durch einen Plugin erfolgt und auch dann haben einige schon Probleme.

Richtigen Echtzeit-Synch externer Klangerzeuger, wie des eigenen 
Keyboards mit dem man eingespielt hat, um beides zusammenzubringen, kann 
eigentlich keine DAW. Dazu habe ich eine MIDI / Audiomatrix im FPGA die 
das samplegenau kann (auf 768kHz genau!).

von Jack V. (jackv)


Lesenswert?

Jürgen S. schrieb:
> das nimmt komprimiert auf, glaube ich.

Kannst auch 32bit WAV aufnehmen, wenn du extragroße Files möchtest. 
Falls es um Audiokompression geht: auch die lässt sich abschalten 
(beziehungsweise ist per default nicht aktiv, und müsste bei Bedarf 
aktiv eingeschaltet werden).

Ich würde das Ding dennoch nicht als alleiniges Interface nehmen: als 
Audiointerface lässt es sich nur mit 44,1 oder 48kHz betreiben, was für 
musikalische Sachen, die noch bearbeitet werden sollen, etwas mager ist. 
Da würde ich schon die hundert € investieren, und ’n kleines Focusrite 
Scarlett oder so holen.

: Bearbeitet durch User
von Klaus H. (klummel69)


Lesenswert?

Jack V. schrieb:
> als Audiointerface lässt es sich nur mit 44,1 oder 48kHz betreiben, was für
> musikalische Sachen, die noch bearbeitet werden sollen, etwas mager ist.

Bei mir hat sich die Samplerate 48KHz / 96Khz etc... weniger ausgewirkt,
als das Rauschen der Analogsignale oder schlechter Mikros.
Unter 48Khz bin ich meist aber auch nicht gegangen.

von J. S. (engineer) Benutzerseite


Lesenswert?

Klaus H. schrieb:
> Bei mir hat sich die Samplerate 48KHz / 96Khz etc... weniger ausgewirkt,
> als das Rauschen der Analogsignale oder schlechter Mikros.
So ist es. Der Unterschied der 48/96 ist praktisch ausschließlich in den 
Höhen zu finden und genau da haben die mittelmäßigen Mikrofone ihre 
Probleme.

Jack V. schrieb:
> und ’n kleines Focusrite Scarlett oder so holen.
Vor 20 Jahren hätte ich gesagt "gute Entscheidung". Noch in den 1990 ern 
war Focusrite eine gute Adresse. Die meisten Entwicklungen gingen auf 
Rupert Neve zurück, was sich aber da schon begann zu ändern. Seither ist 
das eher ein Konzern, der aufkauft, die Marken ausschlachtet und 
billiges Zeug zu mittelmäßigen Preisen anbietet. Die Produktpalette wird 
knallhart gestrafft und nur das noch weiter betrieben, was einen Namen 
hat. Hat man genug Kohle zusammen, wird die nächste Firma geschluckt, 
die in Probleme gekommen ist, nachdem der Gründer oder der Macher sich 
zurückgezogen hat und / oder die Firma ausgelutscht wurde. Aktuelles 
Investmentprojekt ist Sequential Circuits, die ehemalige Firma von Dave 
Smith, welche länger unter dem Dach von Yamaha lief.

von Jack V. (jackv)


Lesenswert?

Jürgen S. schrieb:
> Der Unterschied der 48/96 ist praktisch ausschließlich in den
> Höhen zu finden und genau da haben die mittelmäßigen Mikrofone ihre
> Probleme.

Eigentlich geht’s bei der Frage eher darum, dass man in der späteren 
Verarbeitungskette mehr Spielraum hat. Man könnte es vielleicht 
zumindest grob mit der Farbtiefe von Bildern vergleichen: normalerweise 
sieht man den Unterschied zwischen 8 und 10 Bit pro Farbe nicht. Wenn du 
aber ein Bild mit acht Bit pro Farbe hast, und da so Sachen wie 
Helligkeit, Kontrast, etc. änderst, hast du recht schnell Banding. Bei 
10 Bit pro Farbe gibt es da mehr Spielraum für die Bearbeitung, bevor es 
zu sichtbaren Einbußen kommt.

Jürgen S. schrieb:
> Vor 20 Jahren hätte ich gesagt "gute Entscheidung". Noch in den 1990 ern
> war Focusrite eine gute Adresse. Die meisten Entwicklungen gingen auf
> Rupert Neve zurück, was sich aber da schon begann zu ändern.

Ich kaufe meine Hardware eher nach ihren Eigenschaften und dem Preis, 
und gucke dabei weniger auf die Firmenpolitik und -geschichte. Die 
Focusrite-Interfaces bieten dabei eine gute Leistung für einen 
angemessenen Preis. Willkommen im Kapitalismus …

von Klaus H. (klummel69)


Lesenswert?

Jack V. schrieb:
> Man könnte es vielleicht
> zumindest grob mit der Farbtiefe von Bildern vergleichen: normalerweise
> sieht man den Unterschied zwischen 8 und 10 Bit pro Farbe nicht. ..... Bei
> 10 Bit pro Farbe gibt es da mehr Spielraum für die Bearbeitung, bevor es
> zu sichtbaren Einbußen kommt.

Das würde ich dann aber eher mit der Bitauflösung des Audiosignals 
vergleichen. Und da die meisten DAWs intern die Signale in Fließkomma 
rechnen, hält sich der Fehler durch Nachbearbeitung im Rahmen. (Hatte 
nur Proleme, wenn ein Plugin intern doch mit Integer rechnete und es zu 
clipping kam.)

von Jack V. (jackv)


Lesenswert?

Klaus H. schrieb:
> Das würde ich dann aber eher mit der Bitauflösung des Audiosignals
> vergleichen.

Es ist kein 1:1-Vergleich – der ist auch nicht möglich. Es geht um das 
Prinzip: wenn ich eine höhere Datendichte habe, kann ich mit weniger 
Verlusten dran arbeiten, als wenn meine Ausgangsdatendichte schon der 
Zieldatendichte entspricht.

Da hilft’s auch nicht, wenn die DAW intern mit extremen Auflösungen 
(zeitlich oder Tiefe – ist egal) rechnet: das ist, als würdest du ein 
360p-Video auf FullHD aufblasen, oder halt ein Video mit 15fps auf 60fps 
bringen, und dir einreden, dass du dadurch weniger Verluste bei der 
Videobearbeitung hättest.

: Bearbeitet durch User
von Klaus H. (klummel69)


Lesenswert?

Ich verstehe was Du meinst. Aber der Vergleich passt nicht.

In der Audioverarbeitung werden oft viele Filter hintereinander 
geschaltet. Durch den Einsatz von Fließkomma bleibt der hinzugefügte 
Anteil an Bit-Rauschen im Rahmen. (Man kann locker 10 x die Gain um 0.99 
verrechnen, am Ende kommt eine Gain von 0.9 raus.  In Integer wäre der 
Rauschanteil viel größer). Wenn Du ein Bild/Video in kleinen Operationen 
10 mal drehst, kannst das Ergebnis durchaus besser sein, wenn du 
zwischendurch eine größere Auflösung nutzt und nur am Ende wieder auf 
die Ausgangsgröße reduzierst.
Ich habe bisher nur marginale Unterschiede bei der Abtastrate 
48Khz/96Khz gehört.

Aber grauselige Signale bei falschen Mikros oder schlecht positionierten 
Mikros.

Daher mache ich fast alle Aufnahmen mit 48kHz (und spar mir den 
Speicher).
Tatsächlich könnten höhere Abtastraten beim Pitching helfen, wenn 
Audio-Frequenzen verändert werden. Aber darauf habe ich bisher nicht 
geachtet. Pitching nutze ich nur für leichte „Reperaturen“.

Und um ehrlich zu sein, ich alter Sack höre eh keine Frequenzen über 
16kHz. Damit habe ich mindestens einen Faktor 3 zur Samplerate, und kann 
es wenig beurteilen.
Aber ich lasse durch jüngere Menschen hörvergleiche machen, und denen 
ist der Unterschied nicht aufgefallen.

von Jack V. (jackv)


Lesenswert?

Ja … ich versteh’ schon: die ganzen professionelleren Studios sind 
einfach blöde, wenn sie 192kHz fahren – macht das Equipment sehr viel 
teurer, frisst Rechenleistung und Speicherplatz, treibt die Latenz hoch 
und laut dir als absolute Konifere im Wald bringt das ja überhaupt nix. 
/⸮

Ernsthaft: es hat einen Grund, warum auch bei der zeitlichen Auflösung 
hohe Werte angestrebt werden. Kannst du glauben, oder nicht – mir ist’s 
egal. Allen Anderen außer dir rate ich dazu, möglichst min. 96kHz 
aufzunehmen, um bei frequenzbeeinflussenden Bearbeitungen, wie sie 
nunmal die Regel sind, Platz zu haben.

von Klaus H. (klummel69)


Lesenswert?

Oh Entschuldigung, ich wollte dich nicht angreifen oder beleidigen.

Natürlich sind höhere Auflösungen viel besser. Und ich bin keine 
Konifere.
Mache das ganze nur als kleines Hobby.

Es ging hier im Zusammenhang nur darum, dass für Rainer zum Starten mit 
48kHz auskommt und nicht sofort alles neu einkaufen muss.

Sorry

von Jack V. (jackv)


Lesenswert?

Klaus H. schrieb:
> Es ging hier im Zusammenhang nur darum, dass für Rainer zum Starten mit
> 48kHz auskommt und nicht sofort alles neu einkaufen muss.

Das ist vollkommen richtig – zum Einstieg ist es auf jeden Fall 
brauchbar. Ich hatte es so verstanden, dass deiner Meinung nach höhere 
Sampleraten generell Unsinn wären – da das offensichtlich nicht so 
gemeint war, auch sorry von mir.

von J. S. (engineer) Benutzerseite


Lesenswert?

Klaus H. schrieb:
> In Integer wäre der
> Rauschanteil viel größer).
Das sehe ich nicht so. Wenn die Integerberechnung richtig durchgeführt 
ist, hat die die gleiche Qualität oder auch mehr. Das ist einzig eine 
Frage der Dimensionierung der Auflösung an sich und der geschickten 
Umfang von Gleichungen unter Beibehalt temporär höherer Skalierungen. 
Mit Integter hat man es im Übrigen bei vielen Funktionen auch besser 
unter Kontrolle was rauskommen muss und kann besser validieren.

> Wenn Du ein Bild/Video in kleinen Operationen
> 10 mal drehst, kannst das Ergebnis durchaus besser sein, wenn du
> zwischendurch eine größere Auflösung nutzt und nur am Ende wieder auf
> die Ausgangsgröße reduzierst.
... weil zwischendrin gerundet gespeichert wird. Das muss aber nicht so 
sein, wenn man die komplette Videokette entsprechend hochaufgelöst 
formuliert. Gleichwohl ist das Hochsetzen der Auflösung die gegebene 
Methode bei der stückweisen Bearbeitung mit 8-BIT-RGB Software wie GIMP 
etc. Ich mache das auch genau so!

: Bearbeitet durch User
von J. S. (engineer) Benutzerseite


Lesenswert?

> Ich habe bisher nur marginale Unterschiede bei der Abtastrate
> 48Khz/96Khz gehört.
Bei solchen Vergleichen muss man aufpassen: Das aufgezeichnete Signal 
muss auch wirklich eine höhere Bandbreite haben, d.h. der AA-Filter 
entsprechend höher eingestellt sein. Ist das nicht der Fall, sollte man 
eigentlich gar keinen Unterschied bekommen. Ferner muss man mit der 
Bearbeitung von plugins aufpassen: Die arbeiten mit erhöhten Abtastraten 
nicht alle automatisch besser und die wenigsten schöpfen einen erhöhten 
möglichen Frequenz-Headromm auch aus. Das müssten sie aber, um das 
Signal in den Höhen weniger zu deformieren, was automatisch passiert, 
wenn jeder mit 3dB bei 18kHz arbeitet, um bei 24kHz mit Nyquist 
klarzukommen.

Richtig wäre es, die Software auf jeweils 96kHz oder mehr laufen zu 
lassen und generell Bandbegrenzungen bei 24kHz einzusetzen, damit bei 
16kHz Nutzfrequenz noch alle Verstärkungen bei 1.000 stehen. Bei 
Verzerrern müsste man noch höher gehen und deren neue Oberwellen bis 
100kHz oder mehr mitprozessieren, um den analogen Originalen nahe zu 
kommen. Erst im letzten Schritt muss das Signal auf 16-20kHz 
bandlimitiert werden und dann kann man es auch in 48 speichern und 
mastern.

So arbeiten plugins aber in aller Regel nicht! Man kann das sehr leicht 
mit Testsignalen nachprüfen und nachmessen. Auch die hochgelobten Super 
64-Bit plugins aus den bekannten Serien haben eine diesbezügliche 
Bandbegrenzung.

Ich habe zu dem Thema bei den bandbegrenzten Rechtecken mal ausführlich 
Stellung genommen. Nur bei strikt bandlimitierten Signaln, die mit der 
Abtastfrequenz voll abbildbar sind, entstehen keine Abweichungen.

Ein ähnliches Bild ergibt sich im Übrigen beim Video: Dort werden oft 
Frequenzen jenseits von Nyquist dargestellt und prozessiert - mit den 
bekannten Effekten. Nehmen wir als Beispiel das HDMI-Bild eines 
Monitors, der exakt Scharfe Linien in einem CAD-Programm zeichnet: Wenn 
man die verschiebt, bilden sich die bekannten Interferenzmuster, die man 
auch beim Sport sieht, wenn die Videowall eingeblendet wird: Es zittert 
und blinkt.

Korrekt wäre es, die Signalanstiege im Bild auf Nyquist + Headroom der 
Filterung zu limitieren, als eine Linie nicht mit 0%, 0%, 100%, 0%, 0% - 
sondern etwa so abzubilden : 25%, 75%, 75%, 25%, dann könnte man sie 
artefaktfrei über den Bildschirm schieben. (Genau so etwas passiert ja 
bei der Nutzung der erhöhten Videoauflösung wie oben eingeworfen).

Und: Die Monitore bräuchten einen Tiefpass bei der Ausgabe.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.