Liebe alle, Ich suche gerade die richtigen Werkzeuge und Konzepte um "Musik zu produzieren" wie folgt: 1) Was ich schon kann, ist Audio mit einem Looper und Mikrofon aufnehmen, in Audacity in Spuren organisieren, komprimieren, schneiden etc. Und dann alles zu einem Stereo-Wav auszuspielen. Also wenn ich selber "richtige, analoge Instrumente einspiele". 2) Was ich auch schon kann, ist Noten zu arrangieren, also in dem Fall mit Musescore eine Partitur zu öffnen, die Instrumente einzustellen, und dann mit Maus und Tastatur Noten aufzuschreiben für Streichquartette oder andere Ensembles. Da höre ich mir dann den lustigen, sehr reduzierten Musescore-Midi-Klang an und kann hören, ob das Arrangement grundlegend funktioniert. Wenn ich jetzt 1) und 2) kombinieren will, spiele ich 2) Musescore nach WAV aus und mixe es dann in Audacity mit ein. Geht, ist aber sehr mühsam, und die Instrumente in MuseScore sind ja auch vom Klang her nicht ganz ernst gemeint. Ich habe mich mal belesen und würde gerne folgendes erreichen: 3) Die Noten in Musescore mit einem Midi-Keyboard einspielen (das ist wahrscheinlich nicht so kompliziert, ich werde mir mal ein kleines Teil kaufen). Wichtiger: 4) Ich hätte gerne die Midi-Darstellung der Notenspuren ("Pianoroll" aus 2) und die Audio-Wavegrafiken aus 1) gemeinsam untereinander dargestellt, so dass ich an beiden arbeiten kann, und die Noten aus 2) mit besseren "VST"-Instrumenten gespielt. Welche "Toolchain" / Software brauche ich also mindestens noch? Wie gesagt, ich kann Noten lesen und Instrumente spielen, Noten arrangieren und Wav editieren. aber eben 1 und 2 noch extra, nicht gemeinsam. Wie macht man das / wie wird gewöhnlich sowas produziert?
Rainer U. schrieb: > Welche "Toolchain" / Software brauche ich also mindestens noch? Am einfachsten geht’s mit einer DAW, ich persönlich benutze Ardour sehr gerne. Leider schreibst du nichts zu deinem Betriebssystem, das wäre hier aber einigermaßen von Bedeutung: unter Linux stünde dir beispielsweise JACK zur Verfügung, mit dem man Programme untereinander verbinden und so syncronisieren kann – da ich aber nicht weiß, ob das hier überhaupt nutzbar ist, spare ich mir weitere Ausführungen dazu zunächst. Unter Windows oder Mac stehen andere Möglichkeiten zur Verfügung, mit denen kenne ich mich allerdings nicht aus.
Die üblichen Verdächtigen für DAWs sind Logic, Ableton, Cubase, Pro-Tools und FL Studio
Jack V. schrieb: > Leider schreibst du nichts zu deinem Betriebssystem Danke + stimmt (vergessen) ich benutze Ubuntu - Musescore und Audacity laufen problemlos. Muss ich einen Mac kaufen? :-) Werde mich gleich mal belesen zu Arduor.
:
Bearbeitet durch User
Probiere Mal Reaper. Läuft unter Windows/Mac/Linux. Die Testversion läuft ohne Begrenzung. Damit geht Kombination WAV und Midi. Audacity ist für so etwas nicht gut geeignet.
:
Bearbeitet durch User
Rainer U. schrieb: > Da höre ich mir dann den lustigen, sehr > reduzierten Musescore-Midi-Klang an Höchstwahrscheinlich nutzt du den, mit der Standardinstallation von Musescore mitgelieferten FluidSynth und dem Default-Sound-Font (5,7MB). Wenn du im Netz nach "FluidR3_GM.sf2" suchst, findest du sie an verschiedenen Stellen gezippt, die Datei hat ungezippt 140MB, und damit einen deutlich besseren Klang. Die Datei wird lokal abgelegt, Das Verzeichnis in Musescore bekanntgegeben, dann kann der Font im Synthesizer (Fluid) ausgewählt werden.
Rainer U. schrieb: > ich benutze Ubuntu Dann wäre für mich Ardour mit JACK und den anderen Programmen der Weg zum Ziel. Beziehungsweise war, denn ich nutze das ja schon in der Form ;)
Ingo W. schrieb: > Rainer U. schrieb: >> Da höre ich mir dann den lustigen, sehr >> reduzierten Musescore-Midi-Klang an > > Höchstwahrscheinlich nutzt du den, mit der Standardinstallation von > Musescore mitgelieferten FluidSynth und dem Default-Sound-Font (5,7MB). > Wenn du im Netz nach "FluidR3_GM.sf2" suchst, findest du sie an > verschiedenen Stellen gezippt, die Datei hat ungezippt 140MB, und damit > einen deutlich besseren Klang. > > Die Datei wird lokal abgelegt, Das Verzeichnis in Musescore > bekanntgegeben, dann kann der Font im Synthesizer (Fluid) ausgewählt > werden. Ja, habe ich nie geändert. Guter Tip!
Danke für die vielen Denkanstöße und Ideen! Jetzt habe ich wieder viel zum ausprobieren. Wir produziert Ihr so von Anfang bis Ende (Reihenfolge, Tools)? Also angefangen von dem Moment, wo man eine Idee hat - ich schreibe meist zuerst die Noten auf, ggf. auch den Text. Zum Ausprobieren mit anderen Musikern reicht das ja schon aus, wenn man es ausdruckt und zusammen probt. Aber dann geht es ja weiter: Es soll ein Stück/Lied auf einer CD daraus werden. Die Instrumente, die ich selber spiele, spiele ich oder die Kollegen halt ein mit Knopf im Ohr und Looper / Metronom. Dann habe ich die Wave-Teile. Dann fehlt mir - sagen wir - ein Schlagzeug, und da kommt die Schlagzeug - Spur aus den Noten ins Spiel / soll dazu. Naja usw. Wie ist Eure Vorgehensweise? Oder spielt Ihr gar nicht nach Noten? :-)
Bin jetzt kein Vollblut Musiker/Produzent. Du solltest definitiv eine DAW Software nutzen. Versuche die Instrumente möglichst getrennt abzunehmen/aufzunehmen. Dann kannst Du besser variieren. Einige Leute tun sich schwer, wenn sie nur mit Metronom/Loop spielen. Dann ist gut, wenn bereits vorhandene Spuren parallel zur Aufnahme abgespielt werden. Arbeite dich in die DAW ein, am Anfang habe ich ein paar Mixes vergeigt, weil ich nicht verstanden hatte, wie die Software die Spuren über die Plugins verarbeitet und was dabei passieren kann (Gain Staging….).
Klaus H. schrieb: > Dann ist gut, wenn bereits vorhandene Spuren parallel zur Aufnahme > abgespielt werden. Da brauche ich so ein "Audio interface", damit das gleichzeitig geht, oder?
Rainer U. schrieb: > Da brauche ich so ein "Audio interface", damit das gleichzeitig geht, > oder? Jeder Onboard-Soundchip kann das. Wenn du allerdings ernsthaft Musik machen möchtest, wäre ein höherwertiges Interface nicht die schlechteste Option.
Wie Jack V. schrieb, klappt das bereits mit den normalen Audio Anschlüssen. Aber du willst ja auch vermutlich per Mikro etwas aufnehmen. Dann würde ich schon versuchen mit einem Equipment zu arbeiten, dass Standard Mikros nutzen kann (XLR Anschlüsse und Phantomspeisung). Da findet sich was kleines auch für wenig Geld. Ich nutze hier teilweise noch ein 12Jahre altes Alesis USB Interface (XLR zweikanalig plus MIDI Interface). Das hab ich mal wenn's schnell gehen soll: Notebook+Interface+1..2 Mikros. Lieber in ordentliche Mikros investieren als in ein teures Interface. Ich hab mal USB Mikros ausprobiert... ich war damit nicht zufrieden. Meine Lieblings-DAW ist Reaper geworden. Da die Software als Shareware vertrieben wird, kann man jemdem die Aufnahmen plus das Projektfile in die Hand drücken und es läuft. Mit anderen DAWs gab es dann oft mals Lizenzprobleme. Wenn du aber sowieso alleine daran arbeitest, ist das wurst.
:
Bearbeitet durch User
Klaus H. schrieb: > Lieber in ordentliche Mikros investieren als in ein teures Interface. Also wenn ich so darüber nachdenke: Ich habe ein Großmembran-Kondensatormikrofon von Thomann und auch noch ein betagtes aber gutes ZoomH4n, damit bin ich bis jetzt gut ausgekommen. Aufgenommen habe ich bisher auf einen JamMan-Looper - mono, aber reicht ja für ein Mikro. Gerade gesehen: das Zoom kann man auch als Interface benutzen - da hab ich ja schon eines, aber nie so benutzt :-)
Damit kannst du IMHO 4 Spuren parallel aufnehmen und es gibt auch ASIO Treiber. Keine Ahnung ob es auch parallel zur Aufnahme Audio Spuren ausgeben kann. Aber damit kann man zumindest starten. Lass mal hören ob es klappt.
Also gut, ich werde zunächst mal mit Reaper versuchen und evtl. auch Arduor. Das das Zoom gut zum Aufnehmen (auf SD-Karte) ist, weiß ich ja schon. Ich denke, ich mal das erst mal weiter so und übe erstmal die Handhabung. Wird wohl etwas dauern.. :-)
Rainer U. schrieb: > Das das Zoom gut zum Aufnehmen (auf SD-Karte) ist das nimmt komprimiert auf, glaube ich. Jedenfalls haben mir schon mehrfach Sängerinnen ihre selbstgemachten Aufnahmen ihrer Konzerte vorbei gebracht, um sie auf CD zu bringen. Die sind total mies eingepegelt und durchs mp3 verhunzt. Wenn man ein Aufnahmegerät mit SD nutzen will, muss man schauen, dass man eine schnelle DS-Karte hat und das Gerät unkomprimiert speichern kann. Notfalls nur 44,1 und 16 Bit. >Wav und Midi/Noten zusammen arrangieren und abspielen Kann praktisch jede DAW. Die können es auch gemeinsam abspielen. Die meisten packen es sogar, das zu synchronisieren, weil die MIDI-Granularität nicht unbedingt zur Abtastraste (fps) passt. Da musst du dich tiefer reinfuchsen, was es da an Problemchen und Randbedingungen gibt. Gut funktioniert es mit 960 und 48kHz, weil die einen GGT haben. Post Synch klappt auch samplegenau, aber nur, wenn die Klangerzeugung im PC durch einen Plugin erfolgt und auch dann haben einige schon Probleme. Richtigen Echtzeit-Synch externer Klangerzeuger, wie des eigenen Keyboards mit dem man eingespielt hat, um beides zusammenzubringen, kann eigentlich keine DAW. Dazu habe ich eine MIDI / Audiomatrix im FPGA die das samplegenau kann (auf 768kHz genau!).
Jürgen S. schrieb: > das nimmt komprimiert auf, glaube ich. Kannst auch 32bit WAV aufnehmen, wenn du extragroße Files möchtest. Falls es um Audiokompression geht: auch die lässt sich abschalten (beziehungsweise ist per default nicht aktiv, und müsste bei Bedarf aktiv eingeschaltet werden). Ich würde das Ding dennoch nicht als alleiniges Interface nehmen: als Audiointerface lässt es sich nur mit 44,1 oder 48kHz betreiben, was für musikalische Sachen, die noch bearbeitet werden sollen, etwas mager ist. Da würde ich schon die hundert € investieren, und ’n kleines Focusrite Scarlett oder so holen.
:
Bearbeitet durch User
Jack V. schrieb: > als Audiointerface lässt es sich nur mit 44,1 oder 48kHz betreiben, was für > musikalische Sachen, die noch bearbeitet werden sollen, etwas mager ist. Bei mir hat sich die Samplerate 48KHz / 96Khz etc... weniger ausgewirkt, als das Rauschen der Analogsignale oder schlechter Mikros. Unter 48Khz bin ich meist aber auch nicht gegangen.
Klaus H. schrieb: > Bei mir hat sich die Samplerate 48KHz / 96Khz etc... weniger ausgewirkt, > als das Rauschen der Analogsignale oder schlechter Mikros. So ist es. Der Unterschied der 48/96 ist praktisch ausschließlich in den Höhen zu finden und genau da haben die mittelmäßigen Mikrofone ihre Probleme. Jack V. schrieb: > und ’n kleines Focusrite Scarlett oder so holen. Vor 20 Jahren hätte ich gesagt "gute Entscheidung". Noch in den 1990 ern war Focusrite eine gute Adresse. Die meisten Entwicklungen gingen auf Rupert Neve zurück, was sich aber da schon begann zu ändern. Seither ist das eher ein Konzern, der aufkauft, die Marken ausschlachtet und billiges Zeug zu mittelmäßigen Preisen anbietet. Die Produktpalette wird knallhart gestrafft und nur das noch weiter betrieben, was einen Namen hat. Hat man genug Kohle zusammen, wird die nächste Firma geschluckt, die in Probleme gekommen ist, nachdem der Gründer oder der Macher sich zurückgezogen hat und / oder die Firma ausgelutscht wurde. Aktuelles Investmentprojekt ist Sequential Circuits, die ehemalige Firma von Dave Smith, welche länger unter dem Dach von Yamaha lief.
Jürgen S. schrieb: > Der Unterschied der 48/96 ist praktisch ausschließlich in den > Höhen zu finden und genau da haben die mittelmäßigen Mikrofone ihre > Probleme. Eigentlich geht’s bei der Frage eher darum, dass man in der späteren Verarbeitungskette mehr Spielraum hat. Man könnte es vielleicht zumindest grob mit der Farbtiefe von Bildern vergleichen: normalerweise sieht man den Unterschied zwischen 8 und 10 Bit pro Farbe nicht. Wenn du aber ein Bild mit acht Bit pro Farbe hast, und da so Sachen wie Helligkeit, Kontrast, etc. änderst, hast du recht schnell Banding. Bei 10 Bit pro Farbe gibt es da mehr Spielraum für die Bearbeitung, bevor es zu sichtbaren Einbußen kommt. Jürgen S. schrieb: > Vor 20 Jahren hätte ich gesagt "gute Entscheidung". Noch in den 1990 ern > war Focusrite eine gute Adresse. Die meisten Entwicklungen gingen auf > Rupert Neve zurück, was sich aber da schon begann zu ändern. Ich kaufe meine Hardware eher nach ihren Eigenschaften und dem Preis, und gucke dabei weniger auf die Firmenpolitik und -geschichte. Die Focusrite-Interfaces bieten dabei eine gute Leistung für einen angemessenen Preis. Willkommen im Kapitalismus …
Jack V. schrieb: > Man könnte es vielleicht > zumindest grob mit der Farbtiefe von Bildern vergleichen: normalerweise > sieht man den Unterschied zwischen 8 und 10 Bit pro Farbe nicht. ..... Bei > 10 Bit pro Farbe gibt es da mehr Spielraum für die Bearbeitung, bevor es > zu sichtbaren Einbußen kommt. Das würde ich dann aber eher mit der Bitauflösung des Audiosignals vergleichen. Und da die meisten DAWs intern die Signale in Fließkomma rechnen, hält sich der Fehler durch Nachbearbeitung im Rahmen. (Hatte nur Proleme, wenn ein Plugin intern doch mit Integer rechnete und es zu clipping kam.)
Klaus H. schrieb: > Das würde ich dann aber eher mit der Bitauflösung des Audiosignals > vergleichen. Es ist kein 1:1-Vergleich – der ist auch nicht möglich. Es geht um das Prinzip: wenn ich eine höhere Datendichte habe, kann ich mit weniger Verlusten dran arbeiten, als wenn meine Ausgangsdatendichte schon der Zieldatendichte entspricht. Da hilft’s auch nicht, wenn die DAW intern mit extremen Auflösungen (zeitlich oder Tiefe – ist egal) rechnet: das ist, als würdest du ein 360p-Video auf FullHD aufblasen, oder halt ein Video mit 15fps auf 60fps bringen, und dir einreden, dass du dadurch weniger Verluste bei der Videobearbeitung hättest.
:
Bearbeitet durch User
Ich verstehe was Du meinst. Aber der Vergleich passt nicht. In der Audioverarbeitung werden oft viele Filter hintereinander geschaltet. Durch den Einsatz von Fließkomma bleibt der hinzugefügte Anteil an Bit-Rauschen im Rahmen. (Man kann locker 10 x die Gain um 0.99 verrechnen, am Ende kommt eine Gain von 0.9 raus. In Integer wäre der Rauschanteil viel größer). Wenn Du ein Bild/Video in kleinen Operationen 10 mal drehst, kannst das Ergebnis durchaus besser sein, wenn du zwischendurch eine größere Auflösung nutzt und nur am Ende wieder auf die Ausgangsgröße reduzierst. Ich habe bisher nur marginale Unterschiede bei der Abtastrate 48Khz/96Khz gehört. Aber grauselige Signale bei falschen Mikros oder schlecht positionierten Mikros. Daher mache ich fast alle Aufnahmen mit 48kHz (und spar mir den Speicher). Tatsächlich könnten höhere Abtastraten beim Pitching helfen, wenn Audio-Frequenzen verändert werden. Aber darauf habe ich bisher nicht geachtet. Pitching nutze ich nur für leichte „Reperaturen“. Und um ehrlich zu sein, ich alter Sack höre eh keine Frequenzen über 16kHz. Damit habe ich mindestens einen Faktor 3 zur Samplerate, und kann es wenig beurteilen. Aber ich lasse durch jüngere Menschen hörvergleiche machen, und denen ist der Unterschied nicht aufgefallen.
Ja … ich versteh’ schon: die ganzen professionelleren Studios sind einfach blöde, wenn sie 192kHz fahren – macht das Equipment sehr viel teurer, frisst Rechenleistung und Speicherplatz, treibt die Latenz hoch und laut dir als absolute Konifere im Wald bringt das ja überhaupt nix. /⸮ Ernsthaft: es hat einen Grund, warum auch bei der zeitlichen Auflösung hohe Werte angestrebt werden. Kannst du glauben, oder nicht – mir ist’s egal. Allen Anderen außer dir rate ich dazu, möglichst min. 96kHz aufzunehmen, um bei frequenzbeeinflussenden Bearbeitungen, wie sie nunmal die Regel sind, Platz zu haben.
Oh Entschuldigung, ich wollte dich nicht angreifen oder beleidigen. Natürlich sind höhere Auflösungen viel besser. Und ich bin keine Konifere. Mache das ganze nur als kleines Hobby. Es ging hier im Zusammenhang nur darum, dass für Rainer zum Starten mit 48kHz auskommt und nicht sofort alles neu einkaufen muss. Sorry
Klaus H. schrieb: > Es ging hier im Zusammenhang nur darum, dass für Rainer zum Starten mit > 48kHz auskommt und nicht sofort alles neu einkaufen muss. Das ist vollkommen richtig – zum Einstieg ist es auf jeden Fall brauchbar. Ich hatte es so verstanden, dass deiner Meinung nach höhere Sampleraten generell Unsinn wären – da das offensichtlich nicht so gemeint war, auch sorry von mir.
Klaus H. schrieb: > In Integer wäre der > Rauschanteil viel größer). Das sehe ich nicht so. Wenn die Integerberechnung richtig durchgeführt ist, hat die die gleiche Qualität oder auch mehr. Das ist einzig eine Frage der Dimensionierung der Auflösung an sich und der geschickten Umfang von Gleichungen unter Beibehalt temporär höherer Skalierungen. Mit Integter hat man es im Übrigen bei vielen Funktionen auch besser unter Kontrolle was rauskommen muss und kann besser validieren. > Wenn Du ein Bild/Video in kleinen Operationen > 10 mal drehst, kannst das Ergebnis durchaus besser sein, wenn du > zwischendurch eine größere Auflösung nutzt und nur am Ende wieder auf > die Ausgangsgröße reduzierst. ... weil zwischendrin gerundet gespeichert wird. Das muss aber nicht so sein, wenn man die komplette Videokette entsprechend hochaufgelöst formuliert. Gleichwohl ist das Hochsetzen der Auflösung die gegebene Methode bei der stückweisen Bearbeitung mit 8-BIT-RGB Software wie GIMP etc. Ich mache das auch genau so!
:
Bearbeitet durch User
> Ich habe bisher nur marginale Unterschiede bei der Abtastrate > 48Khz/96Khz gehört. Bei solchen Vergleichen muss man aufpassen: Das aufgezeichnete Signal muss auch wirklich eine höhere Bandbreite haben, d.h. der AA-Filter entsprechend höher eingestellt sein. Ist das nicht der Fall, sollte man eigentlich gar keinen Unterschied bekommen. Ferner muss man mit der Bearbeitung von plugins aufpassen: Die arbeiten mit erhöhten Abtastraten nicht alle automatisch besser und die wenigsten schöpfen einen erhöhten möglichen Frequenz-Headromm auch aus. Das müssten sie aber, um das Signal in den Höhen weniger zu deformieren, was automatisch passiert, wenn jeder mit 3dB bei 18kHz arbeitet, um bei 24kHz mit Nyquist klarzukommen. Richtig wäre es, die Software auf jeweils 96kHz oder mehr laufen zu lassen und generell Bandbegrenzungen bei 24kHz einzusetzen, damit bei 16kHz Nutzfrequenz noch alle Verstärkungen bei 1.000 stehen. Bei Verzerrern müsste man noch höher gehen und deren neue Oberwellen bis 100kHz oder mehr mitprozessieren, um den analogen Originalen nahe zu kommen. Erst im letzten Schritt muss das Signal auf 16-20kHz bandlimitiert werden und dann kann man es auch in 48 speichern und mastern. So arbeiten plugins aber in aller Regel nicht! Man kann das sehr leicht mit Testsignalen nachprüfen und nachmessen. Auch die hochgelobten Super 64-Bit plugins aus den bekannten Serien haben eine diesbezügliche Bandbegrenzung. Ich habe zu dem Thema bei den bandbegrenzten Rechtecken mal ausführlich Stellung genommen. Nur bei strikt bandlimitierten Signaln, die mit der Abtastfrequenz voll abbildbar sind, entstehen keine Abweichungen. Ein ähnliches Bild ergibt sich im Übrigen beim Video: Dort werden oft Frequenzen jenseits von Nyquist dargestellt und prozessiert - mit den bekannten Effekten. Nehmen wir als Beispiel das HDMI-Bild eines Monitors, der exakt Scharfe Linien in einem CAD-Programm zeichnet: Wenn man die verschiebt, bilden sich die bekannten Interferenzmuster, die man auch beim Sport sieht, wenn die Videowall eingeblendet wird: Es zittert und blinkt. Korrekt wäre es, die Signalanstiege im Bild auf Nyquist + Headroom der Filterung zu limitieren, als eine Linie nicht mit 0%, 0%, 100%, 0%, 0% - sondern etwa so abzubilden : 25%, 75%, 75%, 25%, dann könnte man sie artefaktfrei über den Bildschirm schieben. (Genau so etwas passiert ja bei der Nutzung der erhöhten Videoauflösung wie oben eingeworfen). Und: Die Monitore bräuchten einen Tiefpass bei der Ausgabe.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.