Forum: Mikrocontroller und Digitale Elektronik MIDI Clock in MIDI Timecode wandeln


von Thomas W. (thomas0906)


Lesenswert?

Hallo

Im Jahr 2011 sind die teuersten Musikgeräte nicht in der Lage vernünftig 
miteinander zu kommunizieren. Man das nervt.

Um mit einem TYROS 4 einen PC mit Cubase SX3 zu steuern und zu 
synchronisieren, gibt es keine Möglichkeit.

Der TYROS sendet nur MIDI Clock und CUBASE empfängt nur MTC (MIDI Time 
Code).


Da ich sicher nicht der Einzige bin, der da Probleme hat, hier meine 
Frage, ob es schon einen uC gesteuerten Wandler gibt, der allerdings in 
die USB Verbindung eingeschleift werden müßte.

Gruß
Thomas

von Knut B. (Firma: TravelRec.) (travelrec) Benutzerseite


Lesenswert?

Thomas W. schrieb:
> der allerdings in
> die USB Verbindung eingeschleift werden müßte.

Wieso das denn?


Thomas W. schrieb:
> MIDI Clock in MIDI Timecode wandeln

Lies mal das:

http://www.midiox.com/cgi/yabb/YaBB.pl?board=query;action=display;num=1017688372

von thomas0906 (Gast)


Lesenswert?

Weil mein PC nur einen USB Anschluß und keinen MIDI IN hat.


Gruß
Thomas

von Sven (Gast)


Lesenswert?

Ich kenne dein Problem nur leider keine Lösung dazu

Ich wollte eine Dmx Lichtshow Syncron zum Sound abspielen, dem DJ aber 
trozdessen die kontrolle über Position und pitch des songs belassen

Langes Googeln viel Telefonieren aber keine lösung

Ende vom lied Cd player um eine Midi schnitstelle erweitert, indem ich 
das signal zum Display mitgeschnitten habe und die Position der zeit vom 
Display des Cdplayers als MTC ausgebe

von Knut B. (Firma: TravelRec.) (travelrec) Benutzerseite


Lesenswert?

Sven schrieb:
> Ende vom lied Cd player um eine Midi schnitstelle erweitert, indem ich
> das signal zum Display mitgeschnitten habe und die Position der zeit vom
> Display des Cdplayers als MTC ausgebe

Meine Herrn! Hut ab!

thomas0906 schrieb:
> Weil mein PC nur einen USB Anschluß und keinen MIDI IN hat.

Deswegen kramt man aber nicht an der USB-Seite sondern verhackstückt das 
vor dem USB auf der MIDI-Seite, also vor dem MIDI auf USB-Konverter. 
Dies aufgrund der Inkompatibilität beider Protokolle aber nur am Rande.

von Rolf Magnus (Gast)


Lesenswert?

Thomas W. schrieb:
> Der TYROS sendet nur MIDI Clock und CUBASE empfängt nur MTC (MIDI Time
> Code).

Das sind ja auch eigentlich verschiedene Dinge. MIDI clock ist wie ein 
Metronom und gibt in regelmäßigen Abständen einfach einen Puls, so daß 
die Geräte einen synchronen Takt haben. Timecode gibt dagegen einen 
Offset zum Start des Stücks an, damit z.B. vor- und zurückspulen oder 
springen innerhalb eine Stücks möglich ist.
Wie sollte jetzt also von Clock nach Timecode konvertiert werden?

Knut Ballhause schrieb:
> thomas0906 schrieb:
>> Weil mein PC nur einen USB Anschluß und keinen MIDI IN hat.
>
> Deswegen kramt man aber nicht an der USB-Seite sondern verhackstückt das
> vor dem USB auf der MIDI-Seite, also vor dem MIDI auf USB-Konverter.

Was für ein Konverter? Ich denke nicht, daß der Synthesizer so einen 
eingebaut hat, sondern vielmehr, daß der im Gerät enthaltene µC direkt 
das USB-Midi implementiert.

von Knut B. (Firma: TravelRec.) (travelrec) Benutzerseite


Lesenswert?

Zu meiner Zeit hatten alle Synths eine native MIDI-Schnittstelle. Am 
Computer kommt daher ein MIDI-zu-USB-Konverter zum Einsatz. Will man 
MIDI-Daten beeinflussen, so macht man das eben auf der MIDI-Ebene, nicht 
auf der USB-Ebene.

Sinnigerweise hat der TYROS außer USB-Host und USB-Device auch einen 
MIDI-Port, habe gerade mal in´s Datenblatt geguckt. Was natürlich nichts 
am grundsätzlichen Problem ändert.

von Rolf S. (audiorolf)


Lesenswert?

der Tyros war ohnehin eine Art Misgeburt in der Synthesizerszene, selbst 
für einen Japaner. Das Senden von MTc ist aber für das 
Echtzeitsynchronisieren das richtige. Das Grundproblem von MIDI ist eben 
die geringe Übertragungsgeschwindigkeit, die es im Grunde fast unmöglich 
macht mehr, als 1 oder 2 Geräte in Echtzeit mitzusteuern und dies ben 
auch nur mit wenigen Noten. Habe unlängst eine Abhandlung daz gelesen.

Verwunderlich ist, dass die MIDI Erfinder im letzten Jahr auch noch 
einen Grammy bekommen haben :-)

von ich (Gast)


Lesenswert?

Nach immerhin 3(!) Jahren läßt du hier einen Kommentar ab, der von 
Nicht-Wissen nur so strotzt.

Rolf Sassinger schrieb:
> der Tyros war ohnehin eine Art Misgeburt in der Synthesizerszene,
> selbst für einen Japaner.
Daß der Tyros noch nie ein Synthesizer war oder ist, das ist dir 
bestimmt noch nicht aufgefallen, oder? Ein Entertainer-Keyboard ist was 
völlig anderes als ein Synthesizer. Dir sind die schwarzen und weißen 
Tasten aufgefallen? Die sind kein Kriterium für einen Synthi...
> Das Senden von MTc ist aber für das
> Echtzeitsynchronisieren das richtige. Das Grundproblem von MIDI ist eben
> die geringe Übertragungsgeschwindigkeit, die es im Grunde fast unmöglich
> macht mehr, als 1 oder 2 Geräte in Echtzeit mitzusteuern und dies ben
> auch nur mit wenigen Noten. Habe unlängst eine Abhandlung daz gelesen.
Soso, du hast was dazu gelesen. Dann weißt du ja sicher auch, daß MIDI 
kein Netzwerk ist, sondern eine Punkt-zu-Punkt-Verbindung. Die meisten 
Geräte haben auch einen MIDI-Tru-Ausgang, an dem man ein weiteres Gerät 
anschließen kann. Zu allem Überfluß gibt es auch noch Interfaces, die 
auch MTS, SMPTE und alles mögliche beherrschen. Sie können auch einen 
MID-in auf mehrere MIDI-OUT erweitern und vieles mehr. Außerdem stellt 
man bei jedem beteiligten Gerät eine MIDI-Konfiguration ein, damit nicht 
jedes Gerät alles sendet und alles empfängt. Zum Beispiel braucht ein 
DMX-Controller keine Infos über die Anschlagdynamik eines Keyboards usw.
Und was die Geschwindigkeit betrifft, man schaltet keine 4 oder 5 Geräte 
in Reihe, dann gibt's logischerweise Latenzen, die eine Verzögerung 
hervorrufen können. Aber wenn man ein paar wenige Grundsätze beachtet, 
kann man eine gesamte Bühnenausrüstung incl. Licht, Effekte usw. damit 
steuern.
>
> Verwunderlich ist, dass die MIDI Erfinder im letzten Jahr auch noch
> einen Grammy bekommen haben :-)
Vielleicht liegt das daran, daß es bis zum heutigen Tage noch immer der 
Standard für die Verbindung von Musikinstrumenten und anderer 
Bühnentechnik ist. MIDI wurde inzwischen bedeutend weiterentwickelt, ist 
also nicht auf dem damaligen Stand stehengeblieben. Und bei allen 
Erweiterungen ist es immer noch abwärtskompatibel zum GM-Standard.

Also eh du so herablassende Kommentare ablässt, mache dich erstmal mit 
der Materie vertraut.

P.S.: Eine Audio-Platine braucht übrigens keine 6 Lagen ;-)
Beitrag "audiotaugliche Platinen bauen - welches Programm?"

von Rolf Magnus (Gast)


Lesenswert?

Rolf Sassinger schrieb:
> Verwunderlich ist, dass die MIDI Erfinder im letzten Jahr auch noch
> einen Grammy bekommen haben :-)

Man muß halt bedenken, daß das Protokoll inzwischen über 30 Jahre alt 
ist. Damals war das Stand der Technik. Und man muß es erstmal schaffen, 
ein digitales Übertragungsprotokoll zu erfinden, das so lange der 
Standard in seinem Umfeld ist.

von tsag (Gast)


Lesenswert?

IP wird wohl an die 50 Jahre kommen und
DMX hat mindestens 25 Jahre hinter sich

von Karl H. (kbuchegg)


Lesenswert?

Rolf Magnus schrieb:
> Rolf Sassinger schrieb:
>> Verwunderlich ist, dass die MIDI Erfinder im letzten Jahr auch noch
>> einen Grammy bekommen haben :-)
>
> Man muß halt bedenken, daß das Protokoll inzwischen über 30 Jahre alt
> ist. Damals war das Stand der Technik. Und man muß es erstmal schaffen,
> ein digitales Übertragungsprotokoll zu erfinden, das so lange _der_
> Standard in seinem Umfeld ist.

Vor allen Dingen auch unter dem Gesichtspunkt, dass es vor MIDI nichts 
gab.

von J. S. (engineer) Benutzerseite


Lesenswert?

Rolf M. schrieb:
> Rolf S. schrieb:
>> Verwunderlich ist, dass die MIDI Erfinder im letzten Jahr auch noch
>> einen Grammy bekommen haben :-)
>
> Man muß halt bedenken, daß das Protokoll inzwischen über 30 Jahre alt
> ist. Damals war das Stand der Technik. Und man muß es erstmal schaffen,
> ein digitales Übertragungsprotokoll zu erfinden, das so lange _der_
> Standard in seinem Umfeld ist.

Ob man das so sehen soll :-)

Also ehrlich gesagt, mutet die Preisvergabe für mich schon ein wenig 
bizarr an. Das Ganze ist in etwa so, als würde man seinerzeit USB2.0 
(und damit später auch 3.0) nicht eingeführt haben und in einigen Jahren 
auch das USB 4.0 mit geschätzt 20GBit aussen vor lassen, um dann in 15 
Jahren dem Erfinder des USB-Protokolls einen Preis dafür zu geben, dass 
sein Protokoll 30 Jahre lang bestand hat. Nun ist die Einführung des 
MIDI-Protokolls als solches sicher eine erwähnenswerte Geschichte, 
unbestritten, allerdings ist es eine Tatsache, dass besonders die Firma 
Roland sich standhaft geweigert hat, das Protokoll mal musikgerecht 
aufzubohren und dem technischen Standard anzupassen. Es gab - nicht 
zuletzt auch von meiner Seite - zahllose Vorschläge, das bestehende 
Protokoll auszubauen und vor allem zu beschleunigen!

jemand namens "ich" schrieb
>Mehrfach erweitert
Was die Protokollinhalte angeht ja, aber es geht vor allem um das Tempo 
und die grundsätzliche Tauglichkeit. Ich kann mich Ende der 90er, als 
die elektronische Musik so richtig boomte, an zahllose Diskussionen im 
Internet errinnern, die das Thema MIDI-Jitter und die limitierte 
Bandbreite zum Inhalt hatte. Christoph Kemper von Access Music hat das 
mal gut im alten Access-Forum beschrieben, welche negativen Auswirkungen 
der Jitter hat, wenn man mehre Stimmen benutzt und das auch 
unkorrigierbar ist. Falls es jemanden interessiert, habe ich hier eine 
Seite mit einer genaueren Darstellung des Problems:

http://www.96khz.org/oldpages/limitsofmidi.htm

Die Konsequenz dieser Betrachtung ist nämlich die, dass einige 
Musikproduzenten jahrzehntelang gar kein MIDI verwendeten und wenn, 
dann nur einspurig produzierten, um dann das resultierende Audio zu 
implementieren und zu schneiden. Würde man keine derart geringe 
Bandbreite haben, wäre das alles gar kein Thema. Seit USB2.0 ist der 
Jitter - zumindest was die primäre Latenz angeht - nämlich so ziemlich 
Wurscht, allerdings gibt es da wieder andere Probleme und viele Geräte 
haben nach wie vor nur die langsame MIDI-Schnittstelle mit den 30k, was 
definitiv nicht sein müsste, wenn man kontinuierlich weitgegangen wäre.

Ich hatte damals wie gesagt selbst einiges unternommen, um das Thema zu 
puschen. Schon alleine die Verwendung das RS232-Protokolls mit 
wenigstens 115kBaud hätte einiges an Entspannung gebracht. Des Weiteren 
hätten sich eine symmetrische Verkabelung angeboten (Drähte waren 
vorhanden!) um die Distanzen zu überwinden.

Aus technischer Sicht war das Beschränken des MIDI-Protokolls auf 
einseitige unsymmetrische Verkabelung sehr kurz gedacht, denn auch mit 
der Technik von damals wäre schon erheblich mehr drin gewesen, Beispiel 
hier:
http://www.96khz.org/htm/midicontroller16.htm

Das Ding ist zwar noch nicht ganz so alt, ging technisch aber auch vor 
30 Jahren schon :-)

Man hätte auch den Weitblick haben können, dass einer mal mehr, als nur 
1-2 Geräte inline und damit 10 Tönchen parallel übertragen können 
möchte. Schon ein Jean Michel Jarre hatte Anfang der 80er wenigstens 5 
Synths gleichzeitig am Start!


Wie auch immer, 1982 und mangelnder Weitblick in die Zukunft ist eine 
Sache - technischer Forschritt ein anderer!

Die Busse im Computer hat man im Laufe der Zeit auch angepasst und 
selbst im Audiobereich ging es mit der Auflösung der Bits und der 
Samplerraten in die Höhe. Unverständlicherweise ist da bei MIDI nichts 
passiert. Wenigstens ein update hätte das lahme MIDI der 80er mal 
erfahren können, insbesondere hätte man die Bandbreite den Möglichkeiten 
des logischen Protokolls angleichen müssen. Theoretisch lässt das 
Protokoll ein hohes Mass an Flexibilität und Stimmkontrolle zu, die aber 
praktisch kaum zu nutzen ist.

Ich zitiere mich mal selber:

Sobald man mehr als ein paar Noten spielen und per Controller modulieren 
will (und das war im Gegensatz zu den Synthesizern der 80er) schon Mitte 
der 90er der Standard, wird es eng auf dem MIDI-Bus, da schon das 
Übertragen einer einzelnen Note bis zu 1ms dauert und das Anschlagen 
eines Akkords zusammen mit den notwendigen Controllern für Ausdruck, 
Tonhöhenmodulation und sonstiges bis zu 30 Nachrichten erfordert, was 
aus musikalischer Sicht zu vollkommen unakzeptable, dealy führt. 
Zulässig sind unter der üblichen Klangverzögerung eines Lautsprechers 
mal gerade 3ms/Meter, die der Schall benötigt, wesentlich mehr, als 
30ms-50ms Verzögerung darf man dem Gehör nicht zumuten, weil es sonst 
sehr schnell in Richtung Kirchenorgel geht. Sollen akzentuierte Töne 
gleichzeitig erklingen, ist die Echoschwelle des Gehörs massgeblich, die 
bei unter 20ms liegt. Von Überlagerten Stimmen, die unter 2ms koheränt 
sein müssen, mag ich gar nicht reden.

Zusätzliche Geräte als Slave haben die meisten daher nur als 
Flächensounds oder kontrollierte Echos ins Spiel gebracht, indem man von 
vorherein einen 2. Klang mit leichter Verzögerung hinzumischen lässt - 
je nach dem mit einem gewissen akzeptierten Zufallsdelay.

Wie gesagt hatte ich einiges dazu unternommen, in Formen geworben und 
auch Firmen angeschrieben - darunter auch Roland zu diesem Thema 
angefragt, zuletzt anlässlich des Erwerbs meiner VA-76 im Jahre 2001. 
Leider sind Musikentwickler (oder sind es die Marketingleute) für 
Vorschläge von angeblichen "Laien" aber offenbar wenig empfänglich oder 
es gibt andere Gründe, da nicht weiterzugehen. Leider gab es auch in der 
Community wenig Resonanz und wenn, dann sogar negativ. Meine Vorschläge 
(neben den MIDI-Themen auch HW-Funktionsthemen rund um die Roland) 
wurden da als Arroganz ausgelegt, dabei sprechen die Zahlen für sich:

Ich zitiere mich nochmals:

Es geht nämlich neben der Latenz, die man unter gewissen Umständen noch 
akteptieren kann vor allem um die Bandbreite und die Zahl der 
übertragbaren Noten sowie die praktisch gleichzeitig übertragbaren 
Informationen. Dies erfordert einen gewisse minimale Peak-Bandbreite und 
die ist beim MIDI nach Stand 82 einfach nicht gegeben. Wenn man also 
nicht produziert, also mit TIMECODES arbeiten kann und MIDI-Daten 
sozusagen auf Halde legen darf, um sie im Erzeuger in Quasiechtzeit 
abarbeiten lassen zu können, sondern einfach live spielen will, ist es 
sehr schnell Essig mit der Echtzeit. Unverständlicherweise sind da 
selbst bekannte Grössen in der Branche nicht durchweg in der Lage 
gewesen, diesen Sachverhalt zu durchblicken, wie mir aus Diskussionen 
auf der Musikmesse erinnerlich ist.

Das eklatanteste Beispiel ist das Problem mit dem Klavierspieler: Nach 
meinen Untersuchungen mit professionellen Pianisten, die ich aufgenommen 
habe, muss man die Bewegung der Finger und damit den Anschlag der Tasten 
mit wenigstens 10kHz abtasten und gut auflösen, um die Präzision deren 
Spiels korrekt wiederzugeben und nicht messabr zu verzerren. Für den 
normalen Pianisten reichen etwa 1kHz für eine nichthörbare VErzeeung, 
was aber mindestens 1 Controller je ms erfordert. Damit wäre der 
Standard-MIDI Bus schon durch eine einzelne Taste doppelt vollgeknallt. 
Da darf es einen dann nicht wundern, warum sich selbst die besten 
Hammerschlag-Mechniken bei guten Pianisten nicht durchsetzen konnten, um 
MIDI-Synthesizer oder Pianomodule zu steuern. Der MIDI-Flschenhals 
unterdrückte da jegliche Entwicklung! Ich hätte erwartet, dass sich 
wenigstens Firmen wie Döpfer oder Fatar z.B. Gedanken machen, wie man da 
weiterkommen könnte, zumal Lösungen auf der Hand lagen und publiziert 
waren.

Mangels Reaktion habe ich in letzter Konsequenz für meine Sachen dann 
mal flux ein neues MIDI-Protokoll definiert und umgesetzt. Die 
Übertragung war unter Nutzung des S/PDIF-Protokolls gedacht, in das man 
sowohl das traditionelle 3 Byte MIDI mit 24 Bit, als auch das von mir 
vorgeschlagene 5 Byte MIDI hätte implementieren können, bei gesteigerter 
Auflösung und dramatisch geringerer Latenz, da S/PDIF physikalisch 
rund 100mal schneller ist.

http://www.96khz.org/files/2001/MIDI-enhanced-protocol.gif

Auf der Musikmesse 2001 hatte ich mal mit einigen Herstellern gesprochen 
und das angeregt. Es bestand vordergründiges Interesse. Ich habe dann 
auch Material versendet, passiert ist seither nichts.

Traurig, traurig, traurig würde Theo Lingen gesagt haben.

Von daher Gratulation für MIDI ja, aber peinlich, dass sich zu lange 
nichts getan hat. Die später USB MIDI spec und die Totgeburt MIDI over 
Ethernet sprechen für sich.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Man muss MIDI zugute halten, das es Ende der 70er konzipiert wurde, als 
ein 6850 UART Baustein mit Quarz und einigen festen Baudraten der 
Standard war, und ein Atari mit 68000er Prozessor noch in weiter Ferne. 
Immerhin haben sie die galvanische Trennung bedacht und auch eine 
symmetrische Übertragung der Signale (die beiden Leitungen führen ja die 
LED Signale hin und zurück).
Und Musiker lieben nun mal ihre alten Instrumente und wollen sie auch in 
neue Anlagentechnik integrieren, dewegen muss ein neuer Standard immer 
abwärtskompatibel bleiben (mit Autobaud und schnellen Kopplern ja nicht 
wirklich ein schwieriges Problem)

Allerdings wäre ein DMX oder SMPTE-Timecode Derivat sicher 
zukunftsträchtiger gewesen, anständige Stecker, hohe Baudraten und 
bereits etabliert. Allerdings hat sich vermutlich aus Kostengründen so 
etwas nicht durchsetzen lassen, mit dicken 5-pol XLRs oder BNC, 
schnellen Optokopplern usw.

Karl Heinz schrieb:
> Vor allen Dingen auch unter dem Gesichtspunkt, dass es vor MIDI nichts
> gab.

Doch, es gab da etwas, das ich staunend im Manual meines E-MU 
Drumulators las, der von 1979 ist. Sie hatten ein 1-Byte-pro-Sound 9600 
Baud Protokoll mit an die Save/Restore Buchsen des Kassettenrecorder 
Interfaces(!) gelegt, das high Nibble war die Lautstärke, das low Nibble 
die Soundnummer - im Manual steht drin, das sie das deswegen machten, 
weil da am Horizont ein serielles Protokoll in Sicht sei. Habe dann vor 
etwa 20 Jahren mit einem 8052 ein MIDI->E-MU Interface eingebaut.
Als Standard kann man das aber wirklich nicht bezeichnen - MIDI hat 
sicher zum Musikboom der 80er beigetragen.

von Ex-perte (Gast)


Lesenswert?

Matthias Sch. schrieb:
> Man muss MIDI zugute halten, das es Ende der 70er konzipiert wurde, als
> ein 6850 UART Baustein mit Quarz und einigen festen Baudraten der
> Standard war, und ein Atari mit 68000er Prozessor noch in weiter Ferne.
Für die Zeit der 70er, als die Synthesizer gerade erfunden wurden, war 
MIDI schon sehr fortschrittlich finde ich. Da gab es wirklich nur einen 
Sound, den man steuern musste. Die ersten Synthesizer hatten gerade 
10-20 Parameter. Später hätte man sich schon eine Fortentwicklung 
gewünscht.

> Doch, es gab da etwas, das ich staunend im Manual meines E-MU
> Drumulators las, der von 1979 ist. Sie hatten ein
> 1-Byte-pro-Sound 9600 Baud Protokoll
In der Zeit überträgt MIDI schon 3 Bytes, wegen der erhöhten Baudrate.

Wenn das so weitgegangen wäre, hätte man einfach entlang des seriellen 
Protokolls die Geräte hochrüsten können. Jenachdem, was ein PC kann, 
wird es eben schneller. Die industriellen Geräte erhielten in späten 
80ern und 90ern auch serielle Interfaces. Ich kenne es von den optischen 
Geräten zur Vermessung. Die hatten am Anfang 9600 Baud und liefen dann 
irgendwann mal mit 230k - bis USB 1.0 kam.

von Ex-perte (Gast)


Lesenswert?

Jürgen Schuhmacher schrieb:
> Ich kann mich ... an zahllose Diskussionen im Internet errinnern
> die das Thema MIDI-Jitter und die limitierte Bandbreite zum Inhalt
> hatte. Christoph Kemper von Access Music hat das mal gut beschrieben
So habe ich das noch nie gesehen, aber da ist schon was dran. Je 
schneller die Übertragung, desto echtzeitfähiger werden die Geräte. In 
einem Punkt muss ich aber widersprechen:

Viele Geräte haben schon früh ein sogenanntes "to host" Interface 
bekommen, mit dem meines Wissens eine höhere Bandbreite zu erzielen war.

Ausserdem wurde schon 1999 seitens Yamaha ein Music LAN definiert, das 
auf firewire basiert und das Problem gelöst hätte, wenn mehr 
Gerätehersteller darauf angesprochen wären.

Wegen der timcode-Wandlung: MOTU hat da viele Interfaces, die das 
können.

von J. S. (engineer) Benutzerseite


Lesenswert?

Ex-perte schrieb:
> Viele Geräte haben schon früh ein sogenanntes "to host" Interface
> bekommen, mit dem meines Wissens eine höhere Bandbreite zu erzielen war.
Schon richtig, nur gibt es da 2 Probleme: Einerseits sind die fast immer 
herstellerspezifisch (oft genug sogar gerätespezisch) und die sind für 
den Einsatz mit einem PC gedacht, brauchten oft noch Spezialsoftware und 
Treiber. Das sind nicht die besten Voraussetzungen für eine allgemeine 
Erweiterung. Dass sich sowas nicht durchsetzt, ist logisch. Das 
Aufkommen dieser Schnittstellen zeigte aber schon irgendwo die 
Notwendigkeit einer Verbesserung, meine ich.

> Ausserdem wurde schon 1999 seitens Yamaha ein Music LAN definiert, das
> auf firewire basiert und das Problem gelöst hätte, wenn mehr
> Gerätehersteller darauf angesprochen wären.
Firewire gab es sogar schon fast 10 Jahre früher, nur hätte man dazu 
neue Converter dazwischenhängen,- sowie Computer und Musikgeräte mit 
Chips versorgen müssen. Extrageräte stellt sich aber so schnell keiner 
hin und wenn dann nur die Studios und Computer mit Extrakarten 
nachzurüsten, das machen auch nur die, die richtig investieren können. 
Für den breiten Markt ist das nicht denkbar.

Ein Umstieg auf eine neue physikalische Schnittstelle (und darum geht es 
ja) gelingt nur, wenn die Chips billig genug sind und das war damals nur 
bei den S/PDIF-Transceivern der Fall. Diese sind zu Hundertausenden in 
den CD-Playern und guten Audio-Amps enthalten gewesen und hätten sich 
leicht auch in Musikgeräte integrieren lassen. Viele Geräte (auch 
Synthesizer) hatten schon früh Audioeingänge (zunächst analog und später 
digital) von daher wäre die Migration aus meiner Sicht gewesen:

Mitte 1980er Umstieg auf 115k oder 230k seriell unter Nutzung der 
derzeigen physikalischen MIDI-Schnittstelle. Sobald man ein schnelleres 
Protokoll hat, kann man es auch verbessern. Man codiert einfach in die 
SYSEX einen StandardCode der das Übertragen von 5 Byte oder 6 Byte MIDI 
definiert. alte Geräte, die das nicht kapieren empfangen halt nur das 
alte Protokoll. Da muss man nur aufpassen, dass man denen nichts 
Erweitertes sendet, fertig.

Mitte 1990er: Nutzung des analogen Audiopfades (einer zweiten 
Audiokarte) als MIDI. Mit dem Tempo der damaligen analogen 
Audiointerfaces (15kHz@44,1) konnte man mit genügender Sicherheit Güte 6 
bits übertragen, was ebenfalls 230k ermöglicht hätte. Die Geräte, die 
einen Audio-eingang haben, hätten das schnelle Protokoll ohne 
zusätzlichen Eingang empfangen können.

Mitte 2000er: Nutzung der S/PDIF Schnittstelle. Mit einem digitalen 
S/PDIF receiver liessen sich damit wenigstens 1MBit realisieren. Die 
Studios hatten allesamt 48kHz S/PDIF und AES/EBU Verkabelung, sodass 
sich dieses Investment für die Firmen gelohnt hatte. Hardwareseitig 
drückt das Audio-MIDI-Program (Cubase, Cakewalk und Konsorten) den 
Datenstrom halt als digitales Audio raus, statt übers MIDI-IF. Fertig 
ist die Laube. Sobald das integriert war, wäre jeder sofort auf USB 1.0 
gegangen und nicht erst mit 10 Jahren Verzägerung. Die Masterkeyboards 
hätten statt dem S/PDIF Sender einfach noch einen USB Transmitter 
bekommen und die PCs diesen schon gehabt.

Wir wären heute 20 Jahre weiter und hätten nicht die Probleme des TE.

> Wegen der timcode-Wandlung: MOTU hat da viele Interfaces, die das
> können.
Die aber neue Latenz aufwerfen weil erstmal fleissig Daten gepuffert und 
sortiert werden müssen, um zu entscheiden, welchem Synth man welche 
Summe zuspielt. Das normale Setup, einem Recorder den MIX einer 
Klangquelle und dem Livestream eines Mastekeyboards zuzuspielen ging wie 
oben angedeutet nur mit Audio, nicht aber mit MIDI! So ergab sich die 
groteske Sitution, dass man schon vor 15 Jahren mit Digtalmischpulten 
wie dem TM-D1000 die Mischung aus Cubase-Audio, Synthesizer Audio mit 
dem neuen Track eines Keyboards mischen und verzügerungsfei aufzeichnen 
konnte, die Primärdaten des Cubase-MIDI, des Cakewalk-MIDIs, das den 
Synthie steuerte sowie die MIDI Daten aus dem Masterkeybaord eben 
nicht obwohl die vom Informationsgehalt viel weniger Raum einnehmen. 
Aufzeichnen ging immer nur eine einzige Spur oder man musst es im 
Nachhinein am PC sortieren.

von Rolf S. (audiorolf)


Lesenswert?

ich schrieb:
> Nach immerhin 3(!) Jahren läßt du hier einen Kommentar ab
Das Thema ist eben nicht beendet.

Ich möchte hiermit weder das Thema ad absurdum führen, noch mich 
rechthaberisch zeigen, aber wenn ich so einen verbal aggressiven Ton 
lese, muss ich schon auch antworten:

ich schrieb:
> Daß der Tyros noch nie ein Synthesizer war oder ist, das ist dir
> bestimmt noch nicht aufgefallen, oder? Ein Entertainer-Keyboard ist was
> völlig anderes als ein Synthesizer.
ich bin weder kein Yamaha-Fan noch Verteidiger der Tyros-Serie, aber wir 
hatten einen Keyboarder in der Band, der einen solchen hat(te) und 
denke, dass ich mir über die klanglichen Möglickeiten ein Urteil 
erlauben kann. Insgesamt halte ich von dem Gerät nicht übermäßig viel, 
objektiv muss den Entwicklern aber zugstanden werden, dass die 
Manigfaltigkeit die Wertung "Klangsynthesegerät" schon auch 
rechtfertigt. Die Stimmen sind zwar nicht ausdrückliche in einer 
Synthesizertopologie realisiert aber in Hüllkurven, Klang und Filterung 
wie ein solcher bedien- und manipulierbar und dieses in einem Ausmaß, 
was frühere traditionelle Synthesizer der 2. und 3. Generation in den 
Schatten stellt.

> Dir sind die schwarzen und weißen Tasten aufgefallen?
Dir ist der Vocoder augefallen? Du weist, wie sowas technisch arbeitet? 
Unbeschadet der Frage, wie sehr die eine oder andere workstation eine 
Synthesizerfunktion integriert hat und sich darum "so nennen darf", 
bleibt das Problem beständig, weil MIDI-Aufkommen auch bei Keyboards ein 
Problem ist.

> Dann weißt du ja sicher auch, daß MIDI kein Netzwerk ist, sondern eine
> Punkt-zu-Punkt-Verbindung.
Ich wüsste nicht, wo ich etwas derartiges behauptet hätte und ebenso 
nicht, wie dieses Argument meine Kritik an der fehlenden 
TimeCodefähigkeit infrage stellen könnte, weil das eine mit dem anderen 
nicht das Geringste zu tun hat. Letzterdings hängt die Fähigkeit in 
Echtzeit zu spielen, nicht nur an der Implementierung einer solchen 
Funktion sondern eben auch an der Verarbeitungsgeschwindigkeit. Daher 
sind Deine Einwände:

> Die meisten Geräte haben auch einen MIDI-Tru-Ausgang
> gibt es auch noch Interfaces, die auch MTS, SMPTE und alles mögliche beherrschen

sachlich richtig, aber logisch kein Gegenargument, denn die Geräte lösen 
das Latenzproblem nicht sondern sie verschärfen es sogar noch! Besonders 
das nicht selten soft ausgeführte MIDI-Thru (zwecks Filterung) laboriert 
an der geringen Geschwindigkeit. Es ist dann letztlich vollkommen egal, 
ob man mit Clock oder TimeCode arbeitet, weil einer auch mit TimeCode 
nur eine begrenzte Zahl an Daten herüberbekommt. Daß die meisten 
MIDI-Verteiler das parallel können, hilft nur dem Computer, wenn er über 
ein entsprechendes Inferface verdrahtet ist und schnell sendet. Dann 
kann einer Stimmen parallel schalten.

> Also eh du so herablassende Kommentare ablässt, mache dich erstmal mit
> der Materie vertraut.
Ich habe mich nur der Technik gegenüber kritisch geäussert, im Gegensatz 
zu Dir.

Zu Deinem hier zum Thema absolut unpassenden Kommentar was die 
Notwendigkeit mehrlagiger Plainen anbelangt, sei Dir angeraten, mal ein 
hochwertiges Interface wie die Rosetta aufzuschrauben und reinzusehen, 
was dort verbaut ist und wie. Bei dem von Dir sicherlich verwendeten 
Thomann/Behringer-Zeug dürfte das natürlich überwiegend einlagig gehen.

von ich (Gast)


Lesenswert?

Hallo Rolf,

ich wollte dich nicht als Person angreifen. Bitte entschuldige meine 
agressive Ausdrucksweise. Ich hatte einfach einen schlechten Tag, alles 
ging schief, ich war eh schon stinkesauer und da bist du mir "vor die 
Flinte gelaufen". Da hab ich mir meinen Frust von der Seele geschrieben. 
Tut mir im Nachhinein leid, weil ich eigentlich ein ziemlich ruhiger und 
umgänglicher Mensch bin.
Übrigens war ich kurz davor, einen Tyros5 zu kaufen. War auch auf 
einigen Präsentationen und habe mich ziemlich begeistern lassen. Dann 
kam die Auslieferung und in einigen Foren machten sich die Mängel und 
Unzulänglichkeiten des neuen Gerätes breit. Und da ich lieber etwas 
informierter bin und nicht so spontan eine Menge Geld ausgebe, habe ich 
mich noch etwas umgeschaut, was es da noch so alles gibt. Und ich bin 
bei Korg hängengeblieben, habe mir dann ein PA3X zugelegt. Und was soll 
ich sagen, alles, was beim T5 fehlte oder bemängelt wurde, habe ich beim 
PA3X realisiert gesehen. Volltreffer! Und nun bin ich seit etlicher Zeit 
am Lernen und Ergründen der Untiefen dieses Keyboards.

Also nochmal, ich bitte dich um Entschuldigung. Meine Äußerungen waren 
nicht gegen dich gerichtet, auch wenn es sich so liest. Ich habe einfach 
"Dampf abgelassen". Ich gelobe Besserung!

Ich wünsch dir ein schönes Wochenende und hoffe, daß du meine 
Entschuldigung annimmst.

von Meister E. (edson)


Lesenswert?

Jürgen Schuhmacher schrieb:
> Ich hatte damals wie gesagt selbst einiges unternommen, um das Thema zu
> puschen. Schon alleine die Verwendung das RS232-Protokolls mit
> wenigstens 115kBaud hätte einiges an Entspannung gebracht. Des Weiteren
> hätten sich eine symmetrische Verkabelung angeboten (Drähte waren
> vorhanden!) um die Distanzen zu überwinden.

Da wird es dich sicher überraschen, dass es gar kein RS232-Protokoll 
gibt. RS232 ist eine Schnittstellendefinition, mehr nicht. Und MIDI ist 
8N1, falls du das meintest. Was meinst du mit "Drähte waren vorhanden"? 
Meine MIDI-Kabel haben nur Pin4 und Pin5 verdrahtet, was der MIDI 
Schnittstellendefinition entspricht. Es wundert also kaum, dass damals 
schon keiner auf dich hören wollte.

SCNR ;)

von J. S. (engineer) Benutzerseite


Lesenswert?

Meister Eder schrieb:
> Jürgen Schuhmacher schrieb:
>> Ich hatte damals wie gesagt selbst einiges unternommen, um das Thema zu
>> puschen. Schon alleine die Verwendung das RS232-Protokolls mit
>> wenigstens 115kBaud hätte einiges an Entspannung gebracht.

> Da wird es dich sicher überraschen, dass es gar kein RS232-Protokoll
> gibt. RS232 ist eine Schnittstellendefinition, mehr nicht.
Ok, das ist unsauber formuliert, aber wenn ich - was den PC angeht - von 
RS232 spreche, ist den Meistens sicher bewusst, was ich meine. Es geht 
mir dabei darum, dass der PC - genauer die damals erhältlichen Bausteine 
- eine gewisse Bandbreite zulassen, von der an anderer Stelle auch 
eifrig Gebrauch gemacht wurd, nur eben beim MIDI nicht.

> Was meinst du mit "Drähte waren vorhanden"?
Pins waren vorhanden, hätte ich schreiben können. Man kann mit einer 
symmetrischen Verbindung schon unabgeschirmt, als twisted pair erheblich 
mehr erreichen, als 5m mit 30kHz. Es ist auch nicht einzusehen, dass man 
für eine bidirektionale Verbindung mit je zwei Drähten 2 Kabel mit 2 
Leitungungen nutzt, wenn man schon einen Stecker mit 5 Pins hat ;-)

von Rolf S. (audiorolf)


Lesenswert?

ich schrieb:
> Hallo Rolf,
>
> ich wollte dich nicht als Person angreifen. Bitte entschuldige
ok abgehakt

> was es da noch so alles gibt. Und ich bin
> bei Korg hängengeblieben, habe mir dann ein PA3X zugelegt.
Ich verwendete u.a. die PA80. Super Gerät!

von Rolf S. (audiorolf)


Lesenswert?

Ich hätte nochmal eine Frage in die Runde, was das eigentliche Thema 
TimeCode angeht: Gibt es Geräte, die eine höhere Bandbreite an MIDI 
vertragen, als das in der Spezi hinterlegt ist? Draufgekommen bin ich 
durch die "to host" Diskussion. Ganz offensichlicht ist doch, dass 
einige Geräte sehr wohl schneller können.

Was wäre denn, wenn man das "to host" Interface benutzt und einen PC 
dranhängt? Kann man dann ein schnelleres MIDI verwenden?

Ich frage es deshalb weil ich selbst davor stehe einen Synthesizer mit 
MIDI zu bauen und vor der Wahl stehe, wie ich ihn ansteuere. Testeweise 
geht das zunächst über das Hyperterminal, langfristig will ich USB 
nehmen. Es wäre jetzt eine Idee, über eine andere Schnittstelle 
reinzugehen.

von Meister E. (edson)


Lesenswert?

Jürgen Schuhmacher schrieb:
> Ok, das ist unsauber formuliert, aber wenn ich - was den PC angeht - von
> RS232 spreche, ist den Meistens sicher bewusst, was ich meine. Es geht
> mir dabei darum, dass der PC - genauer die damals erhältlichen Bausteine
> - eine gewisse Bandbreite zulassen, von der an anderer Stelle auch
> eifrig Gebrauch gemacht wurd, nur eben beim MIDI nicht.

MIDI kam zu Zeiten auf den Markt, als PC kaum verbreitet waren. Und für 
die 31250Hz braucht man (bei geraden Taktfrequenzen, z.B. 1MHz) keinen 
Baudratenquarz. Deshalb können auch viele PC-UARTs die 31250Hz für MIDI 
gar nicht erzeugen. Smith und Kakehashi hätten also vor 1982 flexibler 
denken müssen als die PC-Branche. Ein wenig viel verlangt, finde ich.

>> Was meinst du mit "Drähte waren vorhanden"?
> Pins waren vorhanden, hätte ich schreiben können. Man kann mit einer
> symmetrischen Verbindung schon unabgeschirmt, als twisted pair erheblich
> mehr erreichen, als 5m mit 30kHz.

MIDI ist eine Stromschleife und störungstoleranter als RS-232 mit seinen 
Spannungspegeln. Ein eingekoppelter Puls müsste schliesslich die LED im 
Optokoppler ganz alleine treiben können, um eine ungewollte Information 
zu erzeugen.

> Es ist auch nicht einzusehen, dass man
> für eine bidirektionale Verbindung mit je zwei Drähten 2 Kabel mit 2
> Leitungungen nutzt, wenn man schon einen Stecker mit 5 Pins hat ;-)

MIDI war nicht primär für bidirektionale Kommunikation gedacht, sondern 
für möglichst viel Flexibilität im Aufbau eines Geräteverbunds, 
kombiniert mit elektrisch sicheren Verbindungen. Wenn ich z.B. die 
Drumsets eines ROM-Players mit Keyboard vom Sequenzer aus ansteuern will 
und gleichzeitig einen Expander über das Keyboard spielen, dann bin ich 
mit getrennten IN/OUT Buchsen besser dran. Für deine kombinierte IN/OUT 
bräuchte ich da extra ein Zwischenstück, wo sonst immer identische Kabel 
verwendet werden können. Wie kann man diese Vorteile alle nicht sehen?

von Meister E. (edson)


Lesenswert?

Rolf Sassinger schrieb:
> Ich hätte nochmal eine Frage in die Runde, was das eigentliche Thema
> TimeCode angeht: Gibt es Geräte, die eine höhere Bandbreite an MIDI
> vertragen, als das in der Spezi hinterlegt ist? Draufgekommen bin ich
> durch die "to host" Diskussion. Ganz offensichlicht ist doch, dass
> einige Geräte sehr wohl schneller können.
>
> Was wäre denn, wenn man das "to host" Interface benutzt und einen PC
> dranhängt? Kann man dann ein schnelleres MIDI verwenden?

Dazu kann ich nichts sagen, da keiner meiner Synthesizer einen Anschluss 
namens "to host" aufweist. Ich würde aber tippen, dass darauf eben kein 
MIDI, sondern ein Hersteller-spezifisches Protokoll abläuft.

> Ich frage es deshalb weil ich selbst davor stehe einen Synthesizer mit
> MIDI zu bauen und vor der Wahl stehe, wie ich ihn ansteuere. Testeweise
> geht das zunächst über das Hyperterminal, langfristig will ich USB
> nehmen. Es wäre jetzt eine Idee, über eine andere Schnittstelle
> reinzugehen.

USB-MIDI kann schneller als 31250Hz. Aber: Die Daten über USB kommen 
in Paketen, während MIDI alle 320us ein Byte sendet. Über USB können 
z.B. 64 Bytes in 1ms übertragen werden, was eine höhere Bandbreite 
darstellt.

Bei einer MIDI-zu-USB Brücke geht dieser Vorteil allerdings gänzlich 
verloren bzw. erhöht sich die Latenz sogar.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Meister Eder schrieb:
> Dazu kann ich nichts sagen, da keiner meiner Synthesizer einen Anschluss
> namens "to host" aufweist. Ich würde aber tippen, dass darauf eben kein
> MIDI, sondern ein Hersteller-spezifisches Protokoll abläuft.

Mein Yamaha TG100 'Tone Generator' (heute würde man Midi Expander sagen) 
hat ein 'to host', und zwar über den für alte Macs typischen 8-pol Mini 
DIN. Allerdings war das kein herstellerspezifisches Protokoll, sondern 
mehr oder weniger nur der für den Mac nötige externe Taktgenerator 
(obwohl die SCC ein Monster von seriellem I/O war, konnte man die 
31,25kBaud nicht intern herstellen) und ein im TG100 integriertes MIDI 
Interface mit den Optokopplern.
Nebenbei beherrschte der TG100 auch den völlig ungewöhnlichen 'PC2 Mode' 
mit 38,4 kBaud.
http://usa.yamaha.com/product_archive/music-production/tg100/?mode=model

Yamaha hatte damals zwar immer eine eigene Vorstellung von MIDI 
Implementierungen, aber hat auch einige innovative Sachen probiert.

von Meister E. (edson)


Lesenswert?

Matthias Sch. schrieb:
> ...

Danke für die Info.

von Rolf S. (audiorolf)


Lesenswert?

Meister Eder schrieb:
> Dazu kann ich nichts sagen, da keiner meiner Synthesizer einen Anschluss
> namens "to host" aufweist.
Welche verwendest Du?

> USB-MIDI kann schneller als 31250Hz. Aber: Die Daten über USB kommen
> in Paketen, während MIDI alle 320us ein Byte sendet. Über USB können
> z.B. 64 Bytes in 1ms übertragen werden, was eine höhere Bandbreite
> darstellt.
Daher möchte ich für meinen Synthi eine USB-Klaviatur einsetzen und zwar 
direkt, um genau dieses Problem zu umgehen:

> Bei einer MIDI-zu-USB Brücke geht dieser Vorteil allerdings gänzlich
> verloren bzw. erhöht sich die Latenz sogar.
richtig, MIDI über USB unter Benutzung der vorhandenen MIDI-Buchsen ist 
Murks. Ich hätte halt nur gerne schon was am Synthi getestet, wenn es 
geht und das mit höherer Bandbreite, als MIDI bietet. Daher die Idee mit 
dem host Interface.

Ich hätte in dem von mir ins Auge gefassten System aber auch noch einen 
ARM zur Verfügung, der auch USB machen könnte. Möglicherweise lässt sich 
das dort einfacher realisieren.

Beitrag "Re: USB in VHDL aufbauen"

von J. S. (engineer) Benutzerseite



Lesenswert?

Meister Eder schrieb:

> MIDI kam zu Zeiten auf den Markt, als PC kaum verbreitet waren.
Die PCs sind auch nicht unbedingt der Massstab, den ich jetzt im Auge 
gehabt hätte. Ich sehe da sogar mehr die Heimcomputer und die haben auch 
1982 schon eifrig sound produziert.

> Ein wenig viel verlangt, finde ich.
Meine Forderung war auch nicht primär, alles vorauszusehen. Ich hatte ja 
auch geäussert, dass zum damaligen Zeitpunkt der Stand der Technik 
abgebildet wurde, der zum Betrieb der damaligen Geräte auch tauglich 
war. Meine Kritik ist aber die, dass sich an dem Manko Nummer 1, bis 
heute nichts getan hat. Wenn Du heute einen Synthie käufst, hat er immer 
noch das gleiche lahme MIDI Trio, dass kaum noch einer nutzt, weil schon 
längst probiert wird, es per USB zu umgehen, um eben jene diskutierten 
Proleme zu lösen - mit mehr oder weniger Erfolgt. Wenn Du Dich in der 
Producersezene mal umsiehst, haben viele schon vor Jahren ihr outboard 
euqiment rausgeschmissen und produzieren trotz miesem handlings per 
Softsynth im Rechner, weil sie nur so ihre Tracks musikalisch verwertbar 
prozessieren können und track by track recording vermeiden. Das alles 
ist eine Folge des langsamen MIDIs. Spätestens 10 Jahre nach Einführung 
hätte es ein upgrade gebraucht.


> MIDI ist eine Stromschleife und störungstoleranter als RS-232 mit seinen
> Spannungspegeln. Ein eingekoppelter Puls müsste schliesslich die LED im
> Optokoppler ganz alleine treiben können, um eine ungewollte Information
> zu erzeugen.
Bei Störungen geht es weniger um das Erzeugen von falschen Bits 
überhaupt, denn das ist auch bei RS232 nicht so einfach hinzubekommen, 
sondern um den analogen Jitter. Da reichen auch schon geringe 
Einwirkungen, um Zeitversatz zu produzieren, wenngleich ich Dir Recht 
gebe, dass eine Stromschleife da resistenter ist, da niederohmiger. 
Schau Dir aber mal mein Lösungskonzept mit dem Audiopfad an: Der ist als 
Studiostandard (XLR-Symmetrisch) ebenso resisitent und bringt die 
10fache Bandbreite. Digital S/PDIF ist noch störunanfälliger und bringt 
das 100fache.


> MIDI war nicht primär für bidirektionale Kommunikation gedacht, sondern
> für möglichst viel Flexibilität im Aufbau eines Geräteverbunds,
> kombiniert mit elektrisch sicheren Verbindungen.
So genial elektrisch sicher ist MIDI nicht, siehe ->Panikfunktion und 
wackelnde Kabel. Mit hoher Bandbreite bekommt man die typischen Probleme 
von unsicheren Point-2-Point-Verbindungen auch besser in den Griff. 
Ausserdem zum Thema Verkablungsdimension

> Drumsets eines ROM-Players mit Keyboard vom Sequenzer aus ansteuern will
Gerade ein Sequenzer braucht eine bidirektionale Verbindung.

> Für deine kombinierte IN/OUT bräuchte ich da extra ein Zwischenstück
Nein, weil jedes Gerät eine bidirektionale Verbindung hätte und man 
nicht nur eine einzige Buchse in das Masterkeyboard einbauen wird und in 
den Sequenzer schon garnicht.

> Wie kann man diese Vorteile alle nicht sehen?
Weil Einschränkungen keine Vorteile sind. :-)

Auch beim Ethernet, USB und vielen seriellen Schnittstellenstandards 
arbeitet man aus gutem Grund bidirektional und nutzt möglichst alle 
Aderpaare. Wahrscheinlich hatten sie damals einfach nur ein 3adriges 
Kabel und haben das einfach genommen. :D

Die Pionierarbeit der beiden Herren in Ehren, aber so richtig 
hitverdächtig ist das alles nicht, finde ich. Letztlich war die 
Einführung von MIDI nichts anderes, als eine bereits bekannte Idee, 
nämlich elektronische Geräte seriell zu vernetzen, auf andere 
elektronische Geräte anzuwenden, die das noch nicht hatten. Und 
rausgekommen ist die minimalste aller denkbaren Lösungen. Wenigstens vom 
Tempo her wäre damals erheblich mehr drin gewesen, Im Jahre 1982 hat 
unsereins mit dem VC20 und der Datasette rumgemacht. Die konnte aber 
schon 3-5mal schneller, als MIDI, wenn man das Audioband richtig 
ausnutzt.

Wie gesagt geht es hierbei nicht einfach darum, je schneller, desto 
besser- sondern es gibt musikalische Randbedingungen, die es zu beachten 
gibt. In dem Moment, in dem MIDI als Protokoll steht und klar ist, 
wieviel Information man übertragen muss, um Töne zu modulieren ist unter 
Zuhilfenahme der Randbedingungen der Erkennbarkeit von Jitter die 
minimale Bandbreite definiert.

MIDI, so wie es heute definiert ist, bringt - egal mit welchem Interface 
es betrieben wird und womit es auch immer beschickt wird - einen 
einzigen Ton mit einem Controllerwert in Echtzeit in den Klangerzeuger - 
einen einzigen! Alle weiteren gleichzeitigen Informationen, speziell aus 
Akkorden unterliegen bereits hörbarem Jitter, wenn man die 
wissenschaftlichen Untersuchungen dazu zugrunde legt und die 2ms Grenze 
ansetzt. Nutzt man einen resample-Buffer und erlaubt 20-30ms geht 
elektronische Musik mit einer Hand, einen elektronischen FLügel in 
Echtzeit bekommt man damit nicht unter Kontrolle.

von J. S. (engineer) Benutzerseite


Angehängte Dateien:

Lesenswert?

Matthias Sch. schrieb:
> Nebenbei beherrschte der TG100 auch den völlig ungewöhnlichen 'PC2 Mode'
> mit 38,4 kBaud.
Ja, das ist definitiv der seriellen PC-Schnittstelle geschuldet. 9600x4. 
So hätte man weitermachen können ...

> Yamaha hatte damals zwar immer eine eigene Vorstellung von MIDI
> Implementierungen, aber hat auch einige innovative Sachen probiert.
Das stimmt, XG z.B., siehe -> Yamaha XG-Player. Ein super Softsynthie!

Mir fällt gerade ein: Ich habe mal einen CS1X umgebaut und der arbeitet 
intern irgendwie anders auf seine Klangchips. Jedenfalls scheint da kein 
standardisiertes MIDI drinzustecken - auch vom Timing her nicht. Ich bin 
dem aber nicht weiter nachgegangen und habe meine Sachen einfach 
parallel dazu gehängt und die MIDI-Buchsen dupliziert. Einmal lahmes 
MIDI, einmal high-speed-MIDI.

von Hobbymusiker (Gast)


Lesenswert?

Jürgen Schuhmacher schrieb:
> MIDI, so wie es heute definiert ist, bringt - egal mit welchem Interface
> es betrieben wird und womit es auch immer beschickt wird - einen
> einzigen Ton mit einem Controllerwert in Echtzeit in den Klangerzeuger -
> einen einzigen! Alle weiteren gleichzeitigen Informationen, speziell aus
> Akkorden unterliegen bereits hörbarem Jitter, wenn man die
> wissenschaftlichen Untersuchungen dazu zugrunde legt und die 2ms Grenze
> ansetzt.

Hättest Du dazu gfs eine Quellenangabe? die 2ms scheinen mir doch ein 
wenig arg kurz. Generell finde Ich Deine Überlegungen schon interessant 
aber es ist am Ende nur ein Problem, wenn jemand sehr viele Noten in 
Echtzeit spielen will und MIDI Clock benutzt. Sobald die Daten mit MCT 
gesendet werden, haben sie ja keinen Jitter mehr, dann dürfte das 
Problem doch erledigt sein.

Und wenn es ums Senden großer Datenmengen geht - wie machen das dann die 
Studios? Alles offline?

Beim spielen und Arrangieren möchte man doch den gesamten Tonsatz hören 
und die müssen ja weitestgehend gleichzeitig klingen und durch den 
MIDI-Kanal passen. Das immer erst ins Audio zu verwandeln und es als 
WAVE zu importieren, wäre viel zu umständlich.

von Meister E. (edson)


Lesenswert?

Jürgen Schuhmacher schrieb:
> Meister Eder schrieb:
>
>> MIDI kam zu Zeiten auf den Markt, als PC kaum verbreitet waren.
> Die PCs sind auch nicht unbedingt der Massstab, den ich jetzt im Auge
> gehabt hätte. Ich sehe da sogar mehr die Heimcomputer und die haben auch
> 1982 schon eifrig sound produziert.

Aber völlig unabhängig von MIDI.

> Proleme zu lösen - mit mehr oder weniger Erfolgt. Wenn Du Dich in der
> Producersezene mal umsiehst, haben viele schon vor Jahren ihr outboard
> euqiment rausgeschmissen und produzieren trotz miesem handlings per
> Softsynth im Rechner, weil sie nur so ihre Tracks musikalisch verwertbar
> prozessieren können und track by track recording vermeiden. Das alles
> ist eine Folge des langsamen MIDIs. Spätestens 10 Jahre nach Einführung
> hätte es ein upgrade gebraucht.

War ja klar, dass das Produzenten-Argument gezogen wird. Heisst MIDI 
jetzt Musicians Instruments Digital Interface oder Producers Interface?


> So genial elektrisch sicher ist MIDI nicht, siehe ->Panikfunktion und
> wackelnde Kabel.

DIN Stecker und Buchsen sind heute noch industriestandard, weil sie 
robust sind. Wenn bei dir was wackelt, ist es kaputt.

>> Drumsets eines ROM-Players mit Keyboard vom Sequenzer aus ansteuern will
> Gerade ein Sequenzer braucht eine bidirektionale Verbindung.

Jetzt wirds aber esoterisch. Sequenzer steuert Synthesizer - was soll 
daran bidirektional sein? Bin ja mal gespannt welchen Sonderfall du 
dafür heranziehst.

>> Für deine kombinierte IN/OUT bräuchte ich da extra ein Zwischenstück
> Nein, weil jedes Gerät eine bidirektionale Verbindung hätte und man
> nicht nur eine einzige Buchse in das Masterkeyboard einbauen wird und in
> den Sequenzer schon garnicht.

?

: Bearbeitet durch User
von J. S. (engineer) Benutzerseite


Lesenswert?

Meister Eder schrieb:
> Aber völlig unabhängig von MIDI.
Nicht lange. Ich hatte 1985 meinen C64 "MIDI-fiziert" und ich war 
definitiv nicht der erste, weil ich das IF aus einem Baubuch nachgebaut 
hatte. Der Bedarf war da. Er war sogar so gross, dass die Ataris, die zu 
der Zeit rauskamen, ab Werk ein MIDI-IF drin hatten.

> War ja klar, dass das Produzenten-Argument gezogen wird. Heisst MIDI
> jetzt Musicians Instruments Digital Interface oder Producers Interface?
Es heisst Musical Instruments Digital Interface aber selbst im anderen 
Falle würde ich argumentieren, dass jeder Musiker irgendwo ein Producer 
ist.

> DIN Stecker und Buchsen sind heute noch industriestandard,
Ja, ja, schon gut. Gegenfrage: Warum gibt es heute Steckverbinder für 
500MHz? Antwort: Weil sich die Welt weiterdreht. Nur halt nicht bei 
MIDI.


> Jetzt wirds aber esoterisch. Sequenzer steuert Synthesizer - was soll
> daran bidirektional sein? Bin ja mal gespannt welchen Sonderfall du
> dafür heranziehst.
???? Wie bekommst Du denn die Daten in den Sequenzer? Und wie wieder 
raus? Das sind zwei Wege.


>> Nein, weil jedes Gerät eine bidirektionale Verbindung hätte und man
>> nicht nur eine einzige Buchse in das Masterkeyboard einbauen wird und in
>> den Sequenzer schon garnicht.
Ich meine damit, dass man nicht 1x INPUT und 1x OUTPUT bauen hätte 
müssen, sondern N x  INOUT. Das ist flexibel und lässt sowohl point to 
point als auch Ringverdrahtung zu. Die 5pol DIN Buchsen kommen ja nicht 
von ungefähr. Da laufen in anderen Nutzungsfällen durchaus Signale hin 
und her. Nur halt nicht beim MIDI.

von J. S. (engineer) Benutzerseite


Lesenswert?

Hobbymusiker schrieb:

> Hättest Du dazu gfs eine Quellenangabe? die 2ms scheinen mir doch ein
> wenig arg kurz.
http://mungo.com.au/syncZjitter.html


> Echtzeit spielen will und MIDI Clock benutzt. Sobald die Daten mit MCT
> gesendet werden, haben sie ja keinen Jitter mehr, dann dürfte das
> Problem doch erledigt sein.
Nur bei wenigen Noten, die unter die akzeptierte Latenzgrenze passen. 
Bei 20ms wären es 20 MIDI Nachrichten. Das Bandbreitenlimit bleibt und 
hinzu tritt das der Granularität der MIDI Clock. Auf welche Zeiten 
willst Du samplen und triggern? Die TimeCodes sind nicht beliebig genau 
zu definieren / zu rekonstruieren.

> Und wenn es ums Senden großer Datenmengen geht - wie machen das dann die
> Studios? Alles offline?
Mehrere Geräte parallel und einen MIDI ROuter. Das ist ja der Punkt, 
dass der enge MIDI-Kanal letztlich auch die Komplexität der Endgeräte 
mitbesimmt, weil keiner einen Synthesizer oder Sampler baut, der mehr 
als die realistisch sendbare Stimmenzahl hat, was wiederum Einfluss auch 
die Architektur der Geräte hatte und hat. Mit einem FPGA-System, statt 
einem DSP kannst Du sehr einfach eine gewaltige Zahl an Stimmen 
produzieren und ein halbes Orchester in einem Gerät verstecken. Aber Du 
kannst sie nicht nicht steuern! Nicht von Aussen.

> Beim spielen und Arrangieren möchte man doch den gesamten Tonsatz hören
> und die müssen ja weitestgehend gleichzeitig klingen und durch den
> MIDI-Kanal passen. Das immer erst ins Audio zu verwandeln und es als
> WAVE zu importieren, wäre viel zu umständlich.
Musst du aber letztlich machen. Spätestens, wenn die Bandbreite 
erschöpft ist.

von Meister E. (edson)


Lesenswert?

Jürgen Schuhmacher schrieb:
> Meister Eder schrieb:
>> Jetzt wirds aber esoterisch. Sequenzer steuert Synthesizer - was soll
>> daran bidirektional sein? Bin ja mal gespannt welchen Sonderfall du
>> dafür heranziehst.
> ???? Wie bekommst Du denn die Daten in den Sequenzer? Und wie wieder
> raus? Das sind zwei Wege.

Zwei Wege, ja. Aber nicht zwingend bidirektional. Gedankenexperiment: Du 
hast ein MIDI-Masterkeyboard, einen Sequenzer und ein Rack voller 
Expander. Wo braucht man da eine bidirektionale Verbindung?

>> War ja klar, dass das Produzenten-Argument gezogen wird. Heisst MIDI
>> jetzt Musicians Instruments Digital Interface oder Producers Interface?
> Es heisst Musical Instruments Digital Interface aber selbst im anderen
> Falle würde ich argumentieren, dass jeder Musiker irgendwo ein Producer
> ist.

Haarspalterei

>Ich meine damit, dass man nicht 1x INPUT und 1x OUTPUT bauen hätte
> müssen, sondern N x  INOUT. Das ist flexibel und lässt sowohl point to
> point als auch Ringverdrahtung zu. Die 5pol DIN Buchsen kommen ja nicht
> von ungefähr. Da laufen in anderen Nutzungsfällen durchaus Signale hin
> und her. Nur halt nicht beim MIDI.

Hätte man können, da stimme ich dir ja zu.

von J. S. (engineer) Benutzerseite


Lesenswert?

Meister Eder schrieb:
> Aber nicht zwingend bidirektional. Gedankenexperiment: Du
> hast ein MIDI-Masterkeyboard, einen Sequenzer und ein Rack voller
> Expander. Wo braucht man da eine bidirektionale Verbindung?
Du kennst Dich mit den Möglichkeiten von Expandern aus? Die 
Einstellungen der Geräte sind fast immer rücklesbar und es gibt nicht 
wenige, die selber MIDI generieren, sei es für Arpeggio und Patterns so 
wie die viele Emu Geräte im Beat MODE. Das alles erfordert Rückwege und 
zur Echtzeitnutzung schnelle Rückwege.

von Ehemaliger Waldörfer (Gast)


Lesenswert?

Jürgen S. schrieb:
> Yamaha hatte damals zwar immer eine eigene Vorstellung von MIDI
> Mir fällt gerade ein: Ich habe mal einen CS1X umgebaut und der arbeitet
> intern irgendwie anders auf seine Klangchips.
Soweit man weiß, hat Yamaha eigene Steuercodes verwendet, um von der 
Master-Tastatur auf die MIDI-Einheit zu kommen, die KlangChips sind 
nochmal ein anderes Thema. Die verstehen ja kein MIDI in dem Sinne.

Ich finde es aber sehr interessant, was Du zu dem Thema gemacht hast und 
hätte dazu eine Frage:

> Ich habe meine Sachen einfach
> parallel dazu gehängt und die MIDI-Buchsen dupliziert. Einmal lahmes
> MIDI, einmal high-speed-MIDI.

Wie hast Du die MIDI-Protokolle miteinander verbunden?

An welcher Stelle bringt Dir das schnelle MIDI etwas?
Worin besteht da der Vorteil?

von Rolf S. (audiorolf)


Lesenswert?

Ehemaliger Waldörfer schrieb:
> Soweit man weiß, hat Yamaha eigene Steuercodes verwendet, um von der
> Master-Tastatur auf die MIDI-Einheit zu kommen

Gibt es dazu Genaueres?? Bezieht sich das nur auf die OPL Chip 
Architektur oder allgemein der Geräteinternen Datenfluss? Ich benutze 
eine Yamaha MOXF 6 und versuche gerade, mich da reinzuhängen und ihn zu 
automatisieren. Das MIDI kommt bei mir aus einem eigenen Controller 
System in Software. Ich habe nämlich von Logic aus (Cubase habe ich da 
noch nicht probiert) genau dieselben Probleme wie der TO.

Jürgen Schuhmacher schrieb:
> MIDI, so wie es heute definiert ist, bringt ...
> ... einen einzigen Ton mit einem Controllerwert in Echtzeit in
> den Klangerzeuger - einen einzigen!
Sagen wir einmal "brachte", denn mit MIDI@USB sind es ungleich mehr 
Daten, die in der kritischen MS fließen können.

von J. S. (engineer) Benutzerseite


Lesenswert?

Ich sehe eben erst, dass ich noch eine Antwort schuldig bin:

Ehemaliger Waldörfer schrieb:
> Wie hast Du die MIDI-Protokolle miteinander verbunden?
Im Synthi (in dem Fall) gar nicht; weil ja die Pfade parallel verwendet 
werden und die Audioausgänge verwendet werden. Bei den FPGA-Synths kann 
ich natürlich alle MIDI-Daten in eine Matrix einlesen. In FPGAs kann man 
sehr einfach FiFos bauen, um unkontrolliert ankommende Daten zu 
speichern und dann in einem Rutsch je Kanal mit Maximalfrequenz effektiv 
zu prozessieren.


> An welcher Stelle bringt Dir das schnelle MIDI etwas?
> Worin besteht da der Vorteil?
Wie Ich schrieb: Mehr Kanäle in Echtzeit, mehr Controller, genauere 
Controller. Ich könnte z.B. mit etwa 25000000/64/4 = 97kHz einen 
Rauschgenerator in Echtzeit modulieren und so einen Ton produzieren, 
während man mit MIDI eine Sinuswelle nur im einstelligen Hz-Bereich 
übertragen kann. Das reicht gerade für die typischen Potibewegungen.

Geht einfach mal her und sample mit einem schnellen AD-Wandler ein 
analoges Poti, an dem rythmisch herumgeschraubt wird.  Dann siehst Du 
eindrucksvoll, wie schnell man das abtasten muss, um es sauber genug zu 
übertragen und dass dafür das klassische MIDI nicht schnell genug ist.


Rolf S. schrieb:
> Sagen wir einmal "brachte", denn mit MIDI@USB sind es ungleich mehr
> Daten, die in der kritischen MS fließen können.
Das ist schon richtig, allerdings gibt es zwei Einschränkungen:

Weil sehr lange nicht mehr verfügbar war, haben viele Hersteller nicht 
mehr an Reaktionsfähigkeit in den Produkten. Auch heute sind viele 
elektronische Klangerzeuger nicht wesentlich genauer zu steuern, obwohl 
es prozessortechnisch möglich wäre. Kannst ja mal deinen MOTIV ans 
Cubase hängen und mit Lautstärke On/off zutexten, bis er nicht mehr 
mitkommt:-)

von J. S. (engineer) Benutzerseite


Lesenswert?

Als kleinen Nachtrag und falls es den TE noch interessiert:

Mein neuer MIDI-Sync-Generator in der Pyratone wird das genau das 
können:
"MIDI Clock in MIDI TimeCOde wandeln". Wer sich also dazu durchringt, 
ein Modul zu erwerben, hat seine MIDI-Probleme im Griff. Die Matrix wird 
physisch bis zu 16 Eingänge synchronisieren und unabhängig von einander 
auf den Ausgang mappen. 8 davon sind fast MIDI, gemäß meiner MIDI2000 
Spec - die anderen 8 sind konventionelle Ein-Ausgänge. Abtastung erfolgt 
mit 384kHz. Latenz 4 CCs, also ein 96k-Sample!

von Audimann (Gast)


Lesenswert?

Jürgen S. schrieb:
> Auch heute sind viele
> elektronische Klangerzeuger nicht wesentlich genauer zu steuern, obwohl
> es prozessortechnisch möglich wäre.

Heute kam die Meldung der MIDI.ORG, dass die neue MIDI SPEC 2.0 
verfügbar ist. Kann jeder runterladen.

Damit sollte sich auf dem MIDI Sektor einiges tun.

von OMG (Gast)


Lesenswert?

Audimann schrieb:
> Kann jeder runterladen.

Hilft aber für existierende Hardware gar nix.

Also schnell mal ein neues Musikstudio kaufen.
Zahlt man ja wie üblich aus der Portokasse.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.