Ich stehe nicht mehr weit weg von der Master Arbeit, und ich werde hochwahrscheinlich einen Messplatz aufbauen, der so eine hohe Samplerate benötigt (für die Photonenstatistik). Auf dem Markt gibt es schon welche ADC, die das können. Aber wie realisiere ich eine so schnelle Datenverarbeitung. Seit kurzem lerne ich die FPGA-"Programmierung". Reicht eine FPGA dafür aus? Oder gibt es für diesen Zweck was ganz exotisches? Wenn es eine FPGA sein soll, welche würde für diesen Zweck passen?(Die Kosten werden sowieso von der Uni übernommen;) )
Nimm einfach ein Oszi was die Abtastrate kann, ist einfacher und funktioniert!
sowas zB http://www.newark.com/agilent-technologies/dso9064a/oscilloscope-600mhz-4-channel-10gsps/dp/35R2969
Über die Samplerate und Datenverarbeitung würde ich mir keine Gedanken machen. Die Kunst ist es das Messignal unverfälscht an den ADC zu bekommen.
Nein, ein Oszi hat damit nichts zu tun. Es werden zwei Signale mit den oben erwähnten Abstatsraten abgetastet. Die Zeit zwischen Signal1 und Signal2 (einiger 100 femtosekunden) wird geloggt. Die Messung kann locker über mehrere Tage dauern.
Anton R. schrieb: > einiger 100 femtosekunden Anton R. schrieb: > Die Messung kann locker über mehrere Tage dauern. Du hast da aber eine extrem hohe Winkelgeschwindigkeit deines Heimatplaneten...
Willst du auf ein bestimmtes Signal triggern (also eine Art Komparatorlösung, um anschliessend aufzuzeichnen und später auszuwerten) oder willst du wirklich ein paar Tage lang mit 10Gsps aufzeichen (und den Datenwust später auwerten) oder willst du mehr oder weniger online Daten analysieren? Irgendwie ich bisschen konfus das Ganze, oder? Ich jedenfalls kann mit deinem Vorhaben noch nichts anfangen.
Freilich müssen die Daten "online" ausgewertet werden. Annahme: Bei zwei Signalen, 8bit PCM codiert, beide 10GSamples/sec, kommt man auf eine Datenrate von 20GByte/sec. Eine 1TB Platte wär da mal in etwas weniger ale ner Minute voll. Ganz zu schweigen von der Schreibgeschwindigkeit...
H.joachim Seifert schrieb: > Willst du auf ein bestimmtes Signal triggern (also eine Art > Komparatorlösung, um anschliessend aufzuzeichnen und später auszuwerten) > oder willst du wirklich ein paar Tage lang mit 10Gsps aufzeichen (und > den Datenwust später auwerten) oder willst du mehr oder weniger online > Daten analysieren? Irgendwie ich bisschen konfus das Ganze, oder? > Ich jedenfalls kann mit deinem Vorhaben noch nichts anfangen. Ja, ich habe schon gedacht,dass ich zu wenig Info gegeben habe. Sooo.. Es geht um Korrelationmessung einer Einzelphotonquelle:) Es werden die Zeiten gemessen, die zwischen zwei emittierten Photonen vergehen. Signal_1 startet die Messung, Signal_2 stoppt diese. Die Zeit T, die zwischen Start und Stopp vergeht wird protokolliert. Je mehr Eregnisse werden gemessen, desto mehr Info hat man.Anschließend werden diese Ereignisse graphisch dargestellt. Wird man bei der Zeit T = 0 keine Ereignisse sehen, bedeutet es, dass die Quelle nur einen Photon auf einmal Emittiert, und es ist eifach umöglich, dass Signal_1 und Signal_2 gleichzeitig auftreffen. So, jetz genug Info?=)) Das alles bedeutet, ich werde die Daten von wenigen Studen bis Tagen mit 10 Gsps sammeln, und später auswerten
Joachim минифлоть schrieb: > Freilich müssen die Daten "online" ausgewertet werden. Annahme: Bei zwei > Signalen, 8bit PCM codiert, beide 10GSamples/sec, kommt man auf eine > Datenrate von 20GByte/sec. Eine 1TB Platte wär da mal in etwas weniger > ale ner Minute voll. Ganz zu schweigen von der Schreibgeschwindigkeit... Na, die Tatsache, dass ich mit 10 Gsps abtaste bedeutet nicht, dass ich 10 Gsps speichere:) Wie oben beschrieben, ich speichere nur die zeit T zwischen den Start und Stopp. Und der Startsignal kommt (leider) nur 0.1 bis 100 mal pro Minute:)
Anton R. schrieb: > Das alles bedeutet, ich werde die Daten von wenigen Studen bis Tagen > mit 10 Gsps sammeln, und später auswerten ... nice.... :-) Du musst es umformulieren: Du WÜRDEST GERNE Daten von wenigen Stunden bis Tagen mit 10Gsps sammeln. .. es wird dir aber nicht gelingen! Und nicht, weil ich böse bin, sondern einfach deswegen, weil es in der Form, wie du es vor hast, nicht gelingen kann. Rechne mal: 10Gsps.. selbst, wenn ein Datum nur 1 Bit groß wäre, dann wären das doch immerhin noch stolze 1,2 GByte / Sekunde Das würde ja noch gehen, wenn es sich nur um ein paar wenige Sampels handeln würde. Aber du willst ja Stundenlang aufzeichnen. Also brauchst du einen Massenspeicher wie eine Festplatte o.Ä. Und dann wird es eng.. verdammt eng...
Anton R. schrieb: > Na, die Tatsache, dass ich mit 10 Gsps abtaste bedeutet nicht, dass ich > 10 Gsps speichere:) Und da wäre noch die Tatsache, dass du ein Triggerereignis verlieren könntest, während du noch mit dem Wegspeichern des letzten Ergebnisses beschäftigt bist.
Also zurück zur möglichen Lösung: 10Gs mit "Bastelware" in den Griff zu bekommen, ist alles, nur nicht einfach. Daher würde ich es mit einem guten Oszi lösen. (nicht umsonst sind Oszis in dieser Leistungsklasse so teuer wie ein Mittelklassewagen) Du setzt die Triggerbedingung und wenn das Ereignis kommt (was ja nicht soo häufig ist), lässt du das Oszi die Messung durchführen und z.B. per Script die Messung abspeichern.
Jaja, das kommt noch. Die Avalanch Photodioden haben noch eine bestimmte Totzeit (10-20 ps). Aber das ist nicht schlimm,hauptsache man hat sehr gute Zeitauflösung. Deswegen die hohe Samplerate.
Erst ist der Zeitabstand einige 100 fs: Anton R. schrieb: > Die Zeit zwischen Signal1 und Signal2 (einiger 100 femtosekunden) wird > geloggt. Dann haben die Photodioden eine Totzeit von 10..20ps Anton R. schrieb: > Die Avalanch Photodioden haben noch eine > bestimmte Totzeit (10-20 ps) Akso eine Unschärfe von 10.000 fs Und das Ganze soll mit einer Abtrastrate von 10Gsps erfasst werden. Also beträgt das Intervall zwischen zwei Abtastungen 100ps = 100.000fs Entweder verstehe ich es nicht, oder du hast da einen Denkfehler drin.
Schlumpf schrieb: > Erst ist der Zeitabstand einige 100 fs: > > Anton R. schrieb: >> Die Zeit zwischen Signal1 und Signal2 (einiger 100 femtosekunden) wird >> geloggt. > > Dann haben die Photodioden eine Totzeit von 10..20ps > > Anton R. schrieb: >> Die Avalanch Photodioden haben noch eine >> bestimmte Totzeit (10-20 ps) > > Akso eine Unschärfe von 10.000 fs > > Und das Ganze soll mit einer Abtrastrate von 10Gsps erfasst werden. > > Also beträgt das Intervall zwischen zwei Abtastungen 100ps = 100.000fs > > Entweder verstehe ich es nicht, oder du hast da einen Denkfehler drin. Nö, du verstehst es net:) Es geht NUR darum, die Zeit T möglichst ultrahochgenau zu messen. Alles andere ist egal, auch die Totzeiten. ich beschreibe hier Schritt für Schritt den Messprozess: 1.Man wartet bis der Startsignal komm: Die Samplerate ist hier wichtig um diesen Signal nicht zu verschlaffen:)(Und die Stoppuhr möglichst ohne Verzögerung zu starten ) 2. Start kommt, un die Stopp-ADC sampelt mit 10 Gsps die Stopp-APD, bis der Spannungswert einen bestimmten Schwellwert überschreitet. Hier muss die Stopp-ADC den Signal nicht verpassen, und auch super genau die Stoppzeit bestimmen. 3. Stoppsignal kommt, deltaT wird ausgerechnet. Das ganze wird über eine sehr lange zeit integriert, und man bekommt korrelationsmessung:9 Wie im Bild unten, z.B. http://www.phmi.uni-mainz.de/Illustrationen/nv_centers.jpg
Anton R. schrieb: > Nö, du verstehst es net:) Stimmt, aber ganz offensichtlich verstehst du sehr genau, was du tust und das ist ja die Hautpsache :-) Anton R. schrieb: > Es geht NUR darum, die Zeit T möglichst ultrahochgenau zu messen Und wie groß ist T.. also ungefähr? Anton R. schrieb: > 1.Man wartet bis der Startsignal komm: Die Samplerate ist hier wichtig > um diesen Signal nicht zu verschlaffen:)(Und die Stoppuhr möglichst > ohne Verzögerung zu starten ) Eine durchaus übliche Vorgehensweise.. Und offensichtlich sind hier genau die 10Gs entscheidend um das Signal nicht zu verschlaf(f)en. Das heißt, es reicht aus, die "Stoppuhr" mit einer Unschärfe von bis zu 100ps zum eigentlichen Startsignal zu starten. Richtig? Oder erfasst du das Startsignal mit einer noch höhreren Abtastrate? Bzw. Wie lange steht dir denn das Startsignal zur "Verfügung"? Was du hier lange beschreibst, ist ein ganz normales Verfahren, wie jeder Trottel eine Zeit zwischen zwei Ereignissen misst. Interessant sind aber doch die Rahmenbedingungen. Also z.B. die zu erwartende Zeit zwischen den Ereignissen, die Dauer der Start und Stop Ereignisse etc. Und darüber hast du, zumindest nach meinem Verständnis bis jetzt keine, oder zumindest keine eindeutigen Angaben gemacht.
Also, ich ahbe darüber meine bachelor Arbeit geschrieben:)) Leider war dei technik nicht soooo Toll, dass man manche sachen einfach nicht behuapten/herauslesen könnte. Hier ist so eine, von mir gemachte Messung: Die minimalste Zeit T liegt so zwischen 100-200 ps. Das ist mir zu wenig. Weil alle Signale die in diesen 100 ps kommen, werden als "gleichzetig" mit dem Startsignal wahrgenommen, und das ist traurig:( Jetzt will ich im Rahmen meiner Masterarbeit die Auflösung (deutlich) verbessern:)
Na das sind doch jetzt mal Angaben, mit denen man was anfangen kann.. Warum du dann aber vorhin was von einigen hundert fs zwischen Signal1 und Signal2 gefaselt hast, muss ich nicht verstehen, oder? So und jetzt erklär mir doch noch schnell, wie du mit 10Gsps eine bessere Auflösung als 100ps erreichen willst?
So, ich werd jetzt mal schlafen gehen.. bin aber gespannt, wie du dem Herrn Shannon ein Bein stellen wirst ;-)
Also wenn die Abtastrate das Problem darstellt, dann kann man dieses doch eliminieren, wenn man das ganze analog löst. Also sowas in der Art; Komparator schaltet ein (Startbedingung) -> C wird definiert aufgeladen -> Komparator schaltet aus (Stoppbedingung) Nun hat man alle Zeit der Welt, die Spannung des Kondensators mit einem ADC zu messen und daraus auf die Ladedauer zu schliessen. Ist nur so eine Idee...
Hallo! Nimm einen TDC, machen wir hier am Lehrstuhl genauso. z.B. einen CAEN V775N http://www.caen.it/csite/CaenProd.jsp?parent=11&idmod=284 Hat ein LSB von 35 ps. Ggf. musst Du das STOP-Signal etwas verzoegern (konstant, z.B. ueber Kabellaenge) Wenn Dein Signal keinen NIM-Pegel hat, Diskriminator davor, z.B. http://www.caen.it/csite/CaenProd.jsp?parent=12&idmod=275 Viele Gruesse Andre
@Anton: So was? http://www.acquitek.com/data/acc_actu.php?art=1293 Mit selber frickeln ist das nix mehr.
Also einfach möglichst schnelle samplen um die Auflösung hinzubekommen ist hier höchstwahrscheinlich der falsche Ansatz. Selbst 10 Gsps heisst magere 100ps Auflösung. Die übliche Methode ist eher, mit dem ersten Signal den Aufladevorgang eines (zu Beginn ungeladenen) Kondensators zu starten, am besten von einer Konstantstromquelle. Der zweite Puls stoppt dann die Aufladung wieder. Danach misst man einfach die Spannung am Kondensator, die ist proportional zur Zeit zwischen den beiden Triggerpulsen. sub-ps-Auflösung ist da mit "Hausmitteln" und sehr begrenzten Kosten möglich, und die zu verarbeitende Datenmenge ist minimal (ein Messwert pro Event).
Wolfgang M. schrieb: > Selbst 10 Gsps heisst magere 100ps Auflösung. Aber da Anton ja bereits seine Bachelor-Arbeit zu dem Thema geschrieben hat und jetzt seine Masterarbeit vor der Türe steht, ist er mit dem Thema mindestens 20dB mehr vertraut als wir alle zusammen und hat daher die Lizenz, mit 10Gsps Messwerte mit einer Auflösung von DEUTLICH besser als 100ps zu erfassen.... wir verstehen das halt alle nur nicht :-) Bleibt nur zu hoffen, dass wenigstens sein Prof den Denkfehler erkennt und ihn davor bewahrt, unsere Steuergelder für, für diesen Fall völlig zweckfreies, Equipment auszugeben.
Schlumpf schrieb: > Aber da Anton ja bereits seine Bachelor-Arbeit zu dem Thema geschrieben > hat und jetzt seine Masterarbeit vor der Türe steht, beweist das eigentlich nur, das es vom Bachelor bis zum Master nichts dazugelernt hat. Leider leiden viel zu viele Studenten unter dem Problem der Selbstüberschätzung.
Sehe das wie Andre hohe Zeitauflösung => TDC Hier was zum selber bauen: http://www.msc.de/de/produkte/elekom/sensors/msc_tdc/7500-www/1697-www.html Gruß Bernhard
Professor schrieb: > beweist das eigentlich nur, das es vom Bachelor bis zum Master nichts > dazugelernt hat. Leider leiden viel zu viele Studenten unter dem Problem > der Selbstüberschätzung. Ich glaube nichtmal, dass es daran liegt, sondern vielmehr daran, dass sich heut keine Hochschule mehr traut, gleich am Anfang ordentlich zu sieben. Zu meiner Zeit war es noch vollkommen normal, dass an Mathe_1 70% der Erstsemester "zerschellt" sind. Mein Eindruck ist, dass heut vielmehr ein "Kuschelkurs" gefahren wird und halt jeder irgendwie am Ende einen guten Abschluss macht.. oder besser gesagt: "bekommt".. Aber das ist natürlich nur meine persönliche Meinung und muss mit der Realität gar nichts zu tun haben.
Wolfgang M. schrieb: > Die übliche Methode ist eher, mit dem ersten Signal den Aufladevorgang > eines (zu Beginn ungeladenen) Kondensators zu starten, am besten von > einer Konstantstromquelle. Der zweite Puls stoppt dann die Aufladung > wieder. Danach misst man einfach die Spannung am Kondensator, die ist > proportional zur Zeit zwischen den beiden Triggerpulsen. > sub-ps-Auflösung ist da mit "Hausmitteln" und sehr begrenzten Kosten > möglich, und die zu verarbeitende Datenmenge ist minimal (ein Messwert > pro Event). Klingt sehr interessant dieser Ansatz. Hast du ein Schaltungsbeispiel, das die "Hausmittel" näher erläutert?
>Aber das ist natürlich nur meine persönliche Meinung und muss mit der
Realität gar nichts zu tun haben.
hat es auch nicht. ist immer noch so. bei uns sind ganze kurse
verschwunden ioi
frank schrieb: > hat es auch nicht. ist immer noch so. bei uns sind ganze kurse > verschwunden ioi Na dann bin ich ja beruhigt ;-)
Boh, was geht denn hier los? Der Typ macht sich Gedanken, wie man eine Messung verbessern kann. Ok, mag nicht unbedingt zielführend sein (kann ich nicht einschätzen). Aber eine Erkenntnis, wie es nicht geht, was man verändern/verbessern muss ist doch auch eine, oder? Und ihr schwafelt hier über Verschwendung von Steuergeldern und dass Studenten allgemein nur Flaschen sind, so ein Mist. Kann einem echt der Hut hochgehen.
H.joachim Seifert schrieb: > Und ihr schwafelt hier über Verschwendung von Steuergeldern und dass > Studenten allgemein nur Flaschen sind, so ein Mist. Kann einem echt der > Hut hochgehen. Wer sich nicht selber ein wenig zu helfen weiss mit einer kreativen Lösung oder sich mal im Internet umzusehen ist im Engineering-Bereich schon eher zu den Flaschen zu zählen.
H.joachim Seifert schrieb: > Aber > eine Erkenntnis, wie es nicht geht, was man verändern/verbessern muss > ist doch auch eine, oder? Das verneint ja auch keiner. Aber wenn jemand wild und unreflektiert mit Zahlen um sich schmeißt, die von Post zu Post um Zehnerpotenzen auseinanderliegen, und in sich komplett widersprüchlich sind, wenn man denjenigen dann darauf hinweist, dass das, was er offenichtlich vorhat, mit den Größenordungen, die er angibt, so gar nicht funktionieren kann, wenn dann genau DERJENIGE einem sagt, dass man nix verstanden hat, dann muss der Verdacht erlaubt sein, dass heutzutage auch jemand eine Masterarbeit schreiben darf/kann, der offensichtlich nicht imstande ist, ein Problem analytisch und strukturiert anzugehen und auch offensichtlich über nicht über die Grundkenntnisse verfügt, die ich für den Erwerb eines Master-Titels voraussetzen würde. Aber auch das ist natürlich wieder nur meine persönliche Meinung.
Onsemi ode Micrel haben schon einmal ECL/PECL-Logikgatter im Programm, die bis ca. 10 GHz funktionieren und entsprechend kleine, stabile Gatterlaufzeiten aufweisen. Damit kann man sich die Triggerlogik, Enable, Reset (Kondensatorentladung) usw. zusammenschustern. Vor allem Onsemi ist sehr liberal mit Gratis-Samples, was bei den üblichen eher begrenzten Unibudgets sehr hilfreich ist. Eine zugegebenermassen etwas simplistische Methode wäre, den (Logik-)Ausgang eines solchen Gatters mit einem größeren Serienwiderstand zu versehen und damit den Kondensator zu laden. Das ist einmal näherungsweise eine Konstantstromquelle. Digitalisieren kann man das dann in aller Ruhe mit einem ~16-Bit ADC. Zur Eichung könnte man Pulspaare erzeugen, indem man eine Flanke aufspaltet und beide Teile in ein XOR leitet - allerdings einer davon durch eine längere Leitung verzögert. Dann hat man am XOR-Ausgang einen kurzen Puls mit stabiler, gut defnierter Pulsbreite (Pulsbreite = Differenz der Leitungslängen). Diesen Ausgangpuls kann man nun wieder in zwi Teile aufspalten und mittels Wahl unterschiedlicher Leitungslängen hat man dann seine zwei gegeneinander zeitverzögerten Pulse, mit denen man die Messeinrichtung testen und kalibrieren kann. Das alles kann man natürlich noch verfeinern und verbessern, wäre aber ein Anfang und meiner Meinung nach für unter 1000 Euro Materialkosten zu schaffen. Zur obigen Diskussion möchte ich nur sagen, das wäre meiner Meinung hier besser im Offtopic-Bereich aufgehoben. Hier hat jemand eine Frage gestellt und um Ideen gebeten. Wenn man dazu was Sachbezogenes sagen kann, nur zu, wenn's aber bloss drum geht unkontruktiv bis aggressiv zu sagen, wie blöd man die Frage (oder den Fragesteller) findet, dann bitte einfach die Zeit sparen und auf einen Beitrag verzichten. Es macht nur böses Blut und hilft niemandem.
Du willst also einen TDC bauen (Time-to-Digital-Converter, Link zu Wikipedia kam schon). Deine Anforderungen sind für einen Single-Hit-TDC; Wiki sagt daß die besten erhältlichen Teile derzeit ca. 100fs Auflösung haben. Auch wenn Ehrgeiz etwas schönes ist, solltest du vielleicht nicht gleich versuchen, auf dem Küchentisch etwas besseres als die Profis auf die Beine zu stellen. Allein deine Frage nach ADC mit >10Gsps zeigt, daß du auf dem Holzweg bist. Ein TDC braucht Digitalsignale an seinen Eingängen. Die Signalaufbereitung ist also schon mal ein separates Problem, ein ADC gehört aber sicher nicht zur Lösung. Wahrscheinlich bis du bereits mehr als genug ausgelastet, die Signalkonditionierung für einen käuflich erhältlichen TDC der 100fs-Klasse (oder was immer das Budget hergibt) zu machen. XL
> Die Zeit zwischen Signal1 und Signal2 (einiger 100 femtosekunden) wird > geloggt. Die Messung kann locker über mehrere Tage dauern. Mach dir Gedanken über Datenreduktion (im FPGA nach dem Wandler oder vielleicht sogar auf den Wandler verzichten und nur noch Schaltschwellen betrachten). Leite nur die Info weiter, die wirklich wichtig ist. Das erlaubt es zwar nicht mehr so schön, Fehlinterpretationen zu erkennen, aber macht die Aufgabe "schaffbar" (d.h. es kommt in den Bereich was derzeit die schaffen, die es schon können).
Anton R. schrieb: > 10 Gsps oder höher! Wie realisieren? > Reicht eine FPGA dafür aus? DAS Feldprogrammierbare Gate Array. Und nein, es reicht nicht aus. Und vor allem reicht dein Wissen und Können nicht, für das locker-aus-dem-Ärmel-Entwickeln einer solchen Schaltung. > Seit kurzem lerne ich die FPGA-"Programmierung". Die angeführten Zahlen und Zeiten werden auch ausgeschlafenen Profis zu Denken geben. Wie sehr dann einem Anfänger? Ich würde sagen: bau den Messplatz mit einem schnellen Oszi auf, lerne dabei und schau, wo du evtl. günstiger werden kannst. Solche Oszis kann man auch ausleihen... > Auf dem Markt gibt es schon welche ADC, die das können. Aber wie > realisiere ich eine so schnelle Datenverarbeitung. Mit Erfahrung, Erfahrung, Erfahrung und den richtigen Bauteilen...
Schau Dir einmal einen HP5370B an, einen "Universal Time-Intervall Counter". Mit 20ps Auflösung und +/-100p absoluter Genauigkeit nähert sich dieses Gerät Deinen Anforderung - dürfe jedoch für qualifizerte Messungen immer noch "zu grob" sein. Aber: Studiere einmal, nach welchem Prinzip HP bereits vor 25 Jahren (1987) derart kurze Zeiten gemessen hat - Service-Manuals mit kompletten Schematics sind im Internet verfügbar. Mit diesem Verfahren, aber heute verfügbaren Bauteilen lassen sich die zeitliche Auflösung und die Genauigkeit um etwa eine (erschwinglich) oder auch um zwei (teuer) Größenordnungen verbessern. Blinde Giga- oder gar Tera-"Samplelei" ist jedenfalls die völlig falsche Kanone für diese flinken Spatzen... ;-) Und ja, "mehr" geht auch noch, aber dann i.d.R. / sinnvollerweise nicht mehr in einem "diskreten Aufbau" - d.h. getrenntem Meßobjekt + Meßkopf + Meßgeräte und Leitungen dazwischen, sondern vornehmlich als maßgeschneidertes Labor-Experimentalsystem mit integrierter Meßvorrichtung. Für eine ungefähre Vorstellung: Eine Zeitspanne von 100 Attosekunden wurde bereits im Labor gemessen - 2001, TU Wien, Prof. F. Krausz. Keine Ahnung, ob das noch der amtierende Rekord ist... ...aber etwas Raum für Verbesserungen bleibt noch: Bis zur physikalischen "Zeit-Grenze", der ca. 28 (!) Größenordnungen kürzeren Plank-Zeit.
@Rene Schube: Ach du Schande, auf dem Board ist ja ein Virtex-6! Das Teil, die kleinen (ich tippe mal SRAMs?) außenrum, und die zwei ADCs sind ja ein halbes Vermögen wert
Die schnellsten Sampler, die man zur Zeit bauen kann, machen 100Gsample. Nicht als durchlaufender ADC, sondern interleaved, Sampler eben. Dazu verwendet man eine schnelle Photodiode als Schalter, die man mit einem kontinuirlich verzoegerten Femtosekundenlaser ansteuert. So ein Aufbau wird aber deutlich oberhalb der Resourcen fuer eineMasterarbeit liegen.
:)) Echt lüstig, was hier alles zum lesen gab. Ich wollte NUR wissen, ob es theoretisch möglich ist die 10 GSPS(oder höher) mit FPGA zu realisieren oder nicht. Und wenn nicht, welche alternativen stehen zur Auswahl! Ich spiele nur mit den Gedanken, mit den Ideen wie ich den Messstand verbessern kann. Ob ich die 10 GSPS oder 100GsPS nehme, oder mich doch für was anderes entscheide werde ich noch sehen.Im moment betrachte ich nur verschiedene Konzepte! Ich wollte nicht wissen, ob es so funktionieren wird, ob es für mich überhaupt machbar ist, und was ihr über den Messplatz denkt.Sonst würde meine Frage lauten:"Was denkt ihr über meine Idee?" Die Frage war sehr einfach gestellt und nur wenige haben es geschafft, diese zu beantworten. Alle andere hier haben offensichtlich Probleme mit Potenz, Familie,Cheff oder alles zusammen. Ich kann mir es anders nicht erklären, wieso hier schon wieder über "Früher war alles anders!" und "Die junge Generation kann nichts" geredet wird. Mein Dank gehn an den Usern hier, die meine Frage zum Teil geantwortet haben. Einige wichtigen Links und die Idee mit dem Kondensator werde ich im Kauf nehmen. MFG Anton
pah. du bist doch glimpflich davon gekommen. Such mal nach "Boardcomputer". :P
Wer sich auch noch für TDCs interessiert, dem kann ich einige HP Journals nahelegen (bin grad zu faul, die entsprechenden Ausgaben zu ermitteln) Zum einen wäre da der HP5370B, bei diesem wird die Zeitauflösung dadurch erreicht, dass mit dem Start-Signal ein Oszillator gestartet wird, der ein wenig langsamer als der Referenztakt läuft. Nach einer gewissen Zeit ist die Phase zwischen Referenztakt und Oszillator null und man kann anhand dieser Zeit jene, die zwischen dem Start-Signal und dem nächsten Taktzyklus vergangen ist. Der "trick" bei HP war der, dass der Oszillator teil einer PLL war, sodass er immer Quarzgenau lief, aber auch genau mit dem Start-Signal starten konnte. (Gibt's auch nen Patent dazu) Die andere, von womai angesprochene Lösung, fand bei HP Verwendung, um bei Digiskops den Triggerzeitpunkt genau bestimmen zu können. Damit war dann auch sowas wie 100MHz mit 20MS/s möglich. In dem HP Journal zu einem von diesen 54* Skops ist das Prinzip recht ausführlich erläutert, sehr empfehlenswerte Literatur. Teilweise sogar besser als die Service-Handbücher, da in Artikeln in den Journals auch Grundlagen und Prinzipien erläutert werden, die sich in Service-Handbüchern eher weniger finden.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.