Hallo, ich plane ein Vorhaben, bei dem es um eine Frequenzmessung von einem eintretenden Ereignis zum nächsten geht. Mich interessiert dabei nur die Differenz von Ereignis1 zu Ereignis2, dann wieder die Differenz von Ereignis2 zu Ereignis3 (unabhängig von Ereignis1) usw. Es geht mir also nicht um irgendeine absolute Differenz, sondern immer nur die relative Differenz zweier Ereignisse. Nun habe ich gelesen, dass interner Oszi für eine Uhr absolut ungeeignet ist, logisch, da sich hier sämtliche Fehler in Summe addieren. Doch wie verhält es sich hier, wenn man nur mit Differenzen arbeitet? Geplant ist das auf einem Atmega8 mit 8Mhz interner Oszi betrieben. Danke. Manu
Manuel schrieb: > sondern immer nur die relative Differenz zweier Ereignisse. Meinst du mit "relativen Differenzen" die Zeitdifferenz delta t = t_2 - t_1 oder den Quotient zweier solcher Differenzen? Das delta t hängt in seiner Genauigkeit von der Absolutgenauigkeit des Taktgebers ab, der Quotient der Differenzen nur von der Stabilität des Taktgebers.
Manuel schrieb: > Geplant ist das auf einem Atmega8 mit 8Mhz interner Oszi betrieben. Du nimmst stattdessen einen Atmega168a und kaufst dir von dem gesparten Geld einen Quarz und 2 Kondensatoren. mfg.
Die Frage ist so formuliert, das ich auf den Gedanken komme, das Du absoluten und relativen Fehler nicht korrekt unterscheiden kannst. Die Frage nämlich ob Du absolute Differenzen bildest oder nicht, hat nichts mit der Genauigkeit zu tun sondern mit dem Vorzeichen der Differenz und der Tatsache des es manchmal einfacher ist von einer grösseren eine kleinere Zahl abzuziehen, wobei beide positiv sind. Tatsächlich ist es inkorrekt, von Differenzen zwischen den zwei zeitlich voneinander entferntesten Zeitpunkten als "absolut" und zwischen den Teil-Zeitabschnitten als "relativen" zu sprechen. Das gibt es nicht. Auch ist für die Genauigkeit nicht allein entscheidend ob Du eine grosse "Gesamtdifferenz" bildest oder viele Teildifferenzen. Es ist auch fraglich ob die "Genauigkeit" nun absolut oder relativ gegeben ist. Im zweiten Fall ist die Genauigkeit immer gleich, egal ob Du eine "Gesamtdifferenz" bildest oder Teildifferenzen. Im ersten Fall "addieren sich die Genauigkeiten". Aber eher spricht man von der Summe der Differenzen zum tatsächlichen Wert. Und noch eher spricht man von relativen Genauigkeiten, so das die Frage nicht in der Weise gestellt wird, wie Du sie stellst. Diese Sichtweise macht auch eine Bewertung einfacher. Ein Fehler von Beispielsweise 1% ist immer gleich, egal wie lang die Zeitdauer ist und ob Du eine "Gesamtdifferenz" bildest oder einen zeitlichen Teilabschnitt davon untersuchst. Insgesamt ist das aber noch garnicht das wesentliche Deiner Frage. Denn Du willst eigentlich wissen, ob der interne Oszillator Deine Genauigkeitsanforderungen erfüllt. Das aber können wir nicht beantworten solange wir Deine Genauigkeitsanforderungen nicht kennen. Aber noch besser: Falls und wenn Du sie kennst, kannst Du Dir die Frage anhand des Datenblattes selbst beantworten. Achte auch darauf, das die Genauigkeit auch Temperaturabhängig ist. Ich hoffe das hilft Dir ein wenig weiter.
Manuel schrieb: > Es geht mir also nicht um irgendeine absolute Differenz, sondern immer > nur die relative Differenz zweier Ereignisse. Da könnte noch gehen. Ansonsten: Fort gesetzte Fehler summieren sich. Ein integrierter Oszillator mit garantierten 1% über den Temperaturbereich ginge eben noch so für einen UART. Für eine Uhr, auch die Notlaufuhr einer DCF77-Uhr, eher nicht.
>> Es geht mir also nicht um irgendeine absolute Differenz, sondern immer >> nur die relative Differenz zweier Ereignisse. > >Da könnte noch gehen. Denke ich auch. Ansonsten hindert ihn ja niemand daran mal ein paar Vergleichsmessungen mit und ohne Quarz zu machen.
Es ist im Prinzip egal, wie du misst. Denn der Fehler so groß, wie die Genauigkeit deiner Zeitbasis. Also z.B. 50 ppm bei einem Quarz oder 1% bei einem Oszillator. Sprich: der relative Fehler bleibt also unabhängig von der Messgröße konstant. Der absolute Fehler "wächst" aber mit der Größe des Messewertes. Wenn du z.B auf 1ms genau messen willst und deine Zeitbasis 1% Abweichung hat, dann darf dein Messintervall nicht größer als 100ms sein. Wenn dir 10ms Genauigkeit reichen, dann darfst du eben maximal 1s damit messen.. Willst du große Messintervalle mit einer hohen absoluten Genauigkeit messen, dann muss logischerweise deine Zeitbasis präziser sein. Hängt also von den Anfoderungen an den absuluten Fehler und der Größe des Messintervalls ab.. und da wir beides nicht kennen, kann man keine Aussage machen, ob´s "reicht" oder nicht ;-)
Manuel schrieb: > Doch wie verhält es sich hier, wenn man nur mit Differenzen arbeitet? Ohne konkrete Zahlen kann das niemand beantworten. Du mußt erstmal Meßbereich, Meßdauer und Auflösung angeben. Und dann, wie groß der Unterschied minmal sein soll, damit er erkannt wird. Dann erst kann man das ausrechnen. Peter
Wilhelm Ferkes schrieb: > Da könnte noch gehen. Ansonsten: Fort gesetzte Fehler summieren sich. Aber nur absolut. Relativ bleibt der Fehler gleich - so zumindest sagt es einem der Dreisatz.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.