Frequenz Analog Umwandler

toto45

Level-1
Beiträge
65
Reaktionspunkte
0
Zuviel Werbung?
-> Hier kostenlos registrieren
Hallo,
ich bin absolter Neuling.
Ich arbeite an einem Projekt indem die impulse eines Durchflusssensors mit einem Frequenz/Analog Umwandler in eine zur Frquenz proportionalen Spannung (0-10V) gewandelt werden.
Das Gerät arbeitet nach dem Prinzip der Periodenmessdauer. Als maximale Eingangsfrequenz habe ich 400 Hz.

Hier ein Link zum Gerät
http://www.wachendorff.de/wp/Signalwandler-Ueberwachungsmodul-Frequenz-Analog-Wandler-IFMA.htmll

Bei dem F/U Umwandler gibt es zwei Parameter die zu programmieren sind.
1. Max.Aktualisierungzeit. (Die Zeit nachdem der Ausgang auf Null gesetzt wird falls kein Eingangsimpuls anliegt.) Setze ich diese auf 10s (0,1Hz) bedeutet dass der F/U Umwandler Frequenzen bis 0,1 Hz messen kann. Bedeutet aber auch das wenn ich eine Freuenz von z.B 100 Hz anlege (ich teste mit einem Frequenzgenerator) und dann den Ausgang auf Null stelle es 10sek dauert bis der Spannungsausgang auf 0 geht.
Die Zeit kann von 10ms - 10s eingestellt werden. Welche Einstellung trifft man am besten?

2. Min. Aktualisierungszeit. Auch diese kann von 5ms - 10s eingestellt werden. Hier verstehe ich aber nicht warum man diese nicht immer auf den kleinsten Wert stellen sollte. Je schneller das Gerät aktualisiert desto besser, oder?

Und woher ergibt sich die Reaktionszeit von der min. Aktualisiertunszeit + 1 Periode. Wieso erkennt er nicht direkt die erste Periode

Wäre super wenn mir einer helfen kann
 
1. Max.Aktualisierungzeit. (Die Zeit nachdem der Ausgang auf Null gesetzt wird falls kein Eingangsimpuls anliegt.) Setze ich diese auf 10s (0,1Hz) bedeutet dass der F/U Umwandler Frequenzen bis 0,1 Hz messen kann. Bedeutet aber auch das wenn ich eine Freuenz von z.B 100 Hz anlege (ich teste mit einem Frequenzgenerator) und dann den Ausgang auf Null stelle es 10sek dauert bis der Spannungsausgang auf 0 geht.
Die Zeit kann von 10ms - 10s eingestellt werden. Welche Einstellung trifft man am besten?

Wenn du Signale bis 0,1Hz erfassen willst musst du die Zeit auch auf diesen Wert einstellen. Geht ja nicht anders, das Gerät kann ja nicht vorher wissen wann das nächste Signal kommt, also muss so lange gewartet werden.

Daraus resultiert auch die Verzögerungszeit von einer Periode:
Mal angenommen du hast ein Rechteck-Signal das alle 10 Sekunden von 100 Hz auf 1 Hz wechselt.
Um festzustellen dass das Signal von 100 Hz auf 1 Hz gewechselt hat, muss das Gerät aber mindestens eine Periode des 1 Hz Signals erfasst haben.

Das Gerät könnte natürlich auch so vorgehen, dass es wenn vorher 100 Hz erfasst wurden, und dann im Aktualisierungszyklus kein Signal erhalten hat die gemessene Frequenz schrittweise verringert bis wieder ein Signal erfasst wird (also 100 Hz -> 99 Hz -> 98 Hz -> ... -> 1 Hz). Messwerttechnisch wäre das zwar falsch, aber es gibt Anwendungsfälle (z.B. Regelungen) wo diese interpolierten Zwischenwerte Vorteile bieten.

2. Min. Aktualisierungszeit. Auch diese kann von 5ms - 10s eingestellt werden. Hier verstehe ich aber nicht warum man diese nicht immer auf den kleinsten Wert stellen sollte. Je schneller das Gerät aktualisiert desto besser, oder?

Ich schätze mal damit kannst du unterdrücken dass höhere Frequenzen erfasst werden als im Signal vorkommen dürften, z.B. Störungen. Wenn du dir sicher bist dass dein Signal absolut sauber ist kannst du das so hoch wie möglich einstellen.
Ansonsten nach dem Nyquist-Abtasttheorem mit fAbtast > 2 fMax einstellen.
 
Zurück
Oben