Unterschied der Normsignale

bricktop

Level-1
Beiträge
11
Reaktionspunkte
0
Zuviel Werbung?
-> Hier kostenlos registrieren
hossa

Um einen Fehler noch unbekannter Art zu entdecken, verwendet man ja 4..20mA als Signal. Aber was ist mit 0..10V? warum gilt da nicht auch 2..10V und alles unter gilt als fehlerhaft? Hat das damit was zu tun, dass man nicht weis welchen Spannungswert man erwarten wird? Was ist Leitungsbruch? Eigentlich Widerstand ziemlich fett. Spannung dann wohl ungewiss, da Strom Null.
 
bricktop schrieb:
hossa

Um einen Fehler noch unbekannter Art zu entdecken, verwendet man ja 4..20mA als Signal. Aber was ist mit 0..10V? warum gilt da nicht auch 2..10V und alles unter gilt als fehlerhaft?
Generell sind Spannungssignale empfindlicher gegenüber kapazitiver Einstreuung, dem Spannungsabfall auf langen Leitungen sowie Potentialdifferenzen in der Bezugsmasse.
Man muß ja einen gewissen Aufwand treiben, um auf senderseitig genau 4mA oder eben 2V zu addieren und sie empfängerseitig wieder abzuziehen.
Wenn man das tut, kann man wohl auch ebensogut dem Sender den geregelten Stromausgang "spendieren" und gewinnt damit eine Unempfindlichkeit gegen Potentialdifferenzen und die Garantie, daß mehrere Empfänger an einer Quelle genau das gleiche Signal bekommen.
 
Zuviel Werbung?
-> Hier kostenlos registrieren
Hallo!

Leitungsbruch hat man dann wenn z.B. ein Draht ausgerissen ist oder der Widerstand vom Draht unendlich ist. 4mA werden häufiger verwendet als 0-20mA weil man bei 4-20mA einen Leitungsbruch sofort erkennt. Weil bei 0-20mA könnte z.B.: der Transmitter gerade 0 mA ausgeben und in der Warte ist die Anzeige auch 0, dann merkt man es nicht ob ein Leitungsbruch vorliegt!
 
Zurück
Oben