YN-Serie 100% Kupferverbindung Erdbebenresistenter (seismischer) Druckanzeige
Cat:Manometer
◆ Modell: YN40 YN50 YN60 YN75 YN100 YN150 ◆ Verwendung: Diese Instrumentereihe hat einen guten...
Siehe DetailsManometer gehören zu den am häufigsten installierten Instrumenten in Industrieanlagen, werden aber auch am häufigsten falsch spezifiziert. Wenn Sie durch eine Prozessanlage, ein Druckluftsystem oder einen Hydraulikkreislauf gehen, werden Sie auf Manometer stoßen – einige zeigen genau und zuverlässig an, andere vibrieren unleserlich, sind durch inkompatible Prozessmedien korrodiert oder einfach im falschen Druckbereich für die Anwendung installiert. Die Folgen reichen von unbequem – ein nicht lesbares Messgerät, das keine nützlichen Informationen liefert – bis hin zu gefährlich, wenn ein falsch spezifiziertes Messgerät unter Überdruckbedingungen strukturell versagt. Das Verständnis der verschiedenen Arten von Manometern, der Spezifikationen, die ihre Eignung für bestimmte Anwendungen bestimmen, und der Installations- und Wartungspraktiken, die ihre Lebensdauer verlängern, ist grundlegendes Wissen für Prozessingenieure, Wartungstechniker und Instrumentierungsfachleute, die mit Drucksystemen jeglicher Art arbeiten.
Die meisten industriellen Manometer verwenden ein mechanisches Sensorelement, das sich unter Druck verformt. Die elastische Verformung des Sensorelements ist mechanisch mit einem Zeiger verbunden, der sich über eine kalibrierte Skala bewegt und die physikalische Verformung in eine lesbare Druckanzeige umwandelt. Die Rohrfeder ist das am weitesten verbreitete Sensorelement in industriellen Messgeräten: Es handelt sich um ein gebogenes oder spiralförmiges Rohr mit ovalem oder elliptischem Querschnitt, das an einem Ende versiegelt (mit dem Zeigermechanismus verbunden) und am anderen Ende (mit dem Prozessanschluss verbunden) offen ist. Wenn Innendruck ausgeübt wird, tendiert das Rohr aufgrund der Druckdifferenz, die auf seine gekrümmte Geometrie wirkt, dazu, sich zu begradigen, und diese Begradigungsbewegung – verstärkt durch einen Zahnrad- und Hebelmechanismus, der als Bewegung bezeichnet wird – treibt den Zeiger über die Skala. Die Eleganz der Bourdon-Röhre liegt in ihrer Kombination aus Einfachheit, Zuverlässigkeit und großer Druckbereichsfähigkeit – Bourdon-Röhrenmessgeräte messen Drücke von unter 1 bar bis über 10.000 bar genau, abhängig vom Rohrmaterial, der Wandstärke und der Geometrie.
Für niedrigere Druckbereiche – typischerweise unter 0,6 bar –, bei denen die Rohrfeder nicht ausreichend empfindlich ist, werden stattdessen Membran- und Kapselmesselemente verwendet. Ein Membranmessgerät verwendet als Messelement eine dünne, gewellte Scheibe, die zwischen zwei Flanschen eingespannt ist. Durch Druck auf eine Seite der Membran wird diese ausgelenkt und diese Auslenkung wird auf den Zeigermechanismus übertragen. Kapselmessgeräte verwenden zwei gewellte Membranen, die an ihren Rändern zusammengeschweißt sind, um eine versiegelte Kapsel zu bilden. Von außen oder innen ausgeübter Druck bewirkt, dass sich die Kapsel ausdehnt oder zusammenzieht, was eine höhere Empfindlichkeit als eine einzelne Membran für die Messung sehr geringer Druckunterschiede bietet. Diese Sensortechnologien bestimmen den grundlegenden Druckbereich des Messgeräts und sollten an den erwarteten Prozessdruckbereich angepasst werden, bevor andere Spezifikationen in Betracht gezogen werden.
Vor der Auswahl eines Manometers ist es wichtig zu verstehen, welche Art von Druck gemessen wird – Manometerdruck, Absolutdruck oder Differenzdruck –, da es sich hierbei um grundsätzlich unterschiedliche Größen handelt, die unterschiedliche Manometertypen erfordern und Ergebnisse liefern, die ohne Korrektur nicht direkt verglichen werden können.
Die Auswahl des richtigen Manometers für eine Anwendung erfordert die Anpassung einer Reihe voneinander abhängiger Spezifikationen an die Prozessbedingungen, die Installationsumgebung und die Genauigkeitsanforderungen des Messpunkts. Die folgende Tabelle fasst die wichtigsten Parameter und ihre praktische Bedeutung zusammen.
| Spezifikation | Typischer Bereich/Optionen | Was es bestimmt |
| Druckbereich | Vakuum bis 10.000 bar | Skalenabdeckung; Auswahl des Sensorelements |
| Zifferblattgröße | 40 mm – 250 mm | Lesbarkeit aus der Ferne; Skaleneinteilung |
| Genauigkeitsklasse | 0,1 / 0,25 / 0,6 / 1,0 / 1,6 / 2,5 | Maximaler Fehler in % des Skalenendwerts |
| Prozessanbindung | G 1/4, G 1/2, NPT 1/4, NPT 1/2 (gemeinsam) | Kompatibilität mit Rohr-/Verteilergewinden |
| Verbindungsposition | Einstieg von unten, Einstieg von hinten, von hinten in der Mitte | Installationsausrichtung und Rohrleitungsanordnung |
| Benetztes Material | Messing, 316SS, Monel, Hastelloy, PTFE-ausgekleidet | Chemische Kompatibilität mit Prozessflüssigkeit |
| Gehäusematerial | Phenolharz, ABS, Edelstahl, Aluminium | Korrosionsbeständigkeit; Aufprallschutz |
| IP-/Schutzart | IP54 – IP68 | Beständigkeit gegen das Eindringen von Staub und Wasser |
| Füllung (flüssig) | Trocken, mit Glyzerin gefüllt, mit Silikon gefüllt | Vibrations- und Pulsationsdämpfung |
Der Druckbereich des Manometers sollte so gewählt werden, dass der normale Betriebsdruck im mittleren Drittel der Skala liegt – typischerweise zwischen 25 % und 75 % des vollen Skalendrucks, wobei der ideale Betriebspunkt bei etwa 50 bis 65 % des vollen Skalenwerts liegt. Der kontinuierliche Betrieb eines Messgeräts im oberen Bereich seines Messbereichs setzt das Sensorelement Spannungen nahe seiner Elastizitätsgrenze aus, wodurch die Ermüdung beschleunigt und die Lebensdauer verkürzt wird. Der Betrieb im unteren Bereich des Bereichs verringert die Messwertauflösung und erschwert die Erkennung subtiler Druckänderungen. Das untere Ende des Bereichs sollte alle zu erwartenden Drucktransienten oder Druckstöße berücksichtigen, ohne den angegebenen Überdruckgrenzwert des Messgeräts zu überschreiten – normalerweise 130 % des Skalenendwerts für Standardmessgeräte.
Die benetzten Materialien eines Manometers – das Bourdon-Rohr, die Buchse (Prozessanschlusskörper) und alle internen benetzten Armaturen – müssen mit der Prozessflüssigkeit chemisch kompatibel sein. Inkompatibilität führt zu Korrosion oder Spannungsrisskorrosion des Sensorelements, was zu Messwertdrift, strukturellem Versagen oder plötzlichem Bruch führt, wodurch unter Druck stehende Prozessflüssigkeit aus dem Messgerätegehäuse freigesetzt werden kann. Die folgenden Hinweise zur Materialauswahl decken die gängigsten Industrieflüssigkeitskategorien ab.
Mit Flüssigkeit gefüllte Manometer – typischerweise gefüllt mit Glyzerin (Glycerin) oder Silikonöl – sind für Anwendungen mit pulsierendem Druck oder Vibrationen spezifiziert oder wenn das Manometer direkt an vibrierenden Geräten wie Pumpen, Kompressoren und Kolbenmotoren montiert wird. Die Flüssigkeitsfüllung bietet zwei entscheidende Vorteile: Sie dämpft die durch Druckpulsationen verursachte Schwingung des Zeigers (was dazu führt, dass trockene Zeiger sichtbar vibrieren und das Ablesen unmöglich machen, während gleichzeitig der Verschleiß des Uhrwerks beschleunigt wird), und sie schmiert den Bewegungsmechanismus, um Reibung und Verschleiß durch vibrationsbedingte Mikrobewegungen der Getriebe- und Hebelkomponenten zu reduzieren.
Mit Glyzerin gefüllte Messgeräte eignen sich für Umgebungs- und gemäßigte Temperaturen – typischerweise -20 °C bis 60 °C – und sind nicht für die Installation im Freien geeignet, wo Temperaturen unter dem Gefrierpunkt herrschen, da Glyzerin je nach Wassergehalt bei etwa -12 °C (reines Glyzerin) bis -40 °C gefriert. Mit Silikon gefüllte Messgeräte haben einen viel größeren Temperaturbereich – typischerweise -60 °C bis 200 °C – und sind die richtige Wahl für die Außeninstallation in kalten Klimazonen, bei Hochtemperaturanwendungen oder wenn das Messgerät in Gehäusen von Prozessanlagen direkter Sonnenwärme ausgesetzt sein kann. Beide Füllarten machen das Messgerätegehäuse und das Fenster auf der Rückseite und an den Seiten undurchsichtig, bieten aber eine klare Vorderseite zum Ablesen. Mit Glyzerin und Silikon gefüllte Messgeräte sind teurer als Trockenmessgeräte und erfordern ein versiegeltes Gehäuse, um den Verlust von Füllflüssigkeit zu verhindern – das Gehäusematerial und die Qualität der Fensterdichtung sind daher kritischere Qualitätsparameter für gefüllte Messgeräte als für trockene Äquivalente.
Die Genauigkeit eines Manometers wird durch seine Genauigkeitsklasse definiert – eine Zahl, die den maximal zulässigen Fehler als Prozentsatz des gesamten Skalenbereichs angibt, gemessen an einem beliebigen Punkt der Skala unter Referenzbedingungen (typischerweise 20 °C Umgebungstemperatur, aufrechte Installation). Ein Manometer der Klasse 1,0 mit einem Bereich von 0 bis 10 bar hat an jedem Punkt seiner Skala einen maximal zulässigen Fehler von ±0,1 bar. Ein Manometer der Klasse 2,5 mit demselben Bereich hat einen maximal zulässigen Fehler von ±0,25 bar – 2,5-mal weniger genau. Die Klassenbezeichnung orientiert sich in der europäischen Praxis an der Norm EN 837 und in der nordamerikanischen Praxis an ASME B40.100.
Für die meisten Prozessüberwachungs- und Sicherheitsanzeigeanwendungen ist die Genauigkeitsklasse 1,6 oder 2,5 ausreichend – das Messgerät bietet ausreichende Genauigkeit, um Prozessbedingungen zu überwachen, Trends zu erkennen und Bediener auf erhebliche Abweichungen aufmerksam zu machen. Für Anwendungen, bei denen der Messwert des Messgeräts direkt für Entscheidungen zur Prozesssteuerung, zur Überprüfung des Sollwerts oder als Kalibrierungsreferenz verwendet wird, ist Klasse 1,0 oder besser geeignet. Prüfmessgeräte, die als Kalibrierreferenzen verwendet werden, sind in der Regel Klasse 0,25 oder Klasse 0,1, mit Präzisionswerken und größeren Zifferblattdurchmessern, die eine feinere Skaleneinteilung für die Interpolation der Messwerte zwischen Teilstrichen ermöglichen. Es ist wirtschaftlich verschwenderisch und aus betrieblichen Gründen unnötig, hochpräzise Messgeräte der Klasse 0,25 für allgemeine Prozessüberwachungsanwendungen zu spezifizieren. Die zusätzlichen Kosten bringen keinen betrieblichen Nutzen, wenn die Anwendung keine höhere Genauigkeit erfordert, und Präzisionsmessgeräte sind anfälliger für Schäden durch Pulsation und Vibration, die in den meisten industriellen Umgebungen auftreten.
Ein falsch installiertes, korrekt spezifiziertes Manometer liefert nicht seine Nennleistung oder Lebensdauer. Mehrere Installationspraktiken verhindern konsequent die häufigsten Ursachen für Messgerätausfälle und Ungenauigkeiten in industriellen Anwendungen.
Manometer werden oft als fest installierte, wartungsfreie Instrumente behandelt – ein Ansatz, der zu Messgeräten führt, die mechanisch intakt sind, aber ungenaue Messwerte liefern, oder zu Messgeräten, die ohne Vorwarnung strukturell ausfallen, weil die Verschlechterung unentdeckt bleibt. Ein systematischer Wartungsansatz schützt sowohl die Messintegrität als auch die Personensicherheit in unter Druck stehenden Systemumgebungen.
Die Überprüfung der Kalibrierung – der Vergleich des Messwerts des Messgeräts mit einem zertifizierten Referenzmessgerät oder Druckwaage an mehreren Punkten auf der Waage – sollte bei allen Messgeräten, die zur Prozesssteuerung oder für Sicherheitsfunktionen verwendet werden, in Abständen durchgeführt werden, die von der Kritikalität der Messung und der historischen Stabilität des Messgeräts abhängen. Bei sicherheitskritischen Anwendungen wie der Anzeige des Kesseldrucks, der Überprüfung des Sollwerts von Überdruckventilen in Druckbehältern und Messgeräten für Druckgasflaschen ist die jährliche Kalibrierungsüberprüfung in der Regel das akzeptable Mindestintervall, wobei Messgeräte in rauen Umgebungen oder im Hochzyklusbetrieb häufiger überprüft werden.
Manometer sind täuschend einfache Instrumente mit alles andere als einfachen Konsequenzen, wenn sie falsch spezifiziert, falsch installiert oder unzureichend gewartet werden. Die technische Disziplin, Messgerätetyp, Druckbereich, benetztes Material, Füllung, Genauigkeitsklasse und Gehäusebewertung an die spezifischen Prozessbedingungen und Umgebungsanforderungen jedes Messpunkts anzupassen – kombiniert mit systematischen Installations-, Kalibrierungs- und Austauschpraktiken – ist die Grundlage für eine zuverlässige Druckmessung in jedem Drucksystem in jeder Industrieanlage.