Wie genau kann ich Radon messen?
Egal wie wir eine Temperatur, eine Länge, ein Gewicht oder auch eine Radonkonzentration messen, wir werden als Ergebnis nie den tatsächlichen oder im Messtechnik-Jargon auch „wahren Wert“ der Messgröße bestimmen. Wir liegen immer mehr oder weniger daneben, nur sind im Alltag die Abweichungen hinsichtlich unserer Erwartungen so klein, dass wir dies gern vergessen…
1 Messunsicherheit
Zu jedem Messwert gehört ein Unsicherheitsbereich, der umgangssprachlich auch als Genauigkeit bezeichnet wird. Diese gibt an, dass das sich der wahre Wert mit einer sehr hohen Wahrscheinlichkeit (in der Regel werden \(\SI{95}{\%}\) verwendet) innerhalb des Unsicherheitsbereiches des Messwertes liegt. Die Unsicherheit kann sich aus der Messung selbst, der Kalibrierung des Messinstrumentes und den Eigenschaften des Messinstruments ergeben. Als Beispiel sei ein Stahllineal genannt, das im Bereich unter einem Millimeter schwierig abzulesen ist. Je nach Tagesform und Person wird der Ablesewert etwas unterschiedlich ausfallen. Natürlich wurde das Stahllineal niemals mit dem Ur-Meter in Paris verglichen, sondern die Skala wurde maschinell aufgebracht, wobei sich selbst mit dem besten Equipment eine Abweichung ergibt. Und natürlich dehnt sich das Stahllineal bei Erwärmung aus, so dass wir mit dem selben Lineal bei verschiedenen Temperaturen verschiedene Werte ablesen.
In Datenblättern von Radon-Messgeräten finden sich häufig bunt gemischt verschiedenste Genauigkeitsangaben, die der Nutzer wahlweise nach eigenem Gutdünken interpretiert. Deshalb sollen an dieser Stelle die drei hauptsächlichen Unsicherheitsbeiträge im Falle der Radonmessung erläutert werden. Diese sind:
- die intrinsische Unsicherheit des Messgerätes,
- die Kalibrierunsicherheit,
- die statistische Unsicherheit der Messung.
Die Gesamtunsicherheit einer Messung ergibt sich aus der Überlagerung aller drei Einzelunsicherheiten. Je nach Messgerät und Messbedingungen (insbesondere gewähltes Messintervall und gemessene Radonkonzentration) kann eine der drei Unsicherheiten dominant werden.
2 Insintrische Unsicherheit des Messgerätes
Diese Angabe beschreibt die Eigengenauigkeit eines Messgerätes, welche aus dem Messprinzip und der technischen Umsetzung der Messwertgewinnung resultiert. Die Unsicherheit beinhaltet z. B. Nichtlinearitäten und Hysteresen bei der Signalverarbeitung aber auch Einflüsse von Umgebungsbedingungen (Klimaparameter, externe Strahlung usw.) oder die gemessene Konzentration selbst. Für Messgeräte mit zählender Messung sind meist nur die Umgebungsbedingungen von Interesse. Die insintrische Unsicherheit ist ein Faktor der Güte eines Messgerätes und sollte explizit im Datenblatt eines Messgerätes angegeben werden.
3 Statistische Unsicherheit der Messung
Die statistische Unsicherheit einer Messung resultiert aus dem Wesen des radioaktiven Zerfalls selbst. Die Anzahl vom Messgerät beobachteter Zerfälle pro Messintervall ist eine Zufallsgröße, d. h. auch bei konstanter Radonkonzentration wird in aufeinanderfolgenden Messintervallen eine unterschiedliche Anzahl von Zerfällen beobachtet. Der Mittelwert aus (unendlich) vielen solcher Messintervalle würde den wahren Wert der Radonkonzentration repräsentieren. Anhand der absoluten Anzahl beobachteter Zerfälle innerhalb eines Messintervalls kann jedoch die Standardunsicherheit des aus der gemessenen Anzahl der Zerfälle berechneten Messwertes geschätzt werden. Hier gilt: Je größer die Anzahl beobachteter Zerfälle, desto kleiner die relative Standardunsicherheit. Die absolute Anzahl der vom Messgerät beobachteten Zerfälle hängt von dem gewählten Messintervall, der Radonkonzentration und von der Sensitivität des Messgerätes ab. Damit resultiert die statistische Unsicherheit aus der jeweiligen Messung selbst. Dies bedeutet, dass es keine allgemeine Angabe der Messunsicherheit für eine Radonmessung geben kann. Die Standardunsicherheit wird für jeden Messwert vom Gerät berechnet und zusammen mit dem Messwert ausgegeben. Im Datenblatt sollten zur Charakterisierung eines Messgerätes die Unsicherheiten für typische Konzentrationen und Messintervalle angegeben werden.
4 Kalibrierunsicherheit
Kalibrieren bedeutet den Vergleich der Messergebnisse eines Messgerätes mit einem Normal (auch Referenz genannt). Da ein direkter Vergleich jedes Messgerätes mit dem nationalen Standard praktisch nicht möglich ist, wird dieser durch Anschlusskalibrierungen bis hin zum Normal eines Kalibrierlabors weitergegeben. Bei allen Anschlusskalibrierungen (Vergleichsmessungen) treten statistische Unsicherheiten sowohl bei den Normalen als auch bei den zu kalibrierenden Geräten auf. Auch der nationale Standard selbst besitzt eine aus seiner Ableitung resultierende Unsicherheit. Die aus der gesamten Kalibrierkette resultierende Unsicherheit wird als Kalibrierunsicherheit bezeichnet. Neben dem Kalibrierfaktor ist die zugehörige Kalibrierunsicherheit ein obligater Bestandteil eines jeden Kalibrierscheines. Nach ISO ist dabei die um den Faktor zwei erweiterte Standardunsicherheit angegeben.
5 Gesamtunsicherheit und Messergebnis
Um die Unsicherheit einer Radon-Messung zu ermitteln, müssen die drei sich überlagernden Unsicherheiten berücksichtigt werden. Eine einfache Addition der Einzelbeiträge entspräche einem sehr unwahrscheinlichen Worstcase-Szenario, da sich Unsicherheitsbeiträge natürlich auch gegenseitig aufheben könnten. Da die Fehlerbeiträge aufgrund ihres Ursprungs als normalverteilte Zufallsgrößen interpretiert werden können, ist die Anwendung des Fehlerfortpflanzungsgesetzes möglich. Dieses besagt, dass die Summe der Quadrate aller Einzelunsicherheiten das Quadrat der Gesamtunsicherheit darstellt.
Beispiel:
Mit einem Messgerät wird laut Anzeige eine Radonkonzentration von \(\SI{223}{\becquerel\per\cubic\meter} \pm \SI{10}{\%}\) gemessen. Im Datenblatt des Gerätes ist eine insintrische Genauigkeit \(\SI{<2}{\%}\) angegeben. Das zum Gerät gehörige Kalibrierzertifikat weist einen Kalibrierfaktor von \(\num{1.02}\) mit der um den Faktor \(\num{2}\) erweiterten Standardunsicherheit von \(\SI{6}{\%}\) aus. Die Standardunsicherheit der Kalibrierung beträgt demnach \(\SI{3}{\%}\).
Zunächst wird der Anzeigewert mit dem Kalibrierfaktor multipliziert:
\(\SI{223}{\becquerel\per\cubic\meter} \times \num{1.02} = \SI{227.46}{\becquerel\per\cubic\meter}\)
Nun wird die zugehörige relative Gesamt-Standardunsicherheit \(u_G\) bestimmt:
\(u_G = \sqrt{\num{0.1}^2 + \num{0.02}^2 + \num{0.03}^2} = \num{0.1063} = \SI{10.63}{\%}\)
An diesem Beispiel wird deutlich, dass ein dominierender Unsicherheitsanteil (hier der statistische Fehler) den Hauptteil des Gesamtfehlers liefert. Die erhaltene Gesamt-Standardunsicherheit muss jetzt noch mit dem Faktor zwei multipliziert werden, um die erweiterte Gesamt-Unsicherheit \(U_G\) für einen Vertrauensbereich von \(\SI{95}{\%}\) zu erhalten:
\(U_G = 2 \times \num{0.1063} = \num{0.2126} = \SI{21.26}{\%}\)
Die korrekte Angabe des Messwertes würde wie folgt lauten:
Der wahre Wert der Radonkonzentration liegt mit einer Wahrscheinlichkeit von \(\SI{95}{\%}\) im Bereich von \(\SI{179.1}{\becquerel\per\cubic\meter} (\SI{227.46}{\becquerel\per\cubic\meter} - \SI{21.26}{\%})\) bis \(\SI{275.81}{\becquerel\per\cubic\meter} (\SI{227.46}{\becquerel\per\cubic\meter} + \SI{21.26}{\%})\).
Häufig gestellte Fragen
- Worauf achten bei der Geräteauswahl?
- Welches Gerät liefert das schnellste Messergebnis?
- Welches Messgerät passt zu meiner erwarteten Radonkonzentration?
- Was bedeutet Langzeitkontamination?
- Was bedeutet Sensitivität? Ist sie wichtig?
- Ist Thoron ein Thema, das mich auch betrifft?
- Welches ist der Vorteil bei zeitaufgelöster Radonmessung?
- Wie genau kann ich Radon messen?
alle anzeigen