Moin,
ich habe jetzt nur einmal ganz schnell über das DB geguckt weil mich interessierte was sie da mit dem RMS meinen. In einer Fußnote steht (unter Tabelle 17)
Standardabweichung und quadratisches Mittel werden zwar ähnlich gerechnet, bedeuten aber etwas verschiedenes. Sei's drum, ich würde mich an die Fußnote halten und die Angabe als Standardabweichung verstehen. Das würde dann bedeuten, dass du bei mehreren Messungen 68.3% deiner Werte in einem Intervall +/- 0.02 mbar um den wahren Wert verteilt findest. Wie sich jetzt aber die Auflösung berechnet ist mir nicht klar geworden. Ich sehe es doch richtig, dass der Sensor die Daten in 24 Bit ausgibt? Wenn du auf 24 Bit eine Schwankung von 500 LSB hast, ist das eigentlich nicht viel. Wenn ich mal annehme, dass das messbare Maximum laut Datenblatt 1260 mbar sind, die mit 24 Bit Auflösung gemessen werden, dann ergäbe das rechnerisch 1260/2^24 = 0.000075 mbar, ein Unterschied von 500 LSB wären dann etwa 0.0375 mbar. Das wäre bei einer Verteilung mit 0.02 mbar STD nicht so unwahrscheinlich. ABER: es kann sein dass ich die Sache mit der Auflösung völlig falsch verstanden habe .Rms noise is calculated as standard deviation of 10 data points.
Gruß
Malte
Lesezeichen