nein, darum geht es nicht, es geht um eine Methode zur mathematisch-statistischen Sensorfusion, die Distanzsensoren waren ja nur ein Beispiel - alternativ z.B. zu Monte-Carlo-Filter oder Kalmanfilter, oder eine Vereinfachung davon. Auch soll es zeitkritische ad-hoc-Messungen ermöglichen. Im Übrigen schwanken aber ja alle Sensorwerte, je nach Sensitivität und Spezifität und je nach stat. Streuung, je nach bekannter Standardabweichung.
Außerdem gehen z.B. bei Distanzsensoren auch verschiedene systematische Auftreff-Winkel in die Messfehler mit ein (z.B. Ultraschall auf eine schräge samtige Fläche oder IR auf Glas oder Laser auf eine schräge glänzende Fläche), die sich nicht durch häufigere Messung eliminieren ließen. Accelerometer wiederum haben so ein starkes Rauschen, dass sie sich nicht ohne weiteres z.B. durch häufigeres Messen plus doppeltes Integrieren über die Zeit in einen verlässlicheren Distanzwert umrechenen ließen, Encoder leiden unter Schlupf, Slip und Drift der Antriebsräder besonders bei Kurven oder rutschigem Untergrund, Gyros leiden oft unter nicht-gaussscher Drift, Kompasssensoren sind von lokalen Magnetstörfeldern und augenblicklicher Fahrtrichtung betroffen...
Bei einer größeren Gruppe verschiedener Sensortechnologien werden also immer einige um ihre spezifischen Mittelwerte herumschwanken, und die Messwerte aller Sensoren werden mal so, mal anders gehäuft, gruppiert oder ungleich gewichtet sein, ohne direkt massive Ausreißer zu haben, und zuverlässigere Sensoren müssen anders gewichtet werden als stärker verrauschte.
Daher die TOP-Frage nach einer mathematisch-statistischen Sensorfusionsmethode nach Kenntnis der Standardabweichung, anhand des vereinfachten 3-Sensor-Beispiels.
Theoretisch betrachtet mit Funktionen der Art, wie sie auch Thomas$ erwähnt hat - das müsste allerdings mal bitte beispielhaft vorgerechnet werden...![]()
Lesezeichen