PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sensorfusion mit unterschiedlicher statistischer Fehlerrate



HaWe
31.08.2018, 11:34
hallo,
es geht um Sensorfusion von Sensoren mit unterschiedlicher Fehlerrate.

Beispiel:
ich habe 3 verschiedene Sensoren, die alle z.B. eine Distanz messen (mit unterschiedlichen Messmethoden),
Sensor 1 misst z.B. mit 20% Standardabweichung (breite Glockenkurve),
Sensor 2 mit 10% Standardabweichung (engere Glockenkurve)
Sensor 3 mit 5% Standardabweichung (sehr enge Glockenkurve)
Messbereich aller Sensoren: mindestens 4-150cm

1.Fall
Sensor 1 möge nun z.B. 100 cm messen,
Sensor 2 110 cm
Sensor 3 90 cm

2.Fall:
Sensor 1 20 cm
Sensor 2 30 cm
Sensor 3 5 cm

Der vermutlich am besten verlässliche Wert wird dabei sicherlich irgendwo zwischen 90-110 bzw. 5-30 cm liegen.

Aber wie berechne ich den fusionierten Wert mit der statistisch größtmöglichen Zuverlässigkeit (größte Signifikanz) ?
D.h. welche statistische Formel ist darauf am besten anzuwenden?

Thomas$
31.08.2018, 12:56
hast du die 3 WDF(Wahrscheinlichkeitsdichtefunktion) bereits bestimmt?

folgender teil ohne Garantie:
Wenn du dann die 3 Funktionen addierst, solltest du den Erwartungswert wieder bestimmen können. (https://de.wikipedia.org/wiki/Erwartungswert#Erwartungswert_einer_reellen_Zufall svariable_mit_Dichtefunktion)



und ich stelle fest das ich mal wieder das Vorlesungsskript ansehen sollte, um zu wiessen wie das nun wirklich genau war....

Moppi
31.08.2018, 13:59
Für mich am wahrscheinlichsten ist:

1. Messung: 100cm, Fehler: +/-20%
2. Messung: 110cm, Fehler: +/-10%
3. Messung: 90cm, Fehler: +/-5%

Mittelwert: 100cm, Fehler: +/-11.7% (tatsächliche Entfernung: 88.3cm bis 117cm).
Sensor 3, 3.Messung, tatsächliche Entfernung: 85.5cm bis 94.5cm, weil Fehler: +/-5%.

Jetzt könnte man das eindämmen. Der untere Grenzwert ist wohl: 88.3cm. Der obere Grenzwert ist wohl: 94.5cm. Wahrscheinlichster Wert 91.4cm.

Alles auf die Gefahr hin, dass das totaler Quatsch und absolut falsch ist. :-)

HaWe
31.08.2018, 17:08
Für mich am wahrscheinlichsten ist:

1. Messung: 100cm, Fehler: +/-20%
2. Messung: 110cm, Fehler: +/-10%
3. Messung: 90cm, Fehler: +/-5%


hallo,

@Moppi:
nein, der Wert ist nicht +/- Fehlerbereich, sondern die Standardabweichung war genannt,
die gibt an, mit welcher Streuung ein Messwert durchschnittlich auftreten wird, es können aber auch viel weiter abweichende Werte auftreten. Tatsächlich wird sich bei 3 Sensoren mit 3 Glockenkurven das Problem eher so wie hier darstellen (allerdings noch mehr gegeneinander verschoben):
https://upload.wikimedia.org/wikipedia/commons/thumb/7/74/Normal_Distribution_PDF.svg/720px-Normal_Distribution_PDF.svg.png
(Standardabweichung 20% bedeutet 1σ = 0,2*Messwert: Die Standardabweichung ist hier eher der "durchschnittliche Messfehler" von 20%.)


- - - Aktualisiert - - -



hast du die 3 WDF(Wahrscheinlichkeitsdichtefunktion) bereits bestimmt?
@Thomas$:
WDF habe ich noch nie gehört, das sieht nach säähr schwäärer Kost aus... :-/
wenn du dein Skript mal ausgraben möchtest: kannst du das mal beispielhaft für die Fälle 1+2 vorrechnen, so quasi zur Übung... ? 8)

(von dem Wki Artkel verstehe ich leider null-komma-garnichts ;) )

vor allem: wie soll ich eine Funktion und insb. Integrale bilden für 3 Sensoren mit je 1 Messwert und mit nur jeweils 1 bekannten spezifischen Standardabweichung?

Moppi
31.08.2018, 19:10
Dann würde ich Messreihen durchführen, statt einer Messung. Dann alle Werte aus der Messreihe raus nehmen, welche Ausreißer darstellen. Die übrigen Werte mitteln.

HaWe
31.08.2018, 20:38
Dann würde ich Messreihen durchführen, statt einer Messung. Dann alle Werte aus der Messreihe raus nehmen, welche Ausreißer darstellen. Die übrigen Werte mitteln.
nein, darum geht es nicht, es geht um eine Methode zur mathematisch-statistischen Sensorfusion, die Distanzsensoren waren ja nur ein Beispiel - alternativ z.B. zu Monte-Carlo-Filter oder Kalmanfilter, oder eine Vereinfachung davon. Auch soll es zeitkritische ad-hoc-Messungen ermöglichen. Im Übrigen schwanken aber ja alle Sensorwerte, je nach Sensitivität und Spezifität und je nach stat. Streuung, je nach bekannter Standardabweichung.

Außerdem gehen z.B. bei Distanzsensoren auch verschiedene systematische Auftreff-Winkel in die Messfehler mit ein (z.B. Ultraschall auf eine schräge samtige Fläche oder IR auf Glas oder Laser auf eine schräge glänzende Fläche), die sich nicht durch häufigere Messung eliminieren ließen. Accelerometer wiederum haben so ein starkes Rauschen, dass sie sich nicht ohne weiteres z.B. durch häufigeres Messen plus doppeltes Integrieren über die Zeit in einen verlässlicheren Distanzwert umrechenen ließen, Encoder leiden unter Schlupf, Slip und Drift der Antriebsräder besonders bei Kurven oder rutschigem Untergrund, Gyros leiden oft unter nicht-gaussscher Drift, Kompasssensoren sind von lokalen Magnetstörfeldern und augenblicklicher Fahrtrichtung betroffen...

Bei einer größeren Gruppe verschiedener Sensortechnologien werden also immer einige um ihre spezifischen Mittelwerte herumschwanken, und die Messwerte aller sensoren werden mal so, mal anders gehäuft, gruppiert oder ungleich gewichtet sein, ohne direkt massive Ausreißer zu haben, und zuverlässigere Sensoren müssen anders gewichtet werden als stärker verrauschte.

Daher die TOP-Frage nach einer mathematisch-statistischen Sensorfusionsmethode nach Kenntnis der Standardabweichung, anhand des vereinfachten 3-Sensor-Beispiels.

Theoretisch betrachtet mit Funktionen der Art, wie sie auch Thomas$ erwähnt hat - das müsste allerdings mal bitte beispielhaft vorgerechnet werden... 8)

Holomino
31.08.2018, 21:19
Nimmst Du 'ne Kreuzkorrelation und schiebst die drei Glockenkurven über die x-Achse, bis die Summe der Wahrscheinlichkeiten ein Maximum erreicht?!?

Moppi
01.09.2018, 00:01
Mal der Verständlichkeit halber, was genau gemeint ist: https://de.wikipedia.org/wiki/Sensordatenfusion#Anwendungsbeispiele
Und mal der Kalman-Filter: https://de.wikipedia.org/wiki/Kalman-Filter

Vielleicht kann man sich so etwas ja mal antun: https://www.vdi-wissensforum.de/weiterbildung-automobil/sensorfusion/

Holomino
01.09.2018, 09:28
Vielleicht sollte man das Problem mal herunterbrechen und überhaupt eine Erwartungshaltung beschreiben:

Bei einem Sensor und einer Messung hast Du einen Messwert, den Du als Ausgabewert weiter verwendest. Ggf. gibst Du die Varianz mit aus.

Die Messung mit zwei Sensoren gleicher Varianz ist wie die wiederholte Messung mit einem Sensor. Der Mittelwert als Ausgabewert verbessert sich mit Anzahl der Messungen, wenn es eine Normalverteilung ist. Nebenerkenntnis: Der Mittelwert liegt immer zwischen Minimum und Maximum der Messreihe. Die Varianz sinkt mit steigender Anzahl Messungen.

Bei der Messung mit zwei Sensoren unterschiedlicher Varianz würde man unwillkürlich annehmen, dass der genauere Sensor das bessere Ergebnis angibt. Bei einer "Mittelwertbildung" würde man die Varianzen als Gewichtung heranziehen. Der Ausgabewert würde also immer zum Wert des besseren Sensors tendieren. (Merke: Wenn bei wiederholten Messungen trotz unterschiedlicher Varianzen nicht annähernd die gleichen Mittelwerte herauskommen, ist irgendwas im System nicht normalverteilt. So z.B. lassen sich systematische Messfehler filtern.)

Bei drei Sensoren unterschiedlicher Varianzen haben wir unterschiedliche Erwartungshaltungen: Einerseits gehen wir davon aus, dass Güte (kleine Varianz) immer noch bestimmend ist, der Ausgabewert also zum Sensor der geringsten Varianz tendiert. Bsp:
L1= 100 (Sig = 0.1)
L2= 105 (Sig = 0.1)
L3= 110 (Sig = 0.05)
Die Tendenz würde sagen, der "wahre" Messwert liegt eher bei 110, als bei 100. Wir "trauen" dem besseren Sensor mehr.

Andererseits dürfen wir nicht ignorieren, dass bei einer guten Übereinstimmung der "schlechteren" Sensoren der gute Sensor einen Ausreißer produzieren kann. Beispiel:
L1= 100 (Sig = 0.1)
L2= 105 (Sig = 0.1)
L3= 150 (Sig = 0.05)

Hier würden L1 und L2 trotz geringerem Vertrauen durch die gute Übereinstimmung den Wert von L3 quasi überstimmen. Der Ausgabewert wäre wohl wesentlich näher an L1/L2 als an L3 anzunehmen.

Wenn wir diese Fälle jetzt berücksichtigen, können wir zumindest tendenzielle Änderungen vom zu erstellenden Fusionsalgorithmus ableiten:
Schieben wir den Messwert des guten Sensors zu den anderen beiden Sensoren, verschiebt sich der Ausgabewert zum guten Sensor hin.
Schieben wir den Messwert von einem der schlechteren Sensoren vom "Zentrum" (den anderen beiden Sensoren) weg, tangiert auch dies den Ausgabewert, aber mit einer geringeren Gewichtung.

Ohne jetzt ein Modell für das Problem gesucht zu haben, die Frage an die Runde: Ist das zu erwartende Verhalten so korrekt?

Manf
01.09.2018, 09:39
Hier steht die Beschreibung der Berechnung des gewichteten Mittelwertes von statistisch streuenden Größen anhand ihrer Streuung:
ich denke das könnte passen
https://de.wikipedia.org/wiki/Gewichtung
https://de.wikipedia.org/wiki/Gewichtung#Berechnung
https://de.wikipedia.org/wiki/Gewichtung#Gewichtung_von_statistisch_streuenden_G r%C3%B6%C3%9Fen

HaWe
01.09.2018, 10:31
hallo,
danke erst mal für eure Antworten!
In der Tat wäre ein Kalman oder Monte-Carlo-Filter zu komplizirt, es sollte ja einfacher sein, quasi hinkend, aber in die richtige Richtung.


Ich hatte auch schon die Idee, die Messwerte nach ihrer Zuverlässigkeit zu gewichten und dann den gewichteten Durschschnitt zu bilden, aber das führt nur dazu, dass die unzuverlässigeren Sensoren immer tendenziell noch stärker verkleinert werden, was ja nicht stimmt, wenn die Mess-Schwerpunkte der zuverlässigeren Sensoren größer als jene sind.

Edit: diese Befürchtung war nicht zutreffend!

Das vorherige Ausfiltern absoluter Ausreißer ist ntl. schon sinnvoll, das könnte man per vorgeschaltetem Medianfilter tun, aber das ist nicht sehr selektiv, man müsste das eher mathematisch beschreiben (z.B. "größer als 3 sigma vom gemeinsamen Mittelwert entfernt" etc).


- - - Aktualisiert - - -

EDIT:

ah - hat sich mit manfs Post überschnitten:
dies hier scheint der richtige Ansatz zu sein:

Gewichtung von statistisch streuenden Größen
https://de.wikipedia.org/wiki/Gewichtung#Gewichtung_von_statistisch_streuenden_G r%C3%B6%C3%9Fen

Gewichtung von Messgrößen
https://de.wikipedia.org/wiki/Gewichtung#Gewichtung_von_Messgr%C3%B6%C3%9Fen


Gewichtung von Messgrößen
In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten. Hierdurch wird erreicht, dass bei weiteren Berechnungen Werte mit kleineren Unsicherheiten entsprechend stärker gewichtet werden.

Jetzt ist noch unklar, wie sich die "Unsicherheit" aus der Standardabweichung errechnet - kann man das einfach gleichsetzen...?

- - - Aktualisiert - - -


UPDATE:
es scheint DOCH zu klappen, was ich zuerst probiert habe, mit der "Zuverlässigkeit"=(1-Standardabweichung)

Standardabw.
20% =0,2; Zuverlässigkeit = 1-0,2 = 0,8
10% =0,1; Zuverlässigkeit = 1-0,1 = 0,9
5% =0,05; Zuverlässigkeit = 1-0,05 = 0,95

Summe aller Zuverlässigkeiten:
0.8+0.9+0.95= 2,65


1.Fall
Sensor1 0,8*100= 80
Sensor2 0,9*110= 99
Sensor3 0,95*90= 85,5
80+99+85,5 = 264,5

264,5/2,65= 99,8 <<< !

2.Fall:
Sensor1 0.8*20 = 16
Sensor2 0,9*30= 27
Sensor3 0,95*5= 4,75
16+27+4,75 = 47,75

47,75/2,65 = 18,65 <<< !


schein tendenziell doch zu stimmen, was meint ihr (insb. wenn man jetzt nicht nur 3, sondern deutlich mehr Sensoren hätte, und wenn man genauert definiert, was ein Ausreißer ist und was nicht)?

- - - Aktualisiert - - -

jetzt mal mit Kehrwert der Standardabw.:

Standardabw.
20% =0,2; Kehrwert = 1/0,2 = 5
10% =0,1; Kehrwert = 1/0,1 =10
5% =0,05; Kehrwert = 1/ 0,05 = 20

Summe aller Kehrwerte:
5+10+20 = 35


1.Fall
Sensor1 5*100= 500
Sensor2 10*110= 1100
Sensor3 20*90= 1800
500+1100+1800 = 3400

3400/35 = 97,14<<< !

2.Fall:
Sensor1 5*20 = 100
Sensor2 10*30= 300
Sensor3 20*5= 100
100+300+100 = 500

500/35 = 14,28 <<< !


sieht auch vernünftig aus!
Hier bei den Kehrwerten der Standardabw. wird die Sensorgenauigkeit etwas stärker gewichtet als oben bei der "Zuverlässigkeit"=(1-Standardabweichung), das würde ich dann auch tatsächlich bevorzugen!



edit, ergänzt:
Variante: Varianz statt Standardabweihung:

jetzt also mit Kehrwert der Varianzen gewichtet:

Standardabw. Varianz Kehrwert
0,2 -> 0,04 Kehrwert = 25
0,1 -> 0,01; Kehrwert = 100
5% =0,025; Kehrwert = 400
Summe aller Kehrwerte: 525


1.Fall
Sensor1 25*100= 2500
Sensor2 100*110= 11000
Sensor3 400*90= 36000
Summe = 49500

49500/525= 94,3 <<< !



2.Fall:
Sensor1 25*20 = 500
Sensor2 100*30= 3000
Sensor3 400*5= 2000
Summe = 5500

5500/525= 10,5 <<< !

Moppi
01.09.2018, 10:50
- gestrichen -

Holomino
01.09.2018, 11:29
Standardabweichung und Varianz sind absolute Werte. Bei Deiner Aufgabenstellung wächst die Standardabweichung mit dem Messwert. Das berücksichtigst Du nicht.

HaWe
01.09.2018, 11:48
stimmt, ich habe sie selber (als rel. Fehler) näherungsweise ermittelt über den Messbereich (daher 5% oder 10% oder 20%), also

rel.Fehler = (Sollwert-Messwert) / Sollwert
die rel.Fehler dann quadriert,
dann alle Quadrate aufsummiert
durch die Anzahl der Messungen dividiert ("rel. Varianz")
und daraus die Wurzel gezogen ("rel.Standardabweichung")

Ich wüsste jetzt nicht, wie ichs besser machen könnte, hast du einen besseren, praktikableren Vorschlag?

Holomino
01.09.2018, 12:06
Ja, den hätte ich. Aber Du solltest selber darauf kommen, wenn Du darüber nachdenkst, was mit Deiner Abweichung absolut und relativ passiert, wenn Du die doppelte Distanz misst.

HaWe
01.09.2018, 12:35
Ja, den hätte ich. Aber Du solltest selber darauf kommen, wenn Du darüber nachdenkst, was mit Deiner Abweichung absolut und relativ passiert, wenn Du die doppelte Distanz misst.

die absoluten Ungenauigkeiten sind ja tatsächlich in etwa proportional zur Entfernung,
und die relativen Ungenauigkeiten, die hier einfließen, relativ gleichförmig über die Messdistanzen,
und ich messe ja die gleichen Sollwerte von Sensor zu Sensor.

D.h. wenn ein Hindernis in 10cm Entfernung ist, dann misst ein Sensor mit 5% SA exakter als einer mit 20% SA,
und wenn es in 1m Distanz ist, dann ebenfalls: in jedem Falle wären also die Messwerte gleichsinnig zu gewichten, was ich ja tue. (Klar wäre ein Kalmanfilter u.U schon besser!)


Von daher sehe ich jetzt noch nicht, was ich hier systematisch falsch machen würde -
Wie wäre also dein Vorschlag?

Holomino
01.09.2018, 12:38
Du denkst zu einfach.
Wenn Du zwei Sensoren mit 10% Messfehler hast, die 100cm und 120cm messen, liegt der gewichtete Mittelwert nicht bei 110cm. Absolut misst der eine auf +/-10cm, der andere auf +/-12cm genau.

HaWe
01.09.2018, 13:04
nein, sie messen beide bei 10% rel. Fehler auf 1m auf durchschnittlich (!) (absolut) 10cm genau, denn die Genauigkeit bemisst sich am echten Wert, nicht am (ggf. falsch gemessenen) Messwert,
und ist der echte Wert 120cm, dann haben beide mit 10% rel. Standardabw. 12cm durchschnittl. Messfehler.

einer mit 20% rel. Standardabw. hätte dann bei 1m allerdings 20cm durchschn. absoluten Fehler.

PS,
die Gewichtung erfolgt dann per Multiplikation der Messwerte mit dem Kehrwert der Unsicherheit, wie Wiki schrieb:

"Gewichtung von Messgrößen
In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten. Hierdurch wird erreicht, dass bei weiteren Berechnungen Werte mit kleineren Unsicherheiten entsprechend stärker gewichtet werden. "

Ich verstehe daher noch nicht, was hier systematisch wirklich falsch ist, und das Ergebnis gibt ja auch nur eine verlässlichere Tendenz, keine absolute erkenntnistheoretische Gewissheit!

- - - Aktualisiert - - -

ich rechne jetzt noch mal dein Beispiel mit zwei 10%-"unsicheren" Sensoren durch, wo einer 100cm misst und der andere 120cm:

S1: (1/0,1) *100 = 1000
S2: (1/0,1) *120 = 1200

(1/0,1) + (1/0,1) = 20

(1000+1200)/20 = 110

stimmt doch, oder?
In diesem Falle wäre das identisch mit dem arithm. Mittel, und bei 2 gleichermßen ungenauen Sensoren wäre das auch das, was ich statistisch erwarten würde.

Holomino
01.09.2018, 13:09
Was denn jetzt überhaupt? Ist's nun ein absoluter oder ein relativer Fehler, den Du angibst?

Wo findest Du denn im Wiki-Artikel irgendeine relative Angabe für den Fehler/ die Abweichung?
Da steht was von Standardabweichung - das ist eine feste mathematische Größe und die ist absolut. Die hat sogar 'ne Einheit.

HaWe
01.09.2018, 13:24
Was denn jetzt überhaupt? Ist's nun ein absoluter oder ein relativer Fehler, den Du angibst?

Wo findest Du denn im Wiki-Artikel irgendeine relative Angabe für den Fehler/ die Abweichung?
Da steht was von Standardabweichung - das ist eine feste mathematische Größe und die ist absolut. Die hat sogar 'ne Einheit.

Im Wiki-Artikel steht "Unsicherheit",

...verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten....
und für die Unsicherheit setze ich hier wie gesagt meine experimentell selber bestimmte, über den Messbereich hinweg durchschnittliche relative Standardabweichung (z.B. 10%) ein, genau wie du, wenn du in deinem Beispiel von "10%" sprichst.
Was wäre dein besserer Gegenvorschlag?

Holomino
01.09.2018, 14:34
10% von was? Von einem Meter? Warum setzt Du dann nicht 10cm ein?

HaWe
01.09.2018, 15:37
was würde das an Vorteil bringen, wenn das Messobjekt mit zu ermittelndem Abstand
a) ca. einen Meter oder
b) ca. 50cm oder
c) ca. 10 cm
entfernt ist?

Nach Vorraussetzung ist ja der durchschn. relative statistische Fehler über den gesamten Messbereich ziemlich konstant,
also bei 10%
10cm auf 1m,
5cm auf 50cm
und 1cm auf 10cm.

Daher setze ich die relative (prozentuale) stat. Unsicherheit ein und gewichte die verschiedenen Messergebnisse mit dem Kehrwert der relativen stat. Unsicherheit des jew. Sensors, d.h. ich vertraue den zuverlässigeren tendenziell mehr.

Holomino
01.09.2018, 15:39
Nu hör doch mal auf, um den heißen Brei zu reden und sag endlich, was Du da genau gemessen hast. Ich verstehe es sonst nicht!

Angaben über Messfehler haben im Allgemeinen nichts mit statistischen Annahmen zu tun. Wenn Dir ein Sensorhersteller eine 5%ige Genauigkeit nebst +/-2 Bit des Messwertes garantiert, musst Du nicht annehmen, dass das Teil wegen Rauschen auch mal (wenn auch nur selten) bei -20% liegt. Wenn dem so ist, läuft etwas systematisch (nicht stochastisch) schief. Ein Millimetermaß wirst Du auch nicht dazu zwingen können, 20mm falsch zu messen, wenn Du es richtig anlegst. Von selbst rauscht die Skala auf jeden Fall nicht um 20mm.

Daher noch einmal zum Ankreuzen, meinetwegen auch exklusiv nur für mich Deppen:
a) Du hast bei 1m gemessen und nach Deiner Formel zur Standardabweichung 10% (also absolut 10cm) herausbekommen.

oder
b) Du hast bei unterschiedlichen Distanzen gemessen und immer das gleiche Ergebnis von 10% relativ auf den Messwert bezogen bekommen.

Zur Erläuterung noch einmal: Die relative Standardabweichung gibt's auch, das ist der Variationskoeffizient. Im Wiki steht allerdings nix vom Einsetzen des Variationskoeffizienten. Und rein rechnerisch ergeben sich unterschiedliche Ergebnisse beim Einsetzen der beiden Werte.

Das gibt MIR zumindest zu denken.

HaWe
01.09.2018, 16:33
wieso heißer Brei?
ich habe doch oben geschrieben, wie ich den durchschn. relativen stat. Fehler selber bestimmt habe - also nochmal:

Jeder Sensor wird gemessen
10x bei 10cm Objektabstand
10x bei 20cm Objektabstand
10x bei 30cm Objektabstand
10x bei 40cm Objektabstand
10x bei 50cm Objektabstand
10x bei 60cm Objektabstand
usw.
und bei jeder Messung wir der rel. Messfehler bezogen auf den echten Objektsabstand bestimmt.

Vorteil:
ich kann die Stichprobe, die ich hier mache, meinen echten Umweltbedingungen anpassen.

Alle rel. Einzelfehler werden quadriert, dann aufsummiert,
dann wird diese Summe durch die Anzahl der Messungen dividiert (Durchschnittsbildung),
daraus die Wurzel.

Bsp.:
echt 50cm, gemessen: 48, rel. Fehler = (50-48 )/50= 2/50 = 0,04
echt 70cm, gemessen: 75, rel. Fehler = (70-75)/70 = -5/70 = -0,07

Hätte ich jetzt nur diese 2 Werte, und nicht 100, ergäbe das beispielsweise:
0,04² + (-0,07)² = 0,0016 + 0,0049 = 0,0065
/2 = 0,00325 // Varianz
daraus Wurzel = 0,057 = 5,7% // Standardabweichung


Was man bekommt, ist ein statistischer, durchschnittlicher relativer "Abweichungswert" (Unsicherheitswert), den der Sensor über den gesamten Messbereich produziert; nach den Rechenschritten entspricht dies der Ermittlung der (relativen) Standardabweichung aus den (relativen) Messfehlern.

Dieser Wert mag beim einen Sensor bei 0.05 (5%), beim anderen bei 0.1 (10%) und beim dritten bei 0.2 (20%) liegen.
Diese Werte im TOP sind beispielhaft und idealisiert, um das Prinzip des Problems zu verdeutlichen.

- - - Aktualisiert - - -

edit:
(habs grade noch mal nachgerechnet, jetzt müssten die Beispielwerte stimmen)

Holomino
01.09.2018, 17:29
Also gut.
Du setzt also den Variationskoeffizienten statt der Standardabweichung in die Berechnung des gewichteten Mittelwertes ein.
Du bist sicher, dass das funktioniert?

Warum steht dann im Artikel "Standardabweichung" und insbesondere: Warum kommt beim Einsetzen der Standardabweichung etwas anderes heraus?
Zitat: In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten. Hierdurch wird erreicht, dass bei weiteren Berechnungen Werte mit kleineren Unsicherheiten entsprechend stärker gewichtet werden.

Folge dem Link "Unsicherheiten". Auch das sind absolute Angaben.

Mal ein kleines Experiment dazu: Wenn ich o.g. Werte in eine Kreuzkorrelation einsetze (Berechne für jede tatsächliche Distanz die Plausibilität anhand der Summe der Gauss-Wahrscheinlichkeiten beider Messwerte) kommt da auch nicht das Optimum in der Mitte beider Distanzen.

33597

HaWe
01.09.2018, 17:48
Warum steht dann im Artikel "Standardabweichung" und insbesondere: Warum kommt beim Einsetzen der Standardabweichung etwas anderes heraus?

da steht nicht "Standardabweichung", sondern Unsicherheiten !
Ich hatte es bereits einmal angemerkt, s.o.!

In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten.

Was schlägst du also als "Unsicherheiten" vor, zumal die absoluten Fehler ja lt. Vorraussetzung stark von der Messdistanz abhängen, anders als die rel. Fehler, die als "Unsicherheiten" über den gesamten Messbereich ziemlich konstant sind?

Die absolute Standardabweichung über den kompletten Messbereich macht eher keinen Sinn, denn wenn diese ca. 20 beträgt (bes. groß durch die Fehler bei größeren Distanzen), dann bekäme ich bei einer Distanz von 10cm ein teilw ins Negative reichende Gauss-Kurve.

Holomino
01.09.2018, 17:50
Die Unsicherheit ist im Wiki verlinkt. Lese da weiter. Das ist auch ein Absolutwert.

HaWe
01.09.2018, 18:06
Die Unsicherheit ist im Wiki verlinkt. Lese da weiter. Das ist auch ein Absolutwert.
nein, das wird nicht eindeutig definiert, nur darauf hingewiesen, dass es ein Absolutwert und ebenfalls ein Schätzwert ist und es verschiedene Bestimmungsmethoden gibt.
Dass dieser identisch sein soll mit der absoluten Standardabweichung und NICHT der relativen, oder auch etwas ganz anderem, das steht dort nicht (zumindest nicht gefunden).

Wenn ich dich aber richtig verstehe, würdest du die absolute Standardabweichung verwenden, ja?

Holomino
01.09.2018, 18:30
Naja, aus dem Notationskapitel geht's ja recht eindeutig hervor, was gemeint ist.

Und eine leichte Verschiebung in die eine oder andere Richtung kommt mit (nach einigem schrägen Denken) absolut logisch vor. Zumindest mit der folgenden Argumentation:
Bevorzuge den "besseren" Sensor in der Gewichtung. Bei gleichem Variationskoeffizienten und gleicher Trefferwahrscheinlichkeit misst der Sensor mit dem kürzeren Messwert zumindest hypothetisch besser (weil absolut ein kleinerer Fehler zu erwarten ist).

HaWe
01.09.2018, 19:02
Naja, aus dem Notationskapitel geht's ja recht eindeutig hervor, was gemeint ist.

meinst du mit Notationskapitel das hier:

Zu einem Messergebnis als Näherungswert für den wahren Wert einer Messgröße soll immer die Angabe einer Messunsicherheit gehören. Diese grenzt einen Wertebereich ein, innerhalb dessen der wahre Wert der Messgröße mit einer anzugebenden Wahrscheinlichkeit liegt (üblich sind Bereiche für ungefähr 68 % und ungefähr 95 %). Dabei soll der als Messergebnis verwendete Schätzwert oder Einzelmesswert bereits um bekannte systematische Abweichungen korrigiert sein.[1]

68% stat. Wahrscheinlichkeitsbereich liegt ja innerhalb +/- 1 sigma, und 95% zwischen +/- 2 sigma um den echten Wert herum. (edit: sigma = Standardabweichung)
Dabei wird aber auch auf den "GUM" zur Ermittlung verwiesen, und hier heißt es

Das Beiblatt beschreibt die Anwendung der Monte-Carlo-Methode zur Ermittlung der Messunsicherheit.
Dese Monte-Carlo-Methode allerdings hat ja nichts mehr mit der Berechnung der Gaussschen Standardabweichung zu tun.

Was also ist genau dein Vorschlag, um rechnerisch
verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten ?

Holomino
01.09.2018, 19:31
Wie gesagt, ich gehe da 'nen anderen Weg.

Das Wertbildung über mehrere Sensoren sehe ich gar nicht als so kritisch. Was mich viel mehr bei der Fusion interessiert, ist die systematische Identifikation von Ausreißern und die Bestimmung eines Gütefaktors des so gemeinsam generierten Wertes. Der Wert mag besser sein, aber seine Unschärfe hat er über die Fusion nicht verloren.

33598

Das Bild zeigt mal drei unterschiedliche Fälle, in denen ich nur die Distanz des "besten" Sensors verschiebe. Ohne irgendwelche Ausnahmeregeln oder Thresholds zu definieren, zeigt sich schon über die Summe der Wahrscheinlichkeiten zu einer vermuteten "wahren" Distanz, wie der "genaue" Sensor immer mehr zum Ausreißer wird.

HaWe
01.09.2018, 19:49
bei mehreren unterschiedlichen Sensoren kann ja der zuverlässigste Sensor mit 1% Wahrscheinlichkeit auch einen Wert außerhalb von +/- 3 sigma liefern, also bei 1m und sigma=5 z.B. >115
oder mit 5% Wahrsch. (2*sigma) <90 oder >110,
und ein unzuverlässigerer kann durchaus bei 1m und sigma=20 den echten Wert auf den Kopf treffen oder auch bei 95 landen bzw. mit 68% Wahrsch. (1*sigma) irgendwo zwischen 80 und 120.

Nur statistisch wird es sich den echten Verhältnissen auf lange Sicht annähern.
Wenn du also misst, weisst du nicht, wer recht hat, du musst dich auf statistische Funktionen zurückziehen, die mit größtmöglicher Wahrscheinlichkeit den tatsächlichen Wert am besten approximieren.

Ich verstehe jetzt daher noch nicht, wie du die Fälle 1+2 aus dem TOP in "deiner Weise" ausrechnen willst, anders als mit einem per "Vertrauenskoeffizienten" gewichteten Durchschnitt?

Holomino
01.09.2018, 20:15
Angenommen ich habe Deine drei Messwerte von ganz am Anfang.
- Ich nehme rein intuitiv eine reale Distanz an, z.B. 90cm.
- Ausgehend von diesen 90cm berechne ich über die Gaussfunktion für den ersten Sensor die Wahrscheinlichkeit aus (Standardabweichung = 90cm * Variationskoeffizient, Messwert ist direkt angegeben).



private double NormalizedGaussFromValue(double value, double average, double stdDeviation)
{
return Math.Exp(-0.5 * Math.Pow((value - average) / stdDeviation, 2))
/ (Math.Sqrt(2*Math.PI) * stdDeviation);

}

private double EqualizedGaussFromValue(double value, double average, double stdDeviation)
{
return Math.Exp(-0.5 * Math.Pow((value - average) / stdDeviation, 2));
}


value ist der Messwert
average ist der angenommene Scheitelpunkt der Kurve
stdDeviation ist die Standardabweichung


- Das mache ich einmal für die normalisierte Form (Integral der Glocke ist 1) und einmal für die egalisierte Form (Scheitelwert ist 1. Merke, der Scheitelwert wird nur durch den Bruchnenner normalisiert).

- Das gleiche rechne ich auch für die anderen beiden Sensorwerte aus.
- Summiere ich die Wahrscheinlichkeiten der drei Sensoren für die angenommene Distanz auf, bekomme ich eine normalisierte und eine egalisierte Gesamtwahrscheinlichkeit für die Annahme, dass meine Distanz real bei 90 cm liegt. Aber die Frage stellt sich: Wird dieser ermittelte Wert besser, wenn ich eine andere Distanz als realen Wert annehme?
- Also tickere ich alle möglichen Distanzen einmal durch und schaue, wo Maxima in den Kurven liegen (Kreuzkorrelation).

Die egalisierten Werte machen dabei die einzelnen Komponenten der Wahrscheinlichkeitssumme der drei Messwerte vergleichbar. Wo hier in der Kurve das Maximum zu finden ist, sollte sich mit der höchsten Wahrscheinlichkeit auch der reale Distanzwert befinden.

Der normalisierte Wert dient zur Abschätzung, welche Streuung das Ergebnis hat. Er zeigt im Vergleich zu den normalisierten Scheitelpunktwerten der Glockenkurven einzelner Sensoren die Qualität oder die Streuung.

(So ganz im Reinen bin ich mir da mit dem letzten Vergleich aber auch noch nicht. Der will noch nicht so, wie ich's erwarte.)

HaWe
01.09.2018, 20:58
- Ich nehme rein intuitiv eine reale Distanz an, z.B. 90cm.
- Ausgehend von diesen 90cm berechne ich über die Gaussfunktion

nein, du kannst keine reale Distanz annehmen, da du sie absolut nicht kennst!
du (und ich) haben keine Ahnung, rein keinen blassen Schimmer, was "da draußen" los ist,
wir haben nur die Sensoren und ihre Messwerte, mit bekannter Messgenauigkeit.

Der "reale Wert" kann Lichtjahre von den Messwerten entfernt liegen, und du kannst ja auf nem Arduino nicht schrittweise alle denkbaren Entfernungen per Gausskurve durch die gesamte Galaxis durchrechnen, und dann noch für 3,4,5,6 oder mehr Sensoren, und du hast von jedem Sensor auch nur genau 1 aktuellen Messwert.
(klar, das mit den Lichtjahren ist übertrieben, aber mit 3 Sensorwerten kann schon der gesamte Bereich von 5 bis 150cm abgedeckt werden!)

Beschränken wir uns aber jetzt auf die Fälle 1+2, wie genau sähe deine mathematische Berechnung aus (Arduino/AVR-kompatibel)?
analog schrittweise wie hier berechnet:
https://www.roboternetz.de/community/threads/72385-Sensorfusion-mit-unterschiedlicher-statistischer-Fehlerrate?p=646322&viewfull=1#post646322

- und wie lauten deine Ergebnisse für Fälle 1+2 als ausgerechnete Zahlen?

- dann könnte man dein Verfahren mal gut mit meinem bisherigen nach Aufwand und Ergebnis vergleichen.

Holomino
01.09.2018, 20:59
nein, du kannst keine reale Distanz annehmen, da du sie absolut nicht kennst!
du (und ich) haben keine Ahnung, rein keinen blassen Schimmer, was "da draußen" los ist,
wir haben nur die Sensoren und ihre Messwerte, mit bekannter Messgenauigkeit.

Natürlich kann ich das.
Das nennt man Hypothese. Über die Kreuzkorrelation testet man systematisch alle möglichen Hypothesen gegeneinander. Die beste Hypothese davon verspricht die größte Genauigkeit der Übereinstimmung. Wobei hier "Genauigkeit der Übereinstimmung" die größte Wahrscheinlichkeit darstellt, dass die hypothetische Distanz wirklich der realen Distanz entspricht.

HaWe
01.09.2018, 21:02
dann rechne es doch bitte mal vor, Schritt für Schritt, was kommt dann zahlenmäßig raus?

Holomino
01.09.2018, 21:05
Der "reale Wert" kann Lichtjahre von den Messwerten entfernt liegen, und du kannst ja auf nem Arduino nicht schrittweise alle denkbaren Entfernungen per Gausskurve durch die gesamte Galaxis durchrechnen, und dann noch für 3,4,5,6 oder mehr Sensoren, und du hast von jedem Sensor auch nur genau 1 aktuellen Messwert.
(klar, das mit den Lichtjahren ist übertrieben, aber mit 3 Sensorwerten kann schon der gesamte Bereich von 5 bis 150cm abgedeckt werden!)


Das würde alleine durch die Anzahl der Maxima (3!) in der Reihe der Hypothesen auffallen...
33599
… und kann auch gleich als Fehlmessung im Orkus verschwinden.

HaWe
01.09.2018, 21:14
wie gesagt, dann rechne es doch bitte mal vor, Schritt für Schritt, was kommt dann zahlenmäßig raus?

(Bei Arduino gibts übrigens auch keine Klasse Math, und deine Graphen habe ich auch nicht bei Arduino zur Verfügung, aber du kannst ja die echte mathematische Formel dafür hinschreiben;

edit: übrigens auch bei einer Fehlmessung eines oder zweier Sensoren brauche ich aber irgendein Ergebnis, eben das wahrscheinlichste.)

Holomino
01.09.2018, 22:09
wie gesagt, dann rechne es doch bitte mal vor, Schritt für Schritt, was kommt dann zahlenmäßig raus?

Kein Problem! Du findest im Log sämtliche relevanten Eingangswerte, Zwischenergebnisse sowie die übers Maximum bestimmten Bestfit-Werte


==========================================
Sensor1 Dist: 0120 rel. deviation: 0,20
Sensor2 Dist: 0100 rel. deviation: 0,10
Sensor3 Dist: 0090 rel. deviation: 0,05
==========================================
Hypothetic dist:90 (dev1: 18,00 dev2: 9,00 dev3: 4,50)-->Norm.: 0,1181 Eq.: 1,7888
Hypothetic dist:91 (dev1: 18,20 dev2: 9,10 dev3: 4,55)-->Norm.: 0,1186 Eq.: 1,8703
Hypothetic dist:92 (dev1: 18,40 dev2: 9,20 dev3: 4,60)-->Norm.: 0,1154 Eq.: 1,9092
Hypothetic dist:93 (dev1: 18,60 dev2: 9,30 dev3: 4,65)-->Norm.: 0,1095 Eq.: 1,9141
Hypothetic dist:94 (dev1: 18,80 dev2: 9,40 dev3: 4,70)-->Norm.: 0,1019 Eq.: 1,8962
Hypothetic dist:95 (dev1: 19,00 dev2: 9,50 dev3: 4,75)-->Norm.: 0,0937 Eq.: 1,8661
Hypothetic dist:96 (dev1: 19,20 dev2: 9,60 dev3: 4,80)-->Norm.: 0,0857 Eq.: 1,8325
Hypothetic dist:97 (dev1: 19,40 dev2: 9,70 dev3: 4,85)-->Norm.: 0,0784 Eq.: 1,8014
Hypothetic dist:98 (dev1: 19,60 dev2: 9,80 dev3: 4,90)-->Norm.: 0,0722 Eq.: 1,7758
Hypothetic dist:99 (dev1: 19,80 dev2: 9,90 dev3: 4,95)-->Norm.: 0,0670 Eq.: 1,7562
Hypothetic dist:100 (dev1: 20,00 dev2: 10,00 dev3: 5,00)-->Norm.: 0,0628 Eq.: 1,7419
Hypothetic dist:101 (dev1: 20,20 dev2: 10,10 dev3: 5,05)-->Norm.: 0,0594 Eq.: 1,7309
Hypothetic dist:102 (dev1: 20,40 dev2: 10,20 dev3: 5,10)-->Norm.: 0,0565 Eq.: 1,7213
Hypothetic dist:103 (dev1: 20,60 dev2: 10,30 dev3: 5,15)-->Norm.: 0,0541 Eq.: 1,7112
Hypothetic dist:104 (dev1: 20,80 dev2: 10,40 dev3: 5,20)-->Norm.: 0,0519 Eq.: 1,6993
Hypothetic dist:105 (dev1: 21,00 dev2: 10,50 dev3: 5,25)-->Norm.: 0,0499 Eq.: 1,6845
Hypothetic dist:106 (dev1: 21,20 dev2: 10,60 dev3: 5,30)-->Norm.: 0,0480 Eq.: 1,6666
Hypothetic dist:107 (dev1: 21,40 dev2: 10,70 dev3: 5,35)-->Norm.: 0,0461 Eq.: 1,6453
Hypothetic dist:108 (dev1: 21,60 dev2: 10,80 dev3: 5,40)-->Norm.: 0,0442 Eq.: 1,6209
Hypothetic dist:109 (dev1: 21,80 dev2: 10,90 dev3: 5,45)-->Norm.: 0,0423 Eq.: 1,5939
Hypothetic dist:110 (dev1: 22,00 dev2: 11,00 dev3: 5,50)-->Norm.: 0,0404 Eq.: 1,5647
Hypothetic dist:111 (dev1: 22,20 dev2: 11,10 dev3: 5,55)-->Norm.: 0,0386 Eq.: 1,5339
Hypothetic dist:112 (dev1: 22,40 dev2: 11,20 dev3: 5,60)-->Norm.: 0,0368 Eq.: 1,5019
Hypothetic dist:113 (dev1: 22,60 dev2: 11,30 dev3: 5,65)-->Norm.: 0,0351 Eq.: 1,4694
Hypothetic dist:114 (dev1: 22,80 dev2: 11,40 dev3: 5,70)-->Norm.: 0,0334 Eq.: 1,4366
Hypothetic dist:115 (dev1: 23,00 dev2: 11,50 dev3: 5,75)-->Norm.: 0,0318 Eq.: 1,4039
Hypothetic dist:116 (dev1: 23,20 dev2: 11,60 dev3: 5,80)-->Norm.: 0,0302 Eq.: 1,3715
Hypothetic dist:117 (dev1: 23,40 dev2: 11,70 dev3: 5,85)-->Norm.: 0,0288 Eq.: 1,3398
Hypothetic dist:118 (dev1: 23,60 dev2: 11,80 dev3: 5,90)-->Norm.: 0,0274 Eq.: 1,3088
Hypothetic dist:119 (dev1: 23,80 dev2: 11,90 dev3: 5,95)-->Norm.: 0,0261 Eq.: 1,2787
Hypothetic dist:120 (dev1: 24,00 dev2: 12,00 dev3: 6,00)-->Norm.: 0,0249 Eq.: 1,2494
Normalized optimal probability 0,119 at distance 91
Equalized optimal probability 1,914 at distance 93
==========================================

Soll ich Dir die Zwischenschritte jetzt noch mit nem Taschenrechner herleiten oder schaffst Du den Rest selbst?



(Bei Arduino gibts übrigens auch keine Klasse Math, und deine Graphen habe ich auch nicht bei Arduino zur Verfügung, aber du kannst ja die echte mathematische Formel dafür hinschreiben;

Das Bild hast Du selber aus Wikipedia in einem Deiner vorherigen Posts kopiert. Die Formel darunter hast Du nicht gesehen? Such noch mal Dichtefunktion im rechten Kasten bei https://de.wikipedia.org/wiki/Normalverteilung. Neben KlickiBunti-Bildern bekommt man da auch ne Funktion, die Dir für ein x bei gegebenem Sigma und µ den Wert der Kurve zurückgibt. (Das y= oder f(x)= davor musst Du Dir allerdings denken.)



edit: übrigens auch bei einer Fehlmessung eines oder zweier Sensoren brauche ich aber irgendein Ergebnis, eben das wahrscheinlichste.)
Nein, wenn Du jemals ein fehlertolerantes System programmiert hast, dann kommst Du zu der Erkenntnis, dass Du das nicht brauchst. Da sind unplausible Messergebnisse genauso zu behandeln, wie fehlerhafte Eingangsparameter einer Funktion. Die fängt man ab.

Moppi
02.09.2018, 07:43
Ich versuche es noch mal. Anhand meines Beispiels. Ob die Toleranzen jetzt so von HaWe gemeint sind oder nicht. Ist ja erst mal egal. Wichtig ist, ich habe 3 Sensoren mit Streuung der Werte. Ich denke, in dem Beispiel kann man das Streuung oder Toleranz nennen, man kann es auch Messfehler nennen. Meint für mich erstmal dasselbe: gemessene Werte befinden sich innerhalb gewisser Grenzen. Bei einem Sensor kann der Wert bis zu 20% betragen, bei Anderen weniger. Es könnte auch passieren, dass die Werte von den Sensoren teils außerhalb dieses Rahmens liegen. Diese Werte könnte man sicher irgendwie rausfiltern, da man 3 Sensoren hat, die man vergleichen kann. Fällt der Wert eines Sensors damit raus, hat man nur noch die Werte zweier Sensoren. Fallen 2 Werte raus, hat man nur noch einen Sensorwert. Man müsste sich hier entscheiden, auf welchen man sich am meisten verlassen kann, bzw. welchem man "vertraut" um den kleinstmöglichen "Schaden" anzurichten. Mit Schaden meine ich, dass man sich bei einem Entfernungssensor lieber einen größeren Wert berücksichtigt, als einen kleineren, damit es nicht zur Kollision kommt, falls dass das Ziel sein sollte. Es kann auch andere Ziele geben, bei denen die Werte anders gewichtet würden.

1. Messung: 100cm, Fehler: +/-20%
2. Messung: 110cm, Fehler: +/-10%
3. Messung: 90cm, Fehler: +/-5%

Mittelwert aller Messungen: 100cm, Fehler über alle: +/-11.7% (tatsächliche Entfernung: 88.3cm bis 117cm).

Den dritten Sensor würde ich als am verlässlichsten einstufen, weil der die geringste Streuung hat. Sensor 3, 3.Messung, tatsächliche Entfernung: 85.5cm bis 94.5cm, weil Fehler: +/-5%.

Jetzt könnte man das eindämmen. Ich denke hier, dass ich für eine möglichst genaue Messung, versuche den Wert zu finden, der dem Mittelwert am nächsten kommt, aber irgendwie auch wahrscheinlich ist. Ich müsste mich also mit meiner Betrachtung auf die 100cm zu bewegen.

Frage, was ist der unterste Grenzwert, den ich annehmen könnte? Hier kommt es drauf an, welche Gewichtung ich ansetze: verlasse ich mich auf eine Mittelung der Werte aller Sensoren oder nur auf einen einzigen Sensor?
Ich habe mich für den unteren Grenzwert für die Mittelung entschieden:

Der untere Grenzwert ist wohl: 88.3cm.

Beim oberen Grenzwert muss man sich auch überlegen, was einem wichtig ist. Daher habe ich mich für den Wert entschieden, der mir der 3. Sensor garantiert:

Der obere Grenzwert ist wohl: 94.5cm.

Frage, warum ich mich so entschieden habe?
Ich versuche, den genauesten Wertebereich zu treffen, in welchem sich der tatsächliche Entfernungswert befinden könnte. Deshalb habe ich die Werte gewählt, die meinem Ziel (dem errechneten Mittelwert der Daten, der 3 Sensoren) am nächsten liegen. Deshalb 88.3 und 94.5.

Allerdings ist in diesem Beispiel kein genauer Wert zu errechnen, ich treffe nur eine Aussage und entscheide mich indirekt damit für einen Wert, der dem idealen Wert nicht entsprechen muss.

Wobei ich ehrlich sagen muss, dass ich den Sinn von Anfang an nicht ganz verstehe. Eine Sensorfusionierung, also ganz einfach gesagt: das Zusammenführen verschiedener Daten zu einem Gesamtbild und damit zu einem momentan endgültigen Ergebnis, setzt nach meinem Verständnis immer voraus, dass man die Umgebungsbedingungen, die Anforderungen an das Ergebnis (Gewichtung der Daten) und die Sensoren, speziell für eine Aufgabe festlegen muss. Für eine Entferungsmessung könnte ich mir vorstellen: Mediumdruck, Mediumdichte, Mediumtemperatur, Sensortemperatur etc... Würde man alles einkalkulieren was irgend denkbar ist, hätte man vermutlich einen fast 100%ig sicheren Wert, nach Fusionierung.

Um das jetzt zu entkomplizieren wäre hier auch die Frage: warum verlässt man sich nicht auf den Sensor mit der geringsten Streuung der Messwerte, wenn alle drei Sensoren dieselbe Min-/Max-Entferung abdecken? Dann kann man 3 dieser Sensoren oder auch 5 dieser Sensoren mit geringer Streuung wählen und mit diesen Sensordaten eine vernünftige Aussage treffen. Oder man verwendet gleich eben nur einen Sensor und geht das Ganze anders an.

Alle komplexen Formeln, die man gefunden hat und die sich bewährt haben, stellen auch immer Anforderungen. Es gibt Bedingungen an die Sensoren und die Umgebung, damit diese Formeln einen Wert auswerfen, der ziemlich verlässlich ist.


----

Wenn man davon ausgeht, dass die drei Sensoren normal messen und eine gewisse Streuung haben (idealerweise gleichmäßig, um den idealen Messwert herum), so nimmt man wohl den Mittelwert aller drei Sensorergebnisse und ist fertig.

Misst ein Sensor 110cm, bei einer max. Streuung von +/-10%, so liegt das Ergebnis im Bereich 99cm bis 121cm. Um also genauere Werte zu errechnen, benötigt man weitere Daten der Messung bzw. Messumstände und die Kenntnis, wie sich dies auf die Sensorgenauigkeit auswirkt. Nach Fusionierung erhält man dann einen genaueren, berechneten Wert.
Mit Pech liegen auch alle drei Sensoren daneben, weil allen drei Sensoren dieselbe Störung zugrunde liegt.

Fazit: Wenn ein Sensor mit der Messung zum Beispiel 1cm über dem tatsächlichen Wert liegt, der Zweite Sensor 1cm darunter und der Dritte 2cm darunter, wie kommt man dann mit irgendeiner Formel dieser Welt dem tatsächlichen Wert am nächsten, wenn keine weiteren Umstände bekannt sind? Antwort: gar nicht. Warum? Antwort: weil man nicht weiß, welcher Sensor gerade welche Ungenaugkeit bei der Messung aufweist. Für den - in dem Fall - wahrscheinlichsten Wert, nimmt man das Mittel aller drei Sensorergebnisse, um sich dem idealen Messwert zu nähern. Mehr geht hier nicht. Je mehr Messungen oder Sensoren man hat, steigt die Wahrscheinlichkeit, dass das Mittel aller Werte dem Idealwert möglichst nahe ist.

Einen genaueren Messwert kann man ableiten, wenn man zuvor Vergleichsmessungen machte. Was HaWe ja schon getan hat, um zu sehen, wieviel die Sensoren ca. streuen. Das allein reicht aber nur aus, um die Toleranz des Ergenisses, in Bezug zur Entfernung zu kennen. Ohne weitere Messreihen lässt sich nichts Genaueres ableiten. HaWe hat ja nur ermittelt, weiviel die Sensoren im gesamten Messbereich (von ..cm bis ..cm) vom idealen Wert abweichen können. Je mehr Messreihen man hat, die unter verschiedenen Bedingungen gemacht wurden, je genauer kann man eine endgültige Formel aufstellen. Hier brauchts dann aber wahrscheinlich wieder weitere Sensoren, um die Bedingungen während der Messung zu erfassen. Dann kommt man zur Sensorfusionierung und kann den nun einmalig gemessenen Wert ziemlich exakt einschätzen und letztlich auf einen genaueren Wert schließen.

HaWe
02.09.2018, 10:05
moin!
Danke für eure Beiträge!

also das Ziel ist ja, wenn z.B. alle ca. 20ms eine neue Gruppe von 3 Sensoren (oder 4,5,6 oder7) je 1 neuen Messwert poduziert, dass man aus den 3er- (4er, 5er,...)-Gruppen schnell einen brauchbaren Wert erhält,mit dem man eine Abschätzung der tatsächlichen Entfernung enhält, die wahrscheinlih näher am echten Wert liegt als jeder Einzelwert für sich betrachtet.

@Holomino
Wenn diese (beispielhaft) drei Werte jetzt im Messbereich über eine Distand von 30cm verteilt sind (oder mehr, oder weniger), dann macht es doch einen Riesen-Aufwand, hier in 1cm-Schritten e-Funktionen auf jedem Zwischenpunkt aufzusetzen, dort mit den Sensorwerten durchzurechnen (die Rechnung wurde ja leider noch gar nicht genannt) per "hypthetic Distance", um dann nachzusehen, um dann anschließend das Maximum dieser 30 Werte (oder mehr, oder weniger) für "Eq." zu suchen.

@Moppi:
dass der gesuchte Wert irgendwo im Intervall zwischen min und max liegen muss, ist ja klar, und zwar vermutlich auch näher am Wert des zuverlässigsten Sensors, aber wie programmierst du es, dass er das Optimum der Vorhersage, das irgendwo in der Nähe liegen mag, wirklich findet? Und wie machst du es, wenn du 2 oder 3 sehr zuverlässige Sensoren hast mit divergenten Werten, und noch 5 oder 6 weniger zuverlässige zusätzlich?
Die Fälle 1+2 im TOP Beispiel waren ja nur idealisierte, vereinfachte Anschauungsbeispiele. Tatsächlich sind solche Probleme aber statistisch lösbar, der Kalmanfilter oder die Monte-Carlo-Methode sind nur 2 Beispiele für Lösungsalgorithmen, allerdings rechnerisch recht aufwändig, andere wären Quadratur-Filter, Gaußsummenfilter oder Projektionsfilter. Um solche Filter (allerdings vereinfachte Algorithmen) geht es hier.

Schaut man sich jetzt das Ergebnis "93" von Holomino an, bin ich mir schon sehr sicher, dass es die Realität sehr gut treffen wird, denn ich arbeite hier ja wahrscheinlich mit den Gauss Glockenkurven (auch wenn in Holominos Post keine Formel genannt wurde) und nicht mit einfachen gewichteten arithmetischen Durchschnitten.
@Holomino: meinst du Dichtefunktion und Verteilungsfunktion und Fehlerfunktion hintereinander ausgeführt?
https://wikimedia.org/api/rest_v1/media/math/render/svg/fdee1b5de19b7bbb36cdf04055e029134a113f34
https://wikimedia.org/api/rest_v1/media/math/render/svg/016caa68c327ccedaf1456a63824dd4d174502d5
https://wikimedia.org/api/rest_v1/media/math/render/svg/58f725620dd66eaff88307106e3400a445ca4e4f

Bei den gewichteten Durchschnitten, die ich oben nach manfs Link per einfacher Addition, Multiplikation und Division ausgerechnet habe, kam ich auf 97, das ist nach Holominos Tabelle nach 4 Rechen-Zeilen um ca. 4% schlechter.
https://www.roboternetz.de/community/threads/72385-Sensorfusion-mit-unterschiedlicher-statistischer-Fehlerrate?p=646322&viewfull=1#post646322


@Holomino
Zunächst: Leider fehlt bei dir noch Fall 2 zum Vergleich, das könnte noch hilfreich sein.
Die Frage ist nun aber, lohnt sich der Aufwand, hier dutzende e-Funktionen an verschiedenen theoretischen Punkten aufzusetzen und durchzurechnen,
und das alle 20ms, also 50x pro Sekunde,
schafft das ein Arduino auch sicher, und hat er noch Zeit dann für andere Dinge, z.B. die Weiterverarbeitung dieser Daten und die Ortung und Navigation etc.?

Wie schätzt du selber den relativen Aufwand deiner Methode ein, lohnt sich der Aufwand deiner Meinung nach?

- Oder empfiehlt sich anstelle des "Kehrwerts der relat.Standardabweichung" ein anderer Faktor, um den gewichteten Durchschnitt anders und besser zu gewichten?
Du, Holomino, hattest ja einen anderen Kehrwert als diesen angesprochen, welchen meintest du denn seinerzeit? (Die Frage war ja noch offen)

- - - Aktualisiert - - -

nochmal @ moppi:
die Liste
1. Messung: 100cm, Fehler: +/-20%
2. Messung: 110cm, Fehler: +/-10%
3. Messung: 90cm, Fehler: +/-5%

heißt ja nicht, dass die Messwerte IMMER innerhalb dieser Grenzen liegen müssen, es ist nur ein gewisses Wahscheinlichkeitsniveau (68%), dass das so ist.
Jeder dritte Wert (32%) liegt statistisch also immer außerhalb dieser Standardabweichung, das sind bei 50 messungen pro Sekunde für jeden Sensor immerhin 15-20 Messungen, die regelmäßig, statistisch betrachtet, stärker abweichen (teilw. auch extremer), und das tun sie statistisch völlig regelrecht (Glockenkurve), das wären dann also noch nicht einmal statistische "Ausreißer" . Bei der statistischen Auswertung darf man sich daher nicht auf diesen nur scheinbar engen Fehlerbereich beschränken.

Manf
02.09.2018, 10:27
Ich habe die Dichtefunktionen der drei Sensoren für die erste Messung einmal aufgetragen, wobei das Integral der Kurven jeweils 1 ist. Das Integral der Wahrscheinlichkeitsdichte pro Intervall gibt an, wie hoch die Wahrscheinlichkeit ist, dass der Wert im entsprechenden Intervall liegt.
33600
Zur Zusammenführung kann man grundsätzlich (!) für jedes Intervall berechnen, wie groß die Wahrscheinlichkeit ist, dass er es das richtige ist. Man erhält dadurch eine neue Dichtefunktion.
Bei nur einer Messung ist die Wahrscheinlichkeit für einen Wert höher als wenn noch eine Messung hinzukommt, die eine andere Aussage macht. Es kommt zu einer bedingten Wahrscheinlichkeit, für die die Werte miteinander multipliziert werden.

Das ist grundsätzlich interessant, für die aktuelle Aufgabe bin ich auch froh, dass es eine grundsätzliche Lösung in Wikipedia gibt.
(Das Beispiel deutet sicher auch auf eine systematische Abweichung hin, aber es dient ja hier wie beschrieben auch mehr zur Veranschaulichung.)

HaWe
02.09.2018, 10:43
einer spontanen Eingebung folgend, und weil Holominos Werte noch näher am besseren Sensorwert lagen als meine zuletzt selber berechneten, habe ich jetzt einmal die relativen Varianzen zur Gewichtung verwendet statt der rel. Standardabweichungen (Wurzel aus Varianz = Standardabweichung, die waren ja bereits ausgerechnet):

Variante: Varianz statt Standardabweichung:

jetzt also mit Kehrwert der Varianzen gewichtet:

Standardabw.->Varianz; Kehrwert
sigma1= 0,2 -> 0,04; Kehrwert = 25
sigma2= 0,1 -> 0,01; Kehrwert = 100
sigma3= 0,05 ->0,025; Kehrwert = 400
Summe aller Kehrwerte: 525


1.Fall
Sensor1 25*100= 2500
Sensor2 100*110= 11000
Sensor3 400*90= 36000
Summe = 49500

49500/525= 94,3 <<< !



2.Fall:
Sensor1 25*20 = 500
Sensor2 100*30= 3000
Sensor3 400*5= 2000
Summe = 5500

5500/525= 10,5 <<< !

@Holomino:
Der Wert vom Fall 1 liegt also jetzt schon verdammt nah an deinem Wert, jetzt wäre wirklich deiner vom Fall 2 interessant!

- - - Aktualisiert - - -

danke manf, sehr anschaulich! hat sich mit meinem Post hier überschnitten

Moppi
02.09.2018, 12:11
Um welche Filter es gehen kann, ist mir schon klar geworden. Allerdings brauchst Du, um die Filter anzuwenden, immer die Voraussetzungen dafür. Man muss prüfen, ob die Werte, die hier geliefert werden zum Filter passen, damit dieser ein brauchbares Ergebnis liefern kann. Man kann natürlich Verschiedene ausprobieren und schauen, ob irgendwas davon passt, also mir die passendsten Werte liefert. Aber man muss doch zunächst wissen, mit was man es zu tun hat.

HaWe Zitat: "heißt ja nicht, dass die Messwerte IMMER innerhalb dieser Grenzen liegen müssen, es ist nur ein gewisses Wahscheinlichkeitsniveau (68%), dass das so ist."

Ich habe das gelesen. Das macht es bei einmaliger Messung mit einem Sensor noch unwahrscheinlicher, dass Du damit irgendwie annähernd einen Näherungswert errechnest, der dem Sollwert entspricht. Hier kannst Du erst mal nur von Idealwerten ausgehen, sprich, Du nimmst an, dass Du den Fehler mitteln kannst (z.B.). Dazu müssen die Werte überwiegend in einem bestimmten Bereich liegen. Sollten aber mögliche und unmögliche Werte der Messungen gleichmäßig verteilt sein, hast Du ein noch viel größeres Problem, Deine errechneten Werte weichen noch stärker ab. Deshalb würde ich zunächst Messreihen machen und schauen, dass ich daraus was ableiten kann. Ich muss mit einundderselben Messmethode letzten Endes immer gleiche Voraussetzungen bei den Messwerten haben, damit meine rechnerische Ableitung immer hinhaut. Manche Hersteller bieten für die Sensoren vielleicht auch Module/Schaltungen an, die brauchbarere Messdaten liefern, weil der Hersteller ja die Sensoren kennt und schaltungstechnisch das u.U. ausgebügelt werden kann.

HaWe
02.09.2018, 13:50
nein, da muss ich widersprechen, ich mache ja "nur" eine statistische Auswertung auf der Basis von vorherigen Eich-Stichproben (100 Messwerte je Sensor) und der daraus berechneten stat. Varianzen und Standardabweichungen. Damit kann ich dann bei jeder Einzelmessung auf einem bestimmten Signifikanzniveau eine oder mehrere Aussagen mit jew. einer bestimmten Wahrscheinlichkeit treffen, und bei verschiedenen Aussagen kann ich die wahrscheinlichste heraussuchen.
Ein Kalmanfilter in 9D-IMUs oder ein Partikelfilter, der zur Ortung eingesetzt wird, macht das grundsätzlich nicht anders.

Moppi
02.09.2018, 18:44
Wenn ich das jetzt so verstehe, dass die Messwerte sich innerhalb einer Min-Max-Grenze befinden, aber nur zu ca. 68%, dann bleiben ca. 32% Messwerte übrig, die nicht für die Messung in dem gedachten Toleranzbereich taugen. Entweder folgen diese 32% einer Gesetzmäßigkeit, dann könnte man sie mehr oder weniger gut herausrechnen. Falls die 32% aber zufällig verteilt sind, kann man nie sagen, auch nicht annähernd, welcher der Werte zu diesen 32% gehört - vorausgesetzt 100% der Werte befinden sich im gültigen Messbereich, sonst könnte man sie aussortieren, weil sie schlicht die möglichen Grenzwerte einer Messung verlassen (das wäre anwendungsabhängig). Man könnte weiter annehmen, dass die Messwerte aller Sensoren zu einem Zeitpunkt zwar innerhalb des gültigen Bereichs liegen, aber zu den 32% Falschen gehören - das ergibt einfach eine Falschmessung. Denn, es wird ja nur einmal gemessen. die 32% könnte man, denke ich, nur durch Mehrfachmessung aussortieren (also immer wieder messen, bis eine bestimmte Zahl Werte erreicht ist). Wenn Mehrfachmessung nicht möglich ist, bleibt nur den Grund zu eliminieren oder zumindest zu kennen, warum 32% der Werte ausbrechen.

HaWe
02.09.2018, 19:01
ja, das ist eine Gesetzmäßigkeit bei normalverteilten Stichproben (="Messungen"),
und nein, es ist eben hier KEINE min-max-Grenze,
und nein, es gibt dann auch keine "32% falschen Werte":

ca. 68% liegen im +/- 1*sigma-Bereich,
ca. 95,5% im +/- 2*sigma-Bereich
ca. 99,7% im 3*sigma-Bereich
ca. 99,9999% im 4*sigma-Bereich

das sind alles keine Falschmessungen, sondern nur statistisch normal-verteilte Messungen, die dann regelmäßig mit ihren relativen Häufigkeiten IMMER so auftreten.

https://upload.wikimedia.org/wikipedia/commons/thumb/8/8c/Standard_deviation_diagram.svg/400px-Standard_deviation_diagram.svg.png

Wie gesagt, es ist eben keine min-max-Grenze (das wäre falsch, wen du das so verstehst), sondern sagt nur aus, wie breit der Bereich für +/- 1 sigma (=1 Standardabweichung) ist, und die betrifft IMMER nur 68% aller Stichproben-(Mess-)-Werte. Es ist quasi ein Naturgesetz in unserem Universum, genau wie die Eulersche Zahl e oder die Kreiszahl Pi als Naturkonstanten.

Es gibt allerdings auch Herstellerangaben, die diese "Messgenauigkeitsbreite" z.B. auf +/-2*sigma Abweichung angeben, dann gilt dieser Bereich logischerweise für ca. 95,5% aller Messwerte; das ändert aber nichts an dem Aussehen der Gauß-Kurve und der Verteilung innerhalb der einfachen , zweifachen oder dreifachen Standardabweichung.

Auch dann werden aber immer auch völlig "legale" Werte auftreten, die außerhalb dieses "Vertrauens-Bereichs" liegen, nur dürfen sie dann nur mit einer sehr geringen stat. Häufigkeit auftreten, die der Höhe der Gauß-Kurve an dieser Stelle entspricht. Treten sie jedoch dort häufiger auf, dann stimmt was nicht: Sensor kaputt oder Standardabweichung falsch berechnet oder externe Einflüsse oder was auch immer.

Die +/- 1*sigma Grenzen entsprechen dabei in der Gauß-Glockenkurve immer exakt ihren mathematischen Wendepunkten links und rechts vom Mittelwert.
Abstriche muss man allerdings insoweit machen, dass diese "Normalverteilung" ein mathematischer Idealfall ist, der bei Stichproben in der naturwissenschaftlichen Praxis immer nur angenähert auftritt, und manche Stichproben sind möglicherweise auch völlig anders als normal-verteilt, dann muss man ein völlig anderes mathematisches Modell zur Beschreibung Ihrer Verteilung verwenden.

Moppi
02.09.2018, 20:20
HaWe, was steht links am Diagram? ... Habs schon gefunden: Erwartungswert μ (?)

Wenn ich das richtig sehe, handelt es sich hier um Wahrscheinlichkeiten aufgrund einer statistischen Häufigkeit.

Ich kann mir vorstellen, dass man damit z.B. Fehlerkorrekturen durchführen kann. Also wenn ich von irgendwas Werte habe und einzelne Werte fehlen. Kenne ich die Verteilung der Werte, kann ich die fehlenden Werte durch Berechnung ersetzen, um ein zufriedenstellendes Ergebnis zu erhalten. Beispiel Rauschen auf Tonband. Da gibts ja Rosa Rauschen und Weißes Rauschen z.b. Wenn dort jetzt Lücken entstanden sind (Tonaussetzer, Fehler in der Magnetisierung) dann kann ich neue Werte für die Lücken auf dem Tonband berechnen und erhalte ein zufriedenstellendes Ergebnis, dass ich rein vom Hören nicht vom Original unterscheiden kann. Wobei aber die berechneten Werte nicht die Originalwerte abbilden, sie passen lediglich sehr gut in das Gesamtbild.

Theoretisch könnte man auch Sensormesswerte, anhand der schon tatsächlich vorher gemessenen Werte, voraus berechnen. Man könnte auch rückschließen, ob der nächste gemessene Wert, anhand der schon tatsächlich vorher gemessenen Werte, wahrscheinlich zutreffend ist (oder mit welcher Wahrscheinlichkeit er zutreffend ist). Es ist aber nur eine statistische Betrachtung.




Ich bleibe gespannt, was jetzt dabei heraus kommt. Immerhin setzt Du drei Sensoren voraus, nicht nur einen.

Moppi
03.09.2018, 07:29
Einen Einfall habe ich dazu noch:

Wenn die Schwankungen der Messwerte einer Regel unterliegen (weil beispielsweise störungsbedingt ein Sinus dort reinspielt) kann man das bis zu einem gewissen Grad wieder herausrechnen. Ich kann von einem Objekt, dessen Entfernung zu einem Anderen bekannt ist, die Koordinaten (wie: 52° 31' 18.905" N 13° 24' 47.574" E) berechnen, wenn ich die Koordinaten eines Objektes kenne - allerdings nur vereinfacht mit einem relativen Fehler, wenn ich einfach annehme, dass die Erde eine Kugel ist. Du willst als Störgröße hier aber keinen Sinus oder etwas derartiges nehmen, sondern, wie Du sagst: relative Häufigkeiten, die regelmäßig verteilt seien. Darin sind zwei Unbekannte: die Relation und die Regelmäßigkeit (in der das Wort Regel drinsteckt). Wenn Du beides mathematisch definieren kannst, solltest Du theoretisch zumindest zu einem gewissen Prozentsatz das Ergebnis einer Messung korrigieren/schärfen können. Ob und wie das gelingen kann, weiß ich nicht. Aber ich habe so meine Zweifel, ob das zufriedenstellend gelingen kann. Immerhin hättest Du 3 Sensoren und eine Vergleichsmessreihe mit 100 Werten (war doch so?).

Um das nachher für einen Computer abzubilden, bzw. in Echtzeit mit einem einfachen Computer / Controller zu berechnen, geht man Näherungsweise in der Genauigkeit vor, die man benötigt und die für den Speicherplatz und Ausführungsgeschwindigkeit passend ist, indem man komplizierte Berechnungen vorher ausführt und die Ergebnisse in Tabellen ablegt. So ungefähr das Prinzip eines Tafelwerkes. Der Algorithmus für den Computer/Controller muss dann entsprechend aus der Ursprungsberechnung/Formel abgeleitet werden.

HaWe
03.09.2018, 11:11
@Moppi
Ich fasse mal zusammen:

ich habe, wie im TOP beschrieben, zunächst nur ein stat. Verfahren gesucht, das ähnlich wie ein Kalman- oder ein Partikelfilter (SMC) in der Lage ist, Sensorwerte nach ihrer stat. Zuverlässigkeit zu gewichten, nur einfacher und dadurch mit weniger Rechenaufand (Matrizenrechnung etc), auch dutzende e-Funktionen sind m.E. für den Dauerbetrieb auf einem kleinen µC zu aufwändig. Dass es dann nicht 100% so exakt wie ein Kalman- oder SMC Filter sein kann, ist ntl auch klar.

Die stat. Datenbasis für die Auswertung ist durch "repräsentative" Eichstichproben erstellt worden; alternativ könnten bei anderen Sensoren auch die Daten von Herstellern verwendet werden, das habe ich aber noch nicht betrachtet (kommt noch).

Statistiken auf der Basis von Datenerhebungen und Standardabw. können natürlich nie erkenntnistheoretische "Gewissheit" erzeugen, aber nach der Theorie der Statistik eine gewisse (rel. hohe) Wahrscheinlichkeit, und die kann deutlich besser sein als einfache arithmetische Mittel oder Low-Pass- oder Medianfilter, die ja auch nur irgendwelche Werte bevorzugen oder "herausfiltern".

Unbenommen ist je nach Ergebnis die weitere Datenverarbeitung (z.B. ob hier evtl doch zu viele "Ausreißer" aufgetreten sind, so dass man evtl noch weiter glätten, gewichten oder filtern muss).

Meine eigene Idee mit (1-Standardabw.) gewichtete hier für die Durchschnitte noch zu schwach.

Die gewichteten Durchschnitte per Kehrwert der Sensor-"Ungenauigkeit", wie in Wiki beschrieben, ist da offenbar eine gangbare Methode, nur was hier unter "Ungenauigkeit" zu verstehen ist, ist dort nicht exakt spezifiziert.

(1/Standardabw) als Wichtungsfaktor gewichtete aber immerhin schon deutlich besser in Richtung "zuverlässigere Quellen";

allerdings Holominos Bereechnung mit den komplizierteren vielfachen e-Funktionen ("Wahrscheinlichkeitsdichtefunktion-Methode"), die statistisch sicher deutlich sauberer und verlässlicher als einfache gewichtete Durchschnitte sind, zeigte, dass diese immer noch näher am "zuverlässigsten Sensor" liegen, d.h. (1/Standardabw) ist immer noch tendenziell zu schwach gewichtet.

Die Idee allerdings, (1/Varianz) als Wichtungsfaktor einzuführen, brachte das Ergebnis, dass jetzt das Ergebnis im Beispiel-Fall 1 (ca. 1m Distanz) sehr nah an der Wahrscheinlichkeitsdichtefunktion-Methode liegt. Als alleiniger Vergleich reicht dies natl noch nicht.

Was also wichtig wäre, wäre zumindest als Vergleich das Ergebnis für Fall 2 (ca. 10cm-Distanz, s. TOP), ggf noch weitere.
Dann könnte man entscheiden, ob entweder wirklich (1/Varianz) der tendenziell bessere Wichtungsfaktor ist oder doch lieber der etwas schwächere per (1/Standardabw).

@Holomino:
könntest du bitte den Fall 2 mal durchrechnen? Dein Programm wirst du ja noch haben, und ich selber kenne ja den gesamten Programmcode noch nicht.
Eventuell hast du auch eine Idee für einen 3. Fall, den man exemplarisch ebenfalls über ganz andere Messbereiche betrachten und vergleichen könnte..?
Oder könntest du vlt auch deinen Programmcode (C++) einfach hier einstellen, dann kann ich auch selber noch etliche solcher Tests machen?

Moppi
03.09.2018, 13:16
Was mich nochmal interessieren würde: was die Sensoren wirklich an Werten liefern. Wie groß ist die Streuung eigentlich wirklich? Geht es hier darum, dass die Sensoren Werte liefern, die praktisch zu nur ca. 50% verwertbar sind und die anderen Werte sind so weit weg von der zu messenden Distanz, dass man sie nicht brauchen kann? Oder ist es so, dass die Werte theoretisch eine so große Abweichung haben könnten und bei einer praktischen Messung es aber eher so ist, dass die Werte nur wenig streuen? Um was für eine Streuung geht es praktisch also genau?

HaWe
03.09.2018, 14:33
"was die Sensoren wirklich an Werten liefern": ...das ist jetzt erstmal zweitrangig, denn es geht hier nur um die prinzipielle Entwicklung einer mathematisch-statistischen Methode, die alle Werte verarbeitet, allerdings nach stat. Zuverlässigkeit gewichtet, und daher sind nicht nur 50% verwertbar, sondern alle. ;)
Die Fälle 1+2 sind aber nur modellhaft und sicher untypisch.

Es ist eben Statistik... 8) (schau dir mal an, wie ein Kalman oder die SMC Methode arbeitet, es ist prinzipiell die gleiche statistische Messtheorie dahinter!)

Wie die Streuung der "Eich-Stichprobe" allerdings berechnet wird, habe ich ja oben schon beschrieben. Es sind prinzipiell genau die gleichen Rechenschritte, die man auch sonst zur Berechnung der Standardabweichung ausführt:
https://www.roboternetz.de/community/threads/72385-Sensorfusion-mit-unterschiedlicher-statistischer-Fehlerrate?p=646341&viewfull=1#post646341

Ich warte jetzt ehrlich gesagt erst mal auf das Ergebnis der (sehr aufwändigen) Wahrscheinlichkeitsdichte-Methode, die Holomino vorgeschlagen hat, aber nun bezogen auf Fall 2 oder ggf. weitere:


@Holomino:
könntest du bitte den Fall 2 mal durchrechnen? Dein Programm wirst du ja noch haben, und ich selber kenne ja den gesamten Programmcode noch nicht.
Eventuell hast du auch eine Idee für einen 3. Fall, den man exemplarisch ebenfalls über ganz andere Messbereiche betrachten und vergleichen könnte..?
Oder könntest du vlt auch deinen Programmcode (C++) einfach hier einstellen, dann kann ich auch selber noch etliche solcher Tests machen?

Holomino
03.09.2018, 16:19
33601

Angabe in mm (da sonst ziemlich grob)

HaWe
03.09.2018, 16:33
hmm - verstehe ich das richtig?
50mm = 5cm, das würde ja bedeuten, dass diese Methode exakt nur den Wert des 3. Sensors (5cm) berücksichtigt, und die anderen beiden mit 20 bzw. 30cm gar nicht, also noch nicht mal minimalst verschoben...?

"optimal probability 0,160 at 50"

Das stünde dann schon etwas in Diskrepanz zum gewichteten Durchschnitt und zu dem, was ich intuitiv erwarten würde...



2.Fall:
Sensor1 25*20 = 500
Sensor2 100*30= 3000
Sensor3 400*5= 2000
Summe = 5500
5500/525= 10,5 <<< !

Wie sieht denn das Log aus?

Holomino
03.09.2018, 17:15
Überleg doch mal selber. Bei einer Messung von 5cm und 5% Standardabweichung. Die Messung ist für Sensor 3 nicht kausal.

Egal, wie die tatsächliche Distanz ist. Die Wahrscheinlichkeit, dass Sensor3 5cm misst, ist nur bei einer tatsächlichen Distanz um 5cm überhaupt nennenswert plausibel. Schon bei 6cm (4xSigma) hast Du doch schon 99,9% Wahrscheinlichkeit verloren.
Wenn Du über solch eine Messung den gewichteten Mittelwert legst, wirst Du zwar ein Ergebnis bekommen. Das aber ist so total unwahrscheinlich, wie der berüchtigte rosa Elefant aus der Physik.

Log anbei:


==========================================
Sensor1 Dist: 0200 rel. deviation: 0,20
Sensor2 Dist: 0300 rel. deviation: 0,10
Sensor3 Dist: 0050 rel. deviation: 0,05
==========================================
Hypothetic dist:50 (dev1: 10,00 dev2: 5,00 dev3: 2,50)-->Norm.: 0,15957691 Eq.: 1,00000000
Hypothetic dist:51 (dev1: 10,20 dev2: 5,10 dev3: 2,55)-->Norm.: 0,14486900 Eq.: 0,92598846
Hypothetic dist:52 (dev1: 10,40 dev2: 5,20 dev3: 2,60)-->Norm.: 0,11414246 Eq.: 0,74389306
Hypothetic dist:53 (dev1: 10,60 dev2: 5,30 dev3: 2,65)-->Norm.: 0,07931757 Eq.: 0,52687211
Hypothetic dist:54 (dev1: 10,80 dev2: 5,40 dev3: 2,70)-->Norm.: 0,04931219 Eq.: 0,33373978
Hypothetic dist:55 (dev1: 11,00 dev2: 5,50 dev3: 2,75)-->Norm.: 0,02778019 Eq.: 0,19149520
Hypothetic dist:56 (dev1: 11,20 dev2: 5,60 dev3: 2,80)-->Norm.: 0,01434324 Eq.: 0,10066890
Hypothetic dist:57 (dev1: 11,40 dev2: 5,70 dev3: 2,85)-->Norm.: 0,00685642 Eq.: 0,04898149
Hypothetic dist:58 (dev1: 11,60 dev2: 5,80 dev3: 2,90)-->Norm.: 0,00306213 Eq.: 0,02225933
Hypothetic dist:59 (dev1: 11,80 dev2: 5,90 dev3: 2,95)-->Norm.: 0,00128811 Eq.: 0,00952500
Hypothetic dist:60 (dev1: 12,00 dev2: 6,00 dev3: 3,00)-->Norm.: 0,00051409 Eq.: 0,00386592
Hypothetic dist:61 (dev1: 12,20 dev2: 6,10 dev3: 3,05)-->Norm.: 0,00019594 Eq.: 0,00149799
Hypothetic dist:62 (dev1: 12,40 dev2: 6,20 dev3: 3,10)-->Norm.: 0,00007173 Eq.: 0,00055742
Hypothetic dist:63 (dev1: 12,60 dev2: 6,30 dev3: 3,15)-->Norm.: 0,00002536 Eq.: 0,00020024
Hypothetic dist:64 (dev1: 12,80 dev2: 6,40 dev3: 3,20)-->Norm.: 0,00000870 Eq.: 0,00006977
Hypothetic dist:65 (dev1: 13,00 dev2: 6,50 dev3: 3,25)-->Norm.: 0,00000291 Eq.: 0,00002368
Hypothetic dist:66 (dev1: 13,20 dev2: 6,60 dev3: 3,30)-->Norm.: 0,00000095 Eq.: 0,00000786
Hypothetic dist:67 (dev1: 13,40 dev2: 6,70 dev3: 3,35)-->Norm.: 0,00000030 Eq.: 0,00000256
Hypothetic dist:68 (dev1: 13,60 dev2: 6,80 dev3: 3,40)-->Norm.: 0,00000010 Eq.: 0,00000082
Hypothetic dist:69 (dev1: 13,80 dev2: 6,90 dev3: 3,45)-->Norm.: 0,00000003 Eq.: 0,00000026
Hypothetic dist:70 (dev1: 14,00 dev2: 7,00 dev3: 3,50)-->Norm.: 0,00000001 Eq.: 0,00000008
Hypothetic dist:71 (dev1: 14,20 dev2: 7,10 dev3: 3,55)-->Norm.: 0,00000000 Eq.: 0,00000003
Hypothetic dist:72 (dev1: 14,40 dev2: 7,20 dev3: 3,60)-->Norm.: 0,00000000 Eq.: 0,00000001
Hypothetic dist:73 (dev1: 14,60 dev2: 7,30 dev3: 3,65)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:74 (dev1: 14,80 dev2: 7,40 dev3: 3,70)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:75 (dev1: 15,00 dev2: 7,50 dev3: 3,75)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:76 (dev1: 15,20 dev2: 7,60 dev3: 3,80)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:77 (dev1: 15,40 dev2: 7,70 dev3: 3,85)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:78 (dev1: 15,60 dev2: 7,80 dev3: 3,90)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:79 (dev1: 15,80 dev2: 7,90 dev3: 3,95)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:80 (dev1: 16,00 dev2: 8,00 dev3: 4,00)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:81 (dev1: 16,20 dev2: 8,10 dev3: 4,05)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:82 (dev1: 16,40 dev2: 8,20 dev3: 4,10)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:83 (dev1: 16,60 dev2: 8,30 dev3: 4,15)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:84 (dev1: 16,80 dev2: 8,40 dev3: 4,20)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:85 (dev1: 17,00 dev2: 8,50 dev3: 4,25)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:86 (dev1: 17,20 dev2: 8,60 dev3: 4,30)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:87 (dev1: 17,40 dev2: 8,70 dev3: 4,35)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:88 (dev1: 17,60 dev2: 8,80 dev3: 4,40)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:89 (dev1: 17,80 dev2: 8,90 dev3: 4,45)-->Norm.: 0,00000000 Eq.: 0,00000000
Hypothetic dist:90 (dev1: 18,00 dev2: 9,00 dev3: 4,50)-->Norm.: 0,00000000 Eq.: 0,00000001
Hypothetic dist:91 (dev1: 18,20 dev2: 9,10 dev3: 4,55)-->Norm.: 0,00000000 Eq.: 0,00000002
Hypothetic dist:92 (dev1: 18,40 dev2: 9,20 dev3: 4,60)-->Norm.: 0,00000000 Eq.: 0,00000003
Hypothetic dist:93 (dev1: 18,60 dev2: 9,30 dev3: 4,65)-->Norm.: 0,00000000 Eq.: 0,00000007
Hypothetic dist:94 (dev1: 18,80 dev2: 9,40 dev3: 4,70)-->Norm.: 0,00000000 Eq.: 0,00000012
Hypothetic dist:95 (dev1: 19,00 dev2: 9,50 dev3: 4,75)-->Norm.: 0,00000000 Eq.: 0,00000023
Hypothetic dist:96 (dev1: 19,20 dev2: 9,60 dev3: 4,80)-->Norm.: 0,00000001 Eq.: 0,00000043
Hypothetic dist:97 (dev1: 19,40 dev2: 9,70 dev3: 4,85)-->Norm.: 0,00000002 Eq.: 0,00000076
Hypothetic dist:98 (dev1: 19,60 dev2: 9,80 dev3: 4,90)-->Norm.: 0,00000003 Eq.: 0,00000132
Hypothetic dist:99 (dev1: 19,80 dev2: 9,90 dev3: 4,95)-->Norm.: 0,00000005 Eq.: 0,00000224
Hypothetic dist:100 (dev1: 20,00 dev2: 10,00 dev3: 5,00)-->Norm.: 0,00000007 Eq.: 0,00000373
Hypothetic dist:101 (dev1: 20,20 dev2: 10,10 dev3: 5,05)-->Norm.: 0,00000012 Eq.: 0,00000608
Hypothetic dist:102 (dev1: 20,40 dev2: 10,20 dev3: 5,10)-->Norm.: 0,00000019 Eq.: 0,00000974
Hypothetic dist:103 (dev1: 20,60 dev2: 10,30 dev3: 5,15)-->Norm.: 0,00000030 Eq.: 0,00001532
Hypothetic dist:104 (dev1: 20,80 dev2: 10,40 dev3: 5,20)-->Norm.: 0,00000045 Eq.: 0,00002368
Hypothetic dist:105 (dev1: 21,00 dev2: 10,50 dev3: 5,25)-->Norm.: 0,00000068 Eq.: 0,00003598
Hypothetic dist:106 (dev1: 21,20 dev2: 10,60 dev3: 5,30)-->Norm.: 0,00000101 Eq.: 0,00005381
Hypothetic dist:107 (dev1: 21,40 dev2: 10,70 dev3: 5,35)-->Norm.: 0,00000148 Eq.: 0,00007925
Hypothetic dist:108 (dev1: 21,60 dev2: 10,80 dev3: 5,40)-->Norm.: 0,00000212 Eq.: 0,00011499
Hypothetic dist:109 (dev1: 21,80 dev2: 10,90 dev3: 5,45)-->Norm.: 0,00000301 Eq.: 0,00016453
Hypothetic dist:110 (dev1: 22,00 dev2: 11,00 dev3: 5,50)-->Norm.: 0,00000421 Eq.: 0,00023223
Hypothetic dist:111 (dev1: 22,20 dev2: 11,10 dev3: 5,55)-->Norm.: 0,00000581 Eq.: 0,00032358
Hypothetic dist:112 (dev1: 22,40 dev2: 11,20 dev3: 5,60)-->Norm.: 0,00000793 Eq.: 0,00044527
Hypothetic dist:113 (dev1: 22,60 dev2: 11,30 dev3: 5,65)-->Norm.: 0,00001069 Eq.: 0,00060545
Hypothetic dist:114 (dev1: 22,80 dev2: 11,40 dev3: 5,70)-->Norm.: 0,00001424 Eq.: 0,00081386
Hypothetic dist:115 (dev1: 23,00 dev2: 11,50 dev3: 5,75)-->Norm.: 0,00001877 Eq.: 0,00108202
Hypothetic dist:116 (dev1: 23,20 dev2: 11,60 dev3: 5,80)-->Norm.: 0,00002448 Eq.: 0,00142341
Hypothetic dist:117 (dev1: 23,40 dev2: 11,70 dev3: 5,85)-->Norm.: 0,00003160 Eq.: 0,00185358
Hypothetic dist:118 (dev1: 23,60 dev2: 11,80 dev3: 5,90)-->Norm.: 0,00004041 Eq.: 0,00239029
Hypothetic dist:119 (dev1: 23,80 dev2: 11,90 dev3: 5,95)-->Norm.: 0,00005119 Eq.: 0,00305360
Hypothetic dist:120 (dev1: 24,00 dev2: 12,00 dev3: 6,00)-->Norm.: 0,00006426 Eq.: 0,00386592
Hypothetic dist:121 (dev1: 24,20 dev2: 12,10 dev3: 6,05)-->Norm.: 0,00007999 Eq.: 0,00485203
Hypothetic dist:122 (dev1: 24,40 dev2: 12,20 dev3: 6,10)-->Norm.: 0,00009874 Eq.: 0,00603902
Hypothetic dist:123 (dev1: 24,60 dev2: 12,30 dev3: 6,15)-->Norm.: 0,00012092 Eq.: 0,00745624
Hypothetic dist:124 (dev1: 24,80 dev2: 12,40 dev3: 6,20)-->Norm.: 0,00014695 Eq.: 0,00913511
Hypothetic dist:125 (dev1: 25,00 dev2: 12,50 dev3: 6,25)-->Norm.: 0,00017727 Eq.: 0,01110900
Hypothetic dist:126 (dev1: 25,20 dev2: 12,60 dev3: 6,30)-->Norm.: 0,00021234 Eq.: 0,01341289
Hypothetic dist:127 (dev1: 25,40 dev2: 12,70 dev3: 6,35)-->Norm.: 0,00025261 Eq.: 0,01608315
Hypothetic dist:128 (dev1: 25,60 dev2: 12,80 dev3: 6,40)-->Norm.: 0,00029854 Eq.: 0,01915717
Hypothetic dist:129 (dev1: 25,80 dev2: 12,90 dev3: 6,45)-->Norm.: 0,00035059 Eq.: 0,02267298
Hypothetic dist:130 (dev1: 26,00 dev2: 13,00 dev3: 6,50)-->Norm.: 0,00040920 Eq.: 0,02666882
Hypothetic dist:131 (dev1: 26,20 dev2: 13,10 dev3: 6,55)-->Norm.: 0,00047481 Eq.: 0,03118268
Hypothetic dist:132 (dev1: 26,40 dev2: 13,20 dev3: 6,60)-->Norm.: 0,00054782 Eq.: 0,03625190
Hypothetic dist:133 (dev1: 26,60 dev2: 13,30 dev3: 6,65)-->Norm.: 0,00062860 Eq.: 0,04191258
Hypothetic dist:134 (dev1: 26,80 dev2: 13,40 dev3: 6,70)-->Norm.: 0,00071749 Eq.: 0,04819921
Hypothetic dist:135 (dev1: 27,00 dev2: 13,50 dev3: 6,75)-->Norm.: 0,00081479 Eq.: 0,05514412
Hypothetic dist:136 (dev1: 27,20 dev2: 13,60 dev3: 6,80)-->Norm.: 0,00092075 Eq.: 0,06277703
Hypothetic dist:137 (dev1: 27,40 dev2: 13,70 dev3: 6,85)-->Norm.: 0,00103557 Eq.: 0,07112464
Hypothetic dist:138 (dev1: 27,60 dev2: 13,80 dev3: 6,90)-->Norm.: 0,00115939 Eq.: 0,08021022
Hypothetic dist:139 (dev1: 27,80 dev2: 13,90 dev3: 6,95)-->Norm.: 0,00129230 Eq.: 0,09005320
Hypothetic dist:140 (dev1: 28,00 dev2: 14,00 dev3: 7,00)-->Norm.: 0,00143432 Eq.: 0,10066890
Hypothetic dist:141 (dev1: 28,20 dev2: 14,10 dev3: 7,05)-->Norm.: 0,00158542 Eq.: 0,11206822
Hypothetic dist:142 (dev1: 28,40 dev2: 14,20 dev3: 7,10)-->Norm.: 0,00174548 Eq.: 0,12425744
Hypothetic dist:143 (dev1: 28,60 dev2: 14,30 dev3: 7,15)-->Norm.: 0,00191434 Eq.: 0,13723803
Hypothetic dist:144 (dev1: 28,80 dev2: 14,40 dev3: 7,20)-->Norm.: 0,00209177 Eq.: 0,15100654
Hypothetic dist:145 (dev1: 29,00 dev2: 14,50 dev3: 7,25)-->Norm.: 0,00227747 Eq.: 0,16555460
Hypothetic dist:146 (dev1: 29,20 dev2: 14,60 dev3: 7,30)-->Norm.: 0,00247110 Eq.: 0,18086885
Hypothetic dist:147 (dev1: 29,40 dev2: 14,70 dev3: 7,35)-->Norm.: 0,00267225 Eq.: 0,19693104
Hypothetic dist:148 (dev1: 29,60 dev2: 14,80 dev3: 7,40)-->Norm.: 0,00288045 Eq.: 0,21371816
Hypothetic dist:149 (dev1: 29,80 dev2: 14,90 dev3: 7,45)-->Norm.: 0,00309518 Eq.: 0,23120256
Hypothetic dist:150 (dev1: 30,00 dev2: 15,00 dev3: 7,50)-->Norm.: 0,00331590 Eq.: 0,24935221
Hypothetic dist:151 (dev1: 30,20 dev2: 15,10 dev3: 7,55)-->Norm.: 0,00354201 Eq.: 0,26813090
Hypothetic dist:152 (dev1: 30,40 dev2: 15,20 dev3: 7,60)-->Norm.: 0,00377287 Eq.: 0,28749857
Hypothetic dist:153 (dev1: 30,60 dev2: 15,30 dev3: 7,65)-->Norm.: 0,00400783 Eq.: 0,30741161
Hypothetic dist:154 (dev1: 30,80 dev2: 15,40 dev3: 7,70)-->Norm.: 0,00424619 Eq.: 0,32782321
Hypothetic dist:155 (dev1: 31,00 dev2: 15,50 dev3: 7,75)-->Norm.: 0,00448725 Eq.: 0,34868372
Hypothetic dist:156 (dev1: 31,20 dev2: 15,60 dev3: 7,80)-->Norm.: 0,00473029 Eq.: 0,36994106
Hypothetic dist:157 (dev1: 31,40 dev2: 15,70 dev3: 7,85)-->Norm.: 0,00497460 Eq.: 0,39154109
Hypothetic dist:158 (dev1: 31,60 dev2: 15,80 dev3: 7,90)-->Norm.: 0,00521943 Eq.: 0,41342800
Hypothetic dist:159 (dev1: 31,80 dev2: 15,90 dev3: 7,95)-->Norm.: 0,00546406 Eq.: 0,43554473
Hypothetic dist:160 (dev1: 32,00 dev2: 16,00 dev3: 8,00)-->Norm.: 0,00570778 Eq.: 0,45783336
Hypothetic dist:161 (dev1: 32,20 dev2: 16,10 dev3: 8,05)-->Norm.: 0,00594988 Eq.: 0,48023551
Hypothetic dist:162 (dev1: 32,40 dev2: 16,20 dev3: 8,10)-->Norm.: 0,00618967 Eq.: 0,50269269
Hypothetic dist:163 (dev1: 32,60 dev2: 16,30 dev3: 8,15)-->Norm.: 0,00642648 Eq.: 0,52514667
Hypothetic dist:164 (dev1: 32,80 dev2: 16,40 dev3: 8,20)-->Norm.: 0,00665966 Eq.: 0,54753984
Hypothetic dist:165 (dev1: 33,00 dev2: 16,50 dev3: 8,25)-->Norm.: 0,00688859 Eq.: 0,56981553
Hypothetic dist:166 (dev1: 33,20 dev2: 16,60 dev3: 8,30)-->Norm.: 0,00711269 Eq.: 0,59191827
Hypothetic dist:167 (dev1: 33,40 dev2: 16,70 dev3: 8,35)-->Norm.: 0,00733139 Eq.: 0,61379415
Hypothetic dist:168 (dev1: 33,60 dev2: 16,80 dev3: 8,40)-->Norm.: 0,00754418 Eq.: 0,63539099
Hypothetic dist:169 (dev1: 33,80 dev2: 16,90 dev3: 8,45)-->Norm.: 0,00775056 Eq.: 0,65665861
Hypothetic dist:170 (dev1: 34,00 dev2: 17,00 dev3: 8,50)-->Norm.: 0,00795009 Eq.: 0,67754903
Hypothetic dist:171 (dev1: 34,20 dev2: 17,10 dev3: 8,55)-->Norm.: 0,00814235 Eq.: 0,69801665
Hypothetic dist:172 (dev1: 34,40 dev2: 17,20 dev3: 8,60)-->Norm.: 0,00832697 Eq.: 0,71801836
Hypothetic dist:173 (dev1: 34,60 dev2: 17,30 dev3: 8,65)-->Norm.: 0,00850362 Eq.: 0,73751373
Hypothetic dist:174 (dev1: 34,80 dev2: 17,40 dev3: 8,70)-->Norm.: 0,00867201 Eq.: 0,75646504
Hypothetic dist:175 (dev1: 35,00 dev2: 17,50 dev3: 8,75)-->Norm.: 0,00883187 Eq.: 0,77483743
Hypothetic dist:176 (dev1: 35,20 dev2: 17,60 dev3: 8,80)-->Norm.: 0,00898299 Eq.: 0,79259888
Hypothetic dist:177 (dev1: 35,40 dev2: 17,70 dev3: 8,85)-->Norm.: 0,00912519 Eq.: 0,80972028
Hypothetic dist:178 (dev1: 35,60 dev2: 17,80 dev3: 8,90)-->Norm.: 0,00925832 Eq.: 0,82617546
Hypothetic dist:179 (dev1: 35,80 dev2: 17,90 dev3: 8,95)-->Norm.: 0,00938229 Eq.: 0,84194112
Hypothetic dist:180 (dev1: 36,00 dev2: 18,00 dev3: 9,00)-->Norm.: 0,00949701 Eq.: 0,85699689
Hypothetic dist:181 (dev1: 36,20 dev2: 18,10 dev3: 9,05)-->Norm.: 0,00960244 Eq.: 0,87132521
Hypothetic dist:182 (dev1: 36,40 dev2: 18,20 dev3: 9,10)-->Norm.: 0,00969859 Eq.: 0,88491132
Hypothetic dist:183 (dev1: 36,60 dev2: 18,30 dev3: 9,15)-->Norm.: 0,00978546 Eq.: 0,89774318
Hypothetic dist:184 (dev1: 36,80 dev2: 18,40 dev3: 9,20)-->Norm.: 0,00986310 Eq.: 0,90981140
Hypothetic dist:185 (dev1: 37,00 dev2: 18,50 dev3: 9,25)-->Norm.: 0,00993160 Eq.: 0,92110912
Hypothetic dist:186 (dev1: 37,20 dev2: 18,60 dev3: 9,30)-->Norm.: 0,00999106 Eq.: 0,93163197
Hypothetic dist:187 (dev1: 37,40 dev2: 18,70 dev3: 9,35)-->Norm.: 0,01004159 Eq.: 0,94137789
Hypothetic dist:188 (dev1: 37,60 dev2: 18,80 dev3: 9,40)-->Norm.: 0,01008334 Eq.: 0,95034709
Hypothetic dist:189 (dev1: 37,80 dev2: 18,90 dev3: 9,45)-->Norm.: 0,01011648 Eq.: 0,95854190
Hypothetic dist:190 (dev1: 38,00 dev2: 19,00 dev3: 9,50)-->Norm.: 0,01014118 Eq.: 0,96596664
Hypothetic dist:191 (dev1: 38,20 dev2: 19,10 dev3: 9,55)-->Norm.: 0,01015765 Eq.: 0,97262752
Hypothetic dist:192 (dev1: 38,40 dev2: 19,20 dev3: 9,60)-->Norm.: 0,01016610 Eq.: 0,97853253
Hypothetic dist:193 (dev1: 38,60 dev2: 19,30 dev3: 9,65)-->Norm.: 0,01016674 Eq.: 0,98369127
Hypothetic dist:194 (dev1: 38,80 dev2: 19,40 dev3: 9,70)-->Norm.: 0,01015982 Eq.: 0,98811489
Hypothetic dist:195 (dev1: 39,00 dev2: 19,50 dev3: 9,75)-->Norm.: 0,01014558 Eq.: 0,99181591
Hypothetic dist:196 (dev1: 39,20 dev2: 19,60 dev3: 9,80)-->Norm.: 0,01012427 Eq.: 0,99480813
Hypothetic dist:197 (dev1: 39,40 dev2: 19,70 dev3: 9,85)-->Norm.: 0,01009615 Eq.: 0,99710654
Hypothetic dist:198 (dev1: 39,60 dev2: 19,80 dev3: 9,90)-->Norm.: 0,01006149 Eq.: 0,99872716
Hypothetic dist:199 (dev1: 39,80 dev2: 19,90 dev3: 9,95)-->Norm.: 0,01002056 Eq.: 0,99968695
Hypothetic dist:200 (dev1: 40,00 dev2: 20,00 dev3: 10,00)-->Norm.: 0,00997363 Eq.: 1,00000373
Hypothetic dist:201 (dev1: 40,20 dev2: 20,10 dev3: 10,05)-->Norm.: 0,00992097 Eq.: 0,99969605
Hypothetic dist:202 (dev1: 40,40 dev2: 20,20 dev3: 10,10)-->Norm.: 0,00986287 Eq.: 0,99878313
Hypothetic dist:203 (dev1: 40,60 dev2: 20,30 dev3: 10,15)-->Norm.: 0,00979959 Eq.: 0,99728475
Hypothetic dist:204 (dev1: 40,80 dev2: 20,40 dev3: 10,20)-->Norm.: 0,00973142 Eq.: 0,99522122
Hypothetic dist:205 (dev1: 41,00 dev2: 20,50 dev3: 10,25)-->Norm.: 0,00965864 Eq.: 0,99261324
Hypothetic dist:206 (dev1: 41,20 dev2: 20,60 dev3: 10,30)-->Norm.: 0,00958151 Eq.: 0,98948192
Hypothetic dist:207 (dev1: 41,40 dev2: 20,70 dev3: 10,35)-->Norm.: 0,00950032 Eq.: 0,98584869
Hypothetic dist:208 (dev1: 41,60 dev2: 20,80 dev3: 10,40)-->Norm.: 0,00941534 Eq.: 0,98173526
Hypothetic dist:209 (dev1: 41,80 dev2: 20,90 dev3: 10,45)-->Norm.: 0,00932685 Eq.: 0,97716361
Hypothetic dist:210 (dev1: 42,00 dev2: 21,00 dev3: 10,50)-->Norm.: 0,00923512 Eq.: 0,97215597
Hypothetic dist:211 (dev1: 42,20 dev2: 21,10 dev3: 10,55)-->Norm.: 0,00914043 Eq.: 0,96673482
Hypothetic dist:212 (dev1: 42,40 dev2: 21,20 dev3: 10,60)-->Norm.: 0,00904305 Eq.: 0,96092289
Hypothetic dist:213 (dev1: 42,60 dev2: 21,30 dev3: 10,65)-->Norm.: 0,00894325 Eq.: 0,95474317
Hypothetic dist:214 (dev1: 42,80 dev2: 21,40 dev3: 10,70)-->Norm.: 0,00884133 Eq.: 0,94821896
Hypothetic dist:215 (dev1: 43,00 dev2: 21,50 dev3: 10,75)-->Norm.: 0,00873756 Eq.: 0,94137392
Hypothetic dist:216 (dev1: 43,20 dev2: 21,60 dev3: 10,80)-->Norm.: 0,00863223 Eq.: 0,93423210
Hypothetic dist:217 (dev1: 43,40 dev2: 21,70 dev3: 10,85)-->Norm.: 0,00852563 Eq.: 0,92681801
Hypothetic dist:218 (dev1: 43,60 dev2: 21,80 dev3: 10,90)-->Norm.: 0,00841808 Eq.: 0,91915671
Hypothetic dist:219 (dev1: 43,80 dev2: 21,90 dev3: 10,95)-->Norm.: 0,00830988 Eq.: 0,91127387
Hypothetic dist:220 (dev1: 44,00 dev2: 22,00 dev3: 11,00)-->Norm.: 0,00820135 Eq.: 0,90319588
Hypothetic dist:221 (dev1: 44,20 dev2: 22,10 dev3: 11,05)-->Norm.: 0,00809284 Eq.: 0,89494990
Hypothetic dist:222 (dev1: 44,40 dev2: 22,20 dev3: 11,10)-->Norm.: 0,00798469 Eq.: 0,88656402
Hypothetic dist:223 (dev1: 44,60 dev2: 22,30 dev3: 11,15)-->Norm.: 0,00787727 Eq.: 0,87806728
Hypothetic dist:224 (dev1: 44,80 dev2: 22,40 dev3: 11,20)-->Norm.: 0,00777095 Eq.: 0,86948978
Hypothetic dist:225 (dev1: 45,00 dev2: 22,50 dev3: 11,25)-->Norm.: 0,00766615 Eq.: 0,86086281
Hypothetic dist:226 (dev1: 45,20 dev2: 22,60 dev3: 11,30)-->Norm.: 0,00756328 Eq.: 0,85221884
Hypothetic dist:227 (dev1: 45,40 dev2: 22,70 dev3: 11,35)-->Norm.: 0,00746278 Eq.: 0,84359162
Hypothetic dist:228 (dev1: 45,60 dev2: 22,80 dev3: 11,40)-->Norm.: 0,00736511 Eq.: 0,83501624
Hypothetic dist:229 (dev1: 45,80 dev2: 22,90 dev3: 11,45)-->Norm.: 0,00727074 Eq.: 0,82652908
Hypothetic dist:230 (dev1: 46,00 dev2: 23,00 dev3: 11,50)-->Norm.: 0,00718017 Eq.: 0,81816789
Hypothetic dist:231 (dev1: 46,20 dev2: 23,10 dev3: 11,55)-->Norm.: 0,00709393 Eq.: 0,80997171
Hypothetic dist:232 (dev1: 46,40 dev2: 23,20 dev3: 11,60)-->Norm.: 0,00701254 Eq.: 0,80198079
Hypothetic dist:233 (dev1: 46,60 dev2: 23,30 dev3: 11,65)-->Norm.: 0,00693654 Eq.: 0,79423658
Hypothetic dist:234 (dev1: 46,80 dev2: 23,40 dev3: 11,70)-->Norm.: 0,00686651 Eq.: 0,78678153
Hypothetic dist:235 (dev1: 47,00 dev2: 23,50 dev3: 11,75)-->Norm.: 0,00680300 Eq.: 0,77965898
Hypothetic dist:236 (dev1: 47,20 dev2: 23,60 dev3: 11,80)-->Norm.: 0,00674660 Eq.: 0,77291295
Hypothetic dist:237 (dev1: 47,40 dev2: 23,70 dev3: 11,85)-->Norm.: 0,00669787 Eq.: 0,76658792
Hypothetic dist:238 (dev1: 47,60 dev2: 23,80 dev3: 11,90)-->Norm.: 0,00665741 Eq.: 0,76072861
Hypothetic dist:239 (dev1: 47,80 dev2: 23,90 dev3: 11,95)-->Norm.: 0,00662577 Eq.: 0,75537962
Hypothetic dist:240 (dev1: 48,00 dev2: 24,00 dev3: 12,00)-->Norm.: 0,00660351 Eq.: 0,75058521
Hypothetic dist:241 (dev1: 48,20 dev2: 24,10 dev3: 12,05)-->Norm.: 0,00659117 Eq.: 0,74638888
Hypothetic dist:242 (dev1: 48,40 dev2: 24,20 dev3: 12,10)-->Norm.: 0,00658926 Eq.: 0,74283305
Hypothetic dist:243 (dev1: 48,60 dev2: 24,30 dev3: 12,15)-->Norm.: 0,00659827 Eq.: 0,73995866
Hypothetic dist:244 (dev1: 48,80 dev2: 24,40 dev3: 12,20)-->Norm.: 0,00661866 Eq.: 0,73780480
Hypothetic dist:245 (dev1: 49,00 dev2: 24,50 dev3: 12,25)-->Norm.: 0,00665082 Eq.: 0,73640829
Hypothetic dist:246 (dev1: 49,20 dev2: 24,60 dev3: 12,30)-->Norm.: 0,00669512 Eq.: 0,73580328
Hypothetic dist:247 (dev1: 49,40 dev2: 24,70 dev3: 12,35)-->Norm.: 0,00675188 Eq.: 0,73602086
Hypothetic dist:248 (dev1: 49,60 dev2: 24,80 dev3: 12,40)-->Norm.: 0,00682133 Eq.: 0,73708867
Hypothetic dist:249 (dev1: 49,80 dev2: 24,90 dev3: 12,45)-->Norm.: 0,00690369 Eq.: 0,73903049
Hypothetic dist:250 (dev1: 50,00 dev2: 25,00 dev3: 12,50)-->Norm.: 0,00699905 Eq.: 0,74186594
Hypothetic dist:251 (dev1: 50,20 dev2: 25,10 dev3: 12,55)-->Norm.: 0,00710749 Eq.: 0,74561013
Hypothetic dist:252 (dev1: 50,40 dev2: 25,20 dev3: 12,60)-->Norm.: 0,00722897 Eq.: 0,75027335
Hypothetic dist:253 (dev1: 50,60 dev2: 25,30 dev3: 12,65)-->Norm.: 0,00736339 Eq.: 0,75586083
Hypothetic dist:254 (dev1: 50,80 dev2: 25,40 dev3: 12,70)-->Norm.: 0,00751057 Eq.: 0,76237252
Hypothetic dist:255 (dev1: 51,00 dev2: 25,50 dev3: 12,75)-->Norm.: 0,00767026 Eq.: 0,76980291
Hypothetic dist:256 (dev1: 51,20 dev2: 25,60 dev3: 12,80)-->Norm.: 0,00784211 Eq.: 0,77814092
Hypothetic dist:257 (dev1: 51,40 dev2: 25,70 dev3: 12,85)-->Norm.: 0,00802570 Eq.: 0,78736981
Hypothetic dist:258 (dev1: 51,60 dev2: 25,80 dev3: 12,90)-->Norm.: 0,00822053 Eq.: 0,79746719
Hypothetic dist:259 (dev1: 51,80 dev2: 25,90 dev3: 12,95)-->Norm.: 0,00842602 Eq.: 0,80840501
Hypothetic dist:260 (dev1: 52,00 dev2: 26,00 dev3: 13,00)-->Norm.: 0,00864152 Eq.: 0,82014968
Hypothetic dist:261 (dev1: 52,20 dev2: 26,10 dev3: 13,05)-->Norm.: 0,00886630 Eq.: 0,83266218
Hypothetic dist:262 (dev1: 52,40 dev2: 26,20 dev3: 13,10)-->Norm.: 0,00909958 Eq.: 0,84589829
Hypothetic dist:263 (dev1: 52,60 dev2: 26,30 dev3: 13,15)-->Norm.: 0,00934050 Eq.: 0,85980879
Hypothetic dist:264 (dev1: 52,80 dev2: 26,40 dev3: 13,20)-->Norm.: 0,00958815 Eq.: 0,87433977
Hypothetic dist:265 (dev1: 53,00 dev2: 26,50 dev3: 13,25)-->Norm.: 0,00984157 Eq.: 0,88943294
Hypothetic dist:266 (dev1: 53,20 dev2: 26,60 dev3: 13,30)-->Norm.: 0,01009975 Eq.: 0,90502601
Hypothetic dist:267 (dev1: 53,40 dev2: 26,70 dev3: 13,35)-->Norm.: 0,01036166 Eq.: 0,92105311
Hypothetic dist:268 (dev1: 53,60 dev2: 26,80 dev3: 13,40)-->Norm.: 0,01062622 Eq.: 0,93744520
Hypothetic dist:269 (dev1: 53,80 dev2: 26,90 dev3: 13,45)-->Norm.: 0,01089233 Eq.: 0,95413053
Hypothetic dist:270 (dev1: 54,00 dev2: 27,00 dev3: 13,50)-->Norm.: 0,01115888 Eq.: 0,97103513
Hypothetic dist:271 (dev1: 54,20 dev2: 27,10 dev3: 13,55)-->Norm.: 0,01142475 Eq.: 0,98808332
Hypothetic dist:272 (dev1: 54,40 dev2: 27,20 dev3: 13,60)-->Norm.: 0,01168882 Eq.: 1,00519820
Hypothetic dist:273 (dev1: 54,60 dev2: 27,30 dev3: 13,65)-->Norm.: 0,01194998 Eq.: 1,02230213
Hypothetic dist:274 (dev1: 54,80 dev2: 27,40 dev3: 13,70)-->Norm.: 0,01220713 Eq.: 1,03931730
Hypothetic dist:275 (dev1: 55,00 dev2: 27,50 dev3: 13,75)-->Norm.: 0,01245919 Eq.: 1,05616620
Hypothetic dist:276 (dev1: 55,20 dev2: 27,60 dev3: 13,80)-->Norm.: 0,01270511 Eq.: 1,07277210
Hypothetic dist:277 (dev1: 55,40 dev2: 27,70 dev3: 13,85)-->Norm.: 0,01294387 Eq.: 1,08905955
Hypothetic dist:278 (dev1: 55,60 dev2: 27,80 dev3: 13,90)-->Norm.: 0,01317449 Eq.: 1,10495483
Hypothetic dist:279 (dev1: 55,80 dev2: 27,90 dev3: 13,95)-->Norm.: 0,01339605 Eq.: 1,12038638
Hypothetic dist:280 (dev1: 56,00 dev2: 28,00 dev3: 14,00)-->Norm.: 0,01360766 Eq.: 1,13528522
Hypothetic dist:281 (dev1: 56,20 dev2: 28,10 dev3: 14,05)-->Norm.: 0,01380849 Eq.: 1,14958532
Hypothetic dist:282 (dev1: 56,40 dev2: 28,20 dev3: 14,10)-->Norm.: 0,01399779 Eq.: 1,16322394
Hypothetic dist:283 (dev1: 56,60 dev2: 28,30 dev3: 14,15)-->Norm.: 0,01417484 Eq.: 1,17614196
Hypothetic dist:284 (dev1: 56,80 dev2: 28,40 dev3: 14,20)-->Norm.: 0,01433901 Eq.: 1,18828416
Hypothetic dist:285 (dev1: 57,00 dev2: 28,50 dev3: 14,25)-->Norm.: 0,01448972 Eq.: 1,19959942
Hypothetic dist:286 (dev1: 57,20 dev2: 28,60 dev3: 14,30)-->Norm.: 0,01462646 Eq.: 1,21004097
Hypothetic dist:287 (dev1: 57,40 dev2: 28,70 dev3: 14,35)-->Norm.: 0,01474881 Eq.: 1,21956653
Hypothetic dist:288 (dev1: 57,60 dev2: 28,80 dev3: 14,40)-->Norm.: 0,01485640 Eq.: 1,22813846
Hypothetic dist:289 (dev1: 57,80 dev2: 28,90 dev3: 14,45)-->Norm.: 0,01494894 Eq.: 1,23572383
Hypothetic dist:290 (dev1: 58,00 dev2: 29,00 dev3: 14,50)-->Norm.: 0,01502619 Eq.: 1,24229446
Hypothetic dist:291 (dev1: 58,20 dev2: 29,10 dev3: 14,55)-->Norm.: 0,01508801 Eq.: 1,24782699
Hypothetic dist:292 (dev1: 58,40 dev2: 29,20 dev3: 14,60)-->Norm.: 0,01513431 Eq.: 1,25230283
Hypothetic dist:293 (dev1: 58,60 dev2: 29,30 dev3: 14,65)-->Norm.: 0,01516507 Eq.: 1,25570811
Hypothetic dist:294 (dev1: 58,80 dev2: 29,40 dev3: 14,70)-->Norm.: 0,01518033 Eq.: 1,25803363
Hypothetic dist:295 (dev1: 59,00 dev2: 29,50 dev3: 14,75)-->Norm.: 0,01518018 Eq.: 1,25927474
Hypothetic dist:296 (dev1: 59,20 dev2: 29,60 dev3: 14,80)-->Norm.: 0,01516481 Eq.: 1,25943122
Hypothetic dist:297 (dev1: 59,40 dev2: 29,70 dev3: 14,85)-->Norm.: 0,01513441 Eq.: 1,25850711
Hypothetic dist:298 (dev1: 59,60 dev2: 29,80 dev3: 14,90)-->Norm.: 0,01508926 Eq.: 1,25651058
Hypothetic dist:299 (dev1: 59,80 dev2: 29,90 dev3: 14,95)-->Norm.: 0,01502968 Eq.: 1,25345369
Hypothetic dist:300 (dev1: 60,00 dev2: 30,00 dev3: 15,00)-->Norm.: 0,01495603 Eq.: 1,24935221
Normalized optimal probability 0,160 at distance 50
Equalized optimal probability 1,259 at distance 296
==========================================

HaWe
03.09.2018, 17:26
ja, ich hätte ja auch mit einem Wert zumindest zwischen 5-6 cm gerechnet (0 bis 2 sigma), ggf. auch 3*sigma (6,5cm) aber exakt auf 5,0 ist doch extrem unwahrscheinlich:
ein ganz kleines bisschen müssen die anderen Sensoren doch schon auch berücksichtigt werden, und 6cm (2*sigma) wäre ja noch immer im 27% Wahrscheinlichkeitsbereich (zwiscen 95,5% und 68%).

Holomino
03.09.2018, 17:30
Moment! 5% auf 5cm sind 2,5mm. Von 5 auf 6cm sind also 4xSigma.

HaWe
03.09.2018, 17:58
stimmt, es ist ja der 5% Sensor, nicht der 10%, du hast Recht!

wie auch immer...: wenigstens ein bisserl höher als 5,0, aber zumindestens nicht exakt 5,0...

PS,
und dass er dann noch angibt

Equalized optimal probability 1,259 at distance 296

finde ich ja auch etwas verwegen...

PPS,
immerhin, du hast Recht,
10 cm würde bedeuten, dass das zwar irgendwo in der Mitte zwischen allen Sensorwerten läge, aber immer weit ausßerhalb jeder anzunehmenden Wahrscheinlichkeit, einmal weit drüber, und 2x weit drunter.

Ich hatte diesen Fall selber als Extremfall konstruiert, aber damit dann doch nicht gerechnet.

- - - Aktualisiert - - -

Dieser Fall 2 wird wohl tatsächlich, praktisch, nie passieren.

machen wirs nochmal, auch konstruiert, aber jetzt ein bisschen plausibler - mal gucken, wo wir landen...:


3.Fall:
Sensor1 25cm
Sensor2 20cm
Sensor3 15cm

Sensor1 25*25 = 625
Sensor2 100*20= 2000
Sensor3 400*15= 6000
Summe = 8625
8625/525= 16,4 <<< !
das wäre jetzt zumindest für alle 3 immer im 3*sigma-Bereich.

Holomino
03.09.2018, 18:01
Auch das ist erklärbar. Wenn Du die Glocken der anderen beiden Kurven auf knapp 30cm legst, hast Du für Sensor1 ein Sigma von knapp 6cm und für Sensor2 liegt das Sigma bei 3cm. D.h.
- Bei knapp 30 cm liegt der Messwert von Sensor2 ja ziemlich nah an der Mitte.
- Sensor1 liegt mit 20cm immer noch im 2. Sigma-Bereich.
Sensor 1 und 2 überlappen hier halt optimal. Menschlich gesehen würde ich sagen, sie haben Sensor3 demokratisch überstimmt.

HaWe
03.09.2018, 18:08
ja, verstehe ich... :)

es ist aber derart unwahrscheinlich, dass alle 3 gleichermaßen echte Ausreißer produzieren, dass man den Fall2 wirklich nicht betrachten muss.
Was denkst du über Fall 3?

Holomino
03.09.2018, 20:11
Ich schmeiße mal gar nicht die Kurve an und sag Dir auf'n Kopf zu:
- 15..17,25cm und 17,5 .. 25cm als 3-Sigmagrenzen der Sensoren 3 und 1 haben keine Überschneidung. Deine Fallwahrscheinlichkeit liegt alleine dadurch bei unter 0,3%. Du misshandelst hier den empirischen Beweis durch die unwahrscheinlichsten Fälle.
- Einen Sensor, der sich auf 25cm jede dritte Messung um mehr als 5cm verhaut, würde ich als defekt deklarieren. Insbesondere, wenn ich darüber nachdenke, was das Teil dann auf 5m misst.

Auch hier also: Das ist kein typisches Messergebnis, das es zu verbessern gilt, sondern ein Ergebnis, bei dem man mangels Kausalität nur noch abschätzt, ob man es nur teilweise oder doch besser ganz in die Tonne tritt. (Es klingt vielleicht hart, zu sagen: "Die Mittelung soll gute Messungen noch besser machen, aber nicht Scheiße in Gold verwandeln", aber ich glaube, das trifft den Kern.)

Du hast selber das Handwerkszeug der Sigmagrenzen in den vorherigen Posts eingebracht. Erweitere doch einfach mal Deine Funktion um 'ne Prüfung:
- gewichtetes Mittel errechnen
- Über das Resultat die absoluten Sigmas erstellen
- Anhand der Sigmagrenzen überprüfen, wie wahrscheinlich die einzelnen Eingaben waren.

HaWe
03.09.2018, 21:05
nein, jetzt bleib mal sachlich, ich misshandle hier nichts, ich versuche herauszubekommen, wie verschiedene Filter auf ungewöhnliche oder unwahrscheinliche Konstellationen reagieren und was sie dann ausgeben.
Über wahrscheinliche, häufige und eng beieinanderliegende Konstellationen brauche ich mir keine Gedanken zu machen, da genügt wschl ein einfaches arithmetisches Mittel.
Die unwahrscheinlichen Fälle sind es, die für die Filter interessant sind. Dabei müssen die Sensoren nicht einmal defekt sein, sondern einfach physikalisch an ihre Grenzen kommen (z.B. weil sie teilw. schräg auf ein Objekt ausgerichtet sind), aber trotzdem muss ein fahrender Roboter auch mit ihren außergewöhnlichen und untypischen Messergebnissen irgendwie zurechtkommen.

Sensor1 25cm 20% => 1sig±5 => 2sig ±10 ... 3sig ±15
Sensor2 20cm 10% => 1sig±2 => 2sig ±4 ... 3sig ±6
Sensor3 15cm 5% => 1sig±0,75 => 2sig ±1,5 ... 3sig ±2,25

was ist das für ein Programm, das du benutzt? Poste oder verlinke es doch mal bitte, dann kann ich einfacher verschiedene Modelle selber testen!

Moppi
04.09.2018, 07:31
Nochmal zur Ausgangsfrage:

Gegeben:
mehrere Sensoren messen dieselbe Entfernung, aber mit unterschiedlicher Standardabweichung.
Gesucht:
zuverlässigster Wert mit der geringsten Abweichung.
Vorausesetzungen:
Standardabweichung = mittlerer Fehler


1) Die geringste Abweichung ist immer größer, als die geringste Abweichung einer der drei Sensoren.
2) Die geringste Abweichung ist immer kleiner, als die größte Abweichung einer der drei Sensoren.

Der zuverlässigste Wert, den man aus den Werten mehrerer Sensoren bilden kann, ist das arithmetische Mittel.
Die Bildung des Mittels verringert den Fehler und führt zur Annäherung an die tatsächliche Entfernung, bei größtmöglicher Wahrscheinlichkeit.

Den zuverlässigsten Messwert aus Messgebern mit unterschiedlicher Genauigkeit zu bilden, ist die denkbar schlechteste Methode den zuverlässigsten Wert zu ermitteln, der technisch zu ermitteln wäre.

Man benutzt im Idealfall einen Sensor mit der geringsten Standardabweichung, also den technisch besten/ausgereiftesten Sensor und führt damit mehrere Messungen durch, aus denen man das arithmetische Mittel bildet. So erhält man die statistisch größtmögliche Zuverlässigkeit.
Für die bestmögliche Annäherung an die tatsächliche Entfernung und also zur Kompensation von Störfaktoren führt man eine Kalibrierung eines Sensors durch. Dieses je nach Störfaktor, der physikalisch gegeben ist und sich dann, für zukünftige Messungen, nicht mehr ändert. Bei Gravitationssensoren, rechnet man z.B. die Erdgravitation heraus, wenn sie auf der Erde betrieben werden. Bei einer Kalibrierung kann man auch den schlussendlichen mittleren Fehler ermitteln (weil sich der mittlere Fehler des Sensors durch die Beschaltung wahrscheinlich vergrößert - Fehlerfortpflanzung, Fehlerverstärkung), um ihn aus zukünftigen Messergebnissen herauszurechnen und so einen genaueren Wert zu erhalten.


@HaWe
Bis zur Ermittlung des mittleren Fehlers warst Du doch schon gekommen. Im nächsten Schritt kannst Du doch jeden Messwert um einen Anteil des mittleren Fehlers verringern und erhältst einen genaueren Wert(?)! Wenn sich die Abweichung des mittleren Fehlers mit der Entfernung ändert, also einer Funktion folgt, könnte man den mittleren Fehler (über den gesamten Messbereich von
10cm bis 100cm) mit Hilfe dieser Funktion annähernd korrigieren und würde einen genaueren mittleren Fehler auf eine bestimmte gemessene Entfernung erhalten.

HaWe
04.09.2018, 11:22
Der zuverlässigste Wert ist zunächst niemals das arithmetische Mittel, das wäre die gröbste denkbare Vereinfachung:
Kalmanfilter bei 9D IMUs beweisen, dass man mit Statistik weiter kommt, ansonsten würden die Hersteller sicher einfach die Werte von Gyro, Magneto- und Accelerometer arithmetisch mitteln - doch das würde nicht funktionieren und nur "mathematischen Mist" ergeben.

Auch ist die Umgebung, für die dieser Aufbau aingesetzt werden soll, keine unter Laborbedingungen, sondern "die wirkliche Welt": das Haus, der Garten, z.B. für einen SLAM Roboter, der seinen momentanen Ort ermitteln, die Umgebung kartieren und dabei auch Hindernisse, freie Wege und Lücken finden soll.
Teile der Umgebung können sich sogar bewegen, oder Reflexe oder Ablenkungen produzieren, bei IR-Lichtmessung sogar auch mal durchlässig sein (nicht aber für Ultraschall), oder es kann auch sein, dass einer der Sensoren zufällig eine Kante erwischt, die ein anderer nicht "sieht", die mehr oder weniger weit vorsteht oder zurückweicht:
so etwas könnte auch ein theoretischer Grund sein, weshalb im Fall 2 die Wahrscheinlichkeitsdichtefunktion (WDF) 2 Maxima erkannt haben könnte, ausschließen kann man das dann zumindest nicht mit Gewissheit; es kann ntl auch nur ein plötzlicher Ausreißer in der Messung sein.

Ich selber baue nun schon recht lange Zeit mobile Roboter mit Hindernis- und Objekterkennung, und nach meiner Erfahrung bietet die "wirkliche Welt" immer wieder Überraschungen, mit denen man bei der Konstruktion und "Labortests" nicht gerechnet hat.
Statistik wie mit der WDFoder Kalman oder SMC Filter wären wohl wirklich der beste Weg dafür, aber vergleichsweise zu aufwändig, daher der Versuch, deren Ergebnisse über einfachere Sensorfusion-Rechenwege tendenziell anzugleichen, mit vertretbarem Restfehler. Die Wichtung per 1/Varianz scheint dabei einzelne Objekte im Regelfall recht gut zu orten, mit guter Übereinstimmung zur WDF, für Extremfälle und mehrere Maxima/Minima ist die WDF offenbar schon weit überlegen, doch erfordert sie dann auch noch einige "Nacharbeit" - hier muss man tatsächlich noch zusätzlich andere Wege ergänzen. Ein bereits erwähnter Weg wäre z.B. noch ein vorgeschalteter Medianfilter.

Moppi
04.09.2018, 21:52
Ich glaube , da war noch ein Problem, die Ausreißer bei den Messwerten. Stichwort: Chauvenetschen Kriterium.

HaWe
05.09.2018, 08:36
Ich glaube , da war noch ein Problem, die Ausreißer bei den Messwerten. Stichwort: Chauvenetschen Kriterium.

jap, genau dafür waren die angesprochenen Medianfilter gedacht!