nein, sie messen beide bei 10% rel. Fehler auf 1m auf durchschnittlich (!) (absolut) 10cm genau, denn die Genauigkeit bemisst sich am echten Wert, nicht am (ggf. falsch gemessenen) Messwert,
und ist der echte Wert 120cm, dann haben beide mit 10% rel. Standardabw. 12cm durchschnittl. Messfehler.

einer mit 20% rel. Standardabw. hätte dann bei 1m allerdings 20cm durchschn. absoluten Fehler.

PS,
die Gewichtung erfolgt dann per Multiplikation der Messwerte mit dem Kehrwert der Unsicherheit, wie Wiki schrieb:

"Gewichtung von Messgrößen
In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten. Hierdurch wird erreicht, dass bei weiteren Berechnungen Werte mit kleineren Unsicherheiten entsprechend stärker gewichtet werden. "

Ich verstehe daher noch nicht, was hier systematisch wirklich falsch ist, und das Ergebnis gibt ja auch nur eine verlässlichere Tendenz, keine absolute erkenntnistheoretische Gewissheit!

- - - Aktualisiert - - -

ich rechne jetzt noch mal dein Beispiel mit zwei 10%-"unsicheren" Sensoren durch, wo einer 100cm misst und der andere 120cm:

S1: (1/0,1) *100 = 1000
S2: (1/0,1) *120 = 1200

(1/0,1) + (1/0,1) = 20

(1000+1200)/20 = 110

stimmt doch, oder?
In diesem Falle wäre das identisch mit dem arithm. Mittel, und bei 2 gleichermßen ungenauen Sensoren wäre das auch das, was ich statistisch erwarten würde.