Machen wir's mal praktisch.
Bei einem Sensor mit 10 Bit Auflösung und einem 5m Messbereich hast Du im Idealfall eine Auflösung von 0,5cm.
Bei der Durchquerung des Türrahmens (80cm breit, 15 cm tief) hast Du in der Messung einzelner Punkte (ohne Bezug auf weitere Fehlerquellen) mit diesem Quantisierungsfehler zu rechnen. Du siehst vor dem Durchqueren der Tür bereits die Backen der Tür und kannst sie relativ zur umgebenden Wand eintragen (allerdings mit den o.g. Fehlern) Beim Messen im Türrahmen selbst kannst Du anhand der bereits eingetragenen Punkte sowohl durch Mittelwertbildung (Matching) die Lage korrellierender Punkte korrigieren, als auch Deine Position prüfen, aber alles nur im Rahmen des Quantisierungsfehlers, d.h. bei einer Messabweichung von 0,5cm und einer Tiefe von 15 cm bekommst Du einen Winkelfehler von max. ArcSin(0,5/15)= 2°. Danach werden alle weiteren Messwerte relativ dazu eingetragen um genau diesen einmalig bekommenen Fehler versetzt.

Abgesehen davon, dass ich kaum glaube, dass ein Messfehler von 0,5cm unter allen Umständen realistisch mit Bordmitteln zu garantieren ist: Mir scheint nicht einmal das Problem zu sein, dass der Roboter beim Navigieren (Rematch des Türrahmens) nicht mit diesem geringen Fehler leben könnte. Das Problem ist die korrekte Darstellung der Map für den Menschen. Wie sehen hier die praktischen Ergebnisse aus? Bilden über SLAM erzeugte Maps, die als einzigen Verbindungspunkt eine Tür zwischen zwei größeren Bereichen haben (also keine Rundkurse) auch immer die relative Lage der Bereiche zueinander sauber und zuverlässig ab? Oder werden die auch krumm?