Also wenn die Geometrie deines Systems vollständig bekannt ist (inkl. der Pixelgröße, und der Position und Orientierung des Sensors relativ zur Empfangsoptik), dann ist es auch möglich die zur Umrechnung zwischen den Pixeln auf dem Sensor und dem Winkel beta benötigte Formel zu mathematisch bestimmen.


Es geht aber natürlich auch experimentell, ähnlich wie auf Bernhards Seite beschrieben.

Nehmen wir als Grundlage mal das von dir gepostete Bild, dann platzierst du erstmal einen Gegenstand am unteren Ende des Messbereichs (was auf dem Bild als Arbeitsabstand bezeichnet wird), also so, daß der reflektierte Lichtpunkt ganz am Rand des Sensors landet. Dann bestimmst du den Winkel beta = atan(AC/AB).

Das gleiche machst du dann nochmal am oberen Ende des Messbereichs, und ggf. auch noch bei ein paar Zwischenwerten. Du bestimmst also zu bekannten Stellen auf dem Sensor die zugehörigen Winkel beta. Im Idealfall sollte der Winkel beta linear von der Position des Lichtpunkts auf dem Sensor abhängig sein, d.h. wenn du die Werte in ein Koordinatensystem einzeichnest (X-Achse: Position auf dem Chip, Y-Achse: beta) liegen sie alle zumindest näherungsweise auf einer Gerade. Natürlich wird es gewisse Abweichungen geben, da du den Abstand AC und damit auch den Winkel beta natürlich nicht 100%ig exakt bestimmen kannst, und weil die Optik sicherlich nicht verzerrungsfrei ist, aber es sollte dennoch eine Gerade erkennbar sein.

Und das ist auch schon die Lösung...
du musst nurnoch die Gleichung für diese Gerade bestimmen, und schon hast du alles was du brauchst.
(Position auf dem Sensor ===[Geradengleichung]===> beta ===[AB*tan]===> AC)