PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Optische Maus: geänderte Fokus-Distanz



Manf
13.02.2005, 22:43
Hier ist eine optische Maus, gerade eben zum ersten Mal geöffent, um zu sehen, wie man die Fokusdistanz ändern kann.
Ich möchte nur gleich schon mal ein paar Bilder davon zeigen.


https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=414

Als USB Maus läßt sie sich leicht parallel zu der Computermaus an einen weiteren USB Port anstecken und arbeitet parallel zur ersten. Eine gleichzeitige Bewegung in unterschiedliche Richtung wird kompensiert.

In so fern ist die Versuchsanordnung einfach. Die Maus wird in Betrieb genommen, die Linse wird entfernt und durch eine andere ersetzt. Ein hell beleuchtetes Papier wird in wechselndem Abstand vor der Maus seitlich bewegt und es wird festgestellt, ob sich eine neue Fokusebene ergeben hat.

Es funktioniert so einfach wie geplant. Die Originalinse auf dem halben Weg zwischen Unterlge und Chip und hat etwa 1,5mm Brennweite. (Im Bild unten links ergibt sich ein Leuchtfleck in 20mm Abstand von der Linse der allerdings nicht durch die Linse sondern durch die Wölbung der Umrandung hervorgrufen wird, auch ein Linseneffekt.) Die Ersatzlinse im Bild unten rechts ist eine doppelte Lupe mit ca. 30mm Brennweite und die Fokusebene liegt bei 230mm.

Die Bewegung wird mit guter Auflösung sauber aufgenommen.

Die Messung wird noch einmal sauber durchgeführt, aber es hat sich im ersten Experiment eine geänderte Fokusdistanz von mehr als 20cm vor der Linse ergeben. Ein solcher Abstand (geplant 5cm) ermöglicht sehr viel besser die Messung der Strecke bei der Bewegung über dem Boden.

Manfred

Thoralf
14.02.2005, 07:23
den gleichen Gedanken hate ich auch schon, sogar mit der gleichen Lupe *ggg*
Nur bei der Beleuchtung hatte ich eine Niete gezogen: eine energiesparlampe. Deren Geflimmer hat den Sensor durcheinander gebracht. Nun meine Frage: was hast du genommen? Falls eine Glühlampe, stört deren zwar geringeres Geflimmer auch noch oder hast du eine ganz andere Lichtquelle wie Power-LEDs genommen?
Ich will mir dazu mal einen richtigen Lichttubus mit roten superhellen LEDs bauen, in dem sich auch die Optik befindet.

Manf
14.02.2005, 08:32
Es ist eine Halogenlampe mit Schirm, sie ist im Bild unten rechts als schwarzer Rand zu sehen. Ich hatte mich auf weitere Aktionen mit Beleuchtung und Fokusierung eingestellt. Der Effekt war aber dann relativ einfach zu erzielen.
Manfred

RCO
14.02.2005, 08:38
Ist ja klasse. Ist wohl die Antwort auf jede Menge Threads mit dem Thema Maussensor zur Bewegungserfassung.
Die Frage ist nur, wie man mit dem Roboter so viel Licht erzeugt. Es muss ja im Grunde nur ein retiv kleiner Ausschnitt beleuchtet werden, vielleicht reichen ein par superhelle Leds oder so.

MFG Moritz

Manf
14.02.2005, 08:55
wie man mit dem Roboter so viel Licht erzeugt. Es muss ja im Grunde nur ein retiv kleiner Ausschnitt beleuchtet werden

Das greift sehr schön ineinander:
Meine nächste Frage ist,
wie kann man am besten nachweisen wie groß die relevante Fläche ist?

Manfred

RCO
14.02.2005, 09:04
Wenn man senkreht zur Platine einen Stift hinhällt und schaut in welcehm Bereich er anspricht?
Wie sieht es denna us, wenn du alles Licht ausmachst, könnte man nicht die eigentliche Beleuchtung benutzen um zu schauen, welchen Bereich sie ausleuchtet?
Oder eben Try and Error ;-)

Auf jeden Fall muss ich sagen, dass ich das ganze ziemlich genial finde. Hast du noch vor eine Testreihe zu machen auf der du die Maus auf einem Vehikel montierst und mal einen relaistischen Versuch zur Genauigkeit und Relevanz für Roboteranwendungen durchführst?

MFG Moritz

JanB
14.02.2005, 09:14
Hallo Manfred,
wie kann man am besten nachweisen wie groß die relevante Fläche ist? Vielleicht mit verschieden großen runden hellen Scheiben.
So wie Bierdeckel.
MIt einem weit entfernten (kein Fokus) und dunklen Hintergrund.
Dann immer im gleichen Abstand probieren, wie groß die Scheibe sein muss.
Wenn du einmal die Grösse in einem bestimmten Abstand kennst,
kannst du es für andere Abstände leicht ausrechnen.

Gruß Jan

Johannes
14.02.2005, 09:36
Hallo Manf,
ich habe auch schon einmal so eine optische Maus mit einer anderen Linse versehen, aber meine Ergebnisse waren nicht so gut wie deine. Was mich interessieren würde, ist, was für Messefehler sich ergeben, wenn du die Entfernung zum Objekt, das du vor der Linse bewegst, veränderst. Müssen dass immer diese 20cm sein oder gehen da auch noch 15?

Gruß
Johannes

Manf
14.02.2005, 09:52
Ja, das geht alles in die Richtung, ich gehe es noch einmal durch (einige Ideen habe ich auch noch).
Es ist das Ziel den Sensor optimal zu nutzen, das heißt ihm die ganze Fläche auszuleuchten und über die Linse zuzuführen, die er verarbeiten kann. Es ist ja ein nxn Pixel Sensor der durch periodische Korrelation eine zweidimensionale Bewegung erfasst.

Eine Möglichkeit ist, die Information über Ort und Größe des Sensors zu erhalten und das System zu berechnen.

Alternativ kann man messen. Dabei ist zu bedenken, wie die Korrelationsfunktion arbeitet: Sie vergleicht das gesamte Bild mit dem vorhergehenden und einigen Verschiebungen und sucht sich die beste Übereinstimmung heraus. Jegliche Kontur die bei der Verschiebung an ihrer Stelle bleibt, verhindert das Ansprechen auf den bewegten Probekörper.
Was ist dann der beste Hintergrund? Konturlos weil außerhalb des Fokus und eher schwarz, während der Probekörper hell und im Fokus ist. In sofern ist der Stift, der auf den Sensor zeigt und vorne hell ist sicher sehr gut. Am besten es ist sonst recht dunkel und der Stift leuchtet selbst.

Die größe der Kontur ist sicher auch entscheidend, groß genug, damit der Sensor anspricht und klein genug, damit man die Grenze gut bestimmen kann bis zu der der Sensor anspricht.

Da ich "weiß", dass das Sensorfeld quadratisch ist, wäre wohl eine leuchtende Linie ideal. Wegen der Abtastung darf es aber keine Neonröhre sein. Ich könnte mir auch ein Papierröhrchen vorstellen, das von einer LED von innen beleuchtet wird.

Mal sehen.
Manfred

Wolferl
14.02.2005, 09:54
Füür genauere Untersuchungen macht es evtl. auch Sinn die serielle Schnittstelle des Bausteins anzusprechen (falls vorhanden wie beim ADNS2051).
Über das PixelDump Bit kann dann das Bild in graustufen ausgelesen und am Rechner dargestellt werden. Damit kann die Optik relativ präzise ausgerichtet und justiert werden, und auch die relevante Fläche bestimmt werden.
Ausserdem lässt sich über die Schnittstelle die Beleuchtung nachregeln (Shutterregister, MaxPix, AvgPix auslesen), was für unterschiedliche Auflageflächen praktisch ist.
Je nach Typ lässt sich die Auflösung umschalten (400cpi -> 800cpi).

Bei unseren Messungen lag der Fehler im mm/m Bereich (mm pro verfahrenem Meter) für planparallele Oberflächen. Für "wellige" Oberflächen (Abstand schwankte um ca. +-0,5mm) wurden daraus schnell mehrere cm/m Fehler.
Wir haben dann versucht dieses Manko durch eine parallele Strahlführung sowohl von Beleuchtung als auch von der Reflektion zu beseitigen, hatten damit aber nur mäßigen Erfolg.

Wolfgang

Manf
14.02.2005, 09:57
Hallo Manf,
ich habe auch schon einmal so eine optische Maus mit einer anderen Linse versehen, aber meine Ergebnisse waren nicht so gut wie deine. Was mich interessieren würde, ist, was für Messefehler sich ergeben, wenn du die Entfernung zum Objekt, das du vor der Linse bewegst, veränderst. Müssen dass immer diese 20cm sein oder gehen da auch noch 15?

Gruß
Johannes

Der Unterschied von 20 auf 15 ging bei mir im ersten Versuch nicht. Nachem ich die Linse eingestellt habe hat das System auf eine bewegte Kontur in einem Entfernungsbereich von höchstens einem cm gut reagiert.
Mit Optik wird man wohl auch noch was machen können zur Vergößerung der Schärfen-Tiefe.
Im übernächsten Schritt?
Manfred

Johannes
14.02.2005, 10:02
Ja, die Frage ist aber auch, in wie fern man Tiefenschärfe braucht. Wenn man die Bewegung eines Roboters über dem Fußboden misst, dann ist die Entfernung ja eigentlich konstant. Und bei Schwellen ist das ganze sowieso viel zu ungenau, da macht es wahrscheinlich auch nichts, wenn das Bild nicht mehr ganz scharf ist.

Gruß
Johannes

Manf
14.02.2005, 10:06
...
Bei unseren Messungen lag der Fehler im mm/m Bereich (mm pro verfahrenem Meter) für planparallele Oberflächen. Für "wellige" Oberflächen (Abstand schwankte um ca. +-0,5mm) wurden daraus schnell mehrere cm/m Fehler.
Wir haben dann versucht dieses Manko durch eine parallele Strahlführung sowohl von Beleuchtung als auch von der Reflektion zu beseitigen, hatten damit aber nur mäßigen Erfolg.

Wolfgang

Tolle Kommentare, vielen Dank.
In dem Zusammenhang wollte ich auch der Fragestellung nachgehen wie groß eigentlich die Genauigkeit sein kann. In jeder Richtung hat der Sensor ja nur 16? Pixel mit einigen Graustufen. Er kann die Position ja nur mit begrenzter Genauigkeit erfassen und macht bei der Weiterführung einen Übergabefehler (der im Stillstand sicher annähernd null ist aber) der bei Schwingungen durch seine häufige Anwendung doch recht groß werden könnte.
Wie läßt sich dieser Fehler quantifizieren, abschätzen?
Manfred

Johannes
14.02.2005, 10:13
hm, da musst du im Datenblatt mal schauen, wie oft in der Sekunde eine Messung stattfindet. Ich weiß die Zahl nicht mehr im Kopf aber die Zahl ist soweit ich mich erinnere dreistellig.

Wolferl
14.02.2005, 10:15
Die Genauigkeit lässt sich durch eine kleinere relevante Fläche erhöhen, zu Lasten der maximalen Geschwindigkeit. <- in der Theorie.
Bei uns ergaben sich Probleme mit der Beleuchtung lang vorher, zumal wir anfangs nur die Quad - Ausgänge verwendet hatten und so keinen Schimmer hatten bzgl. der Beleuchtung hatten (unsere Leds zur Beleuchtung waren vom ADNS entkoppelt)

Wolfgang

Johannes
14.02.2005, 10:17
Also wird die Sache gerade durch die neue Linse ungenauer? Oder was meinst du mit "relevante Fläche"?

Manf
14.02.2005, 10:22
Die Genauigkeit lässt sich durch eine kleinere relevante Fläche erhöhen, zu Lasten der maximalen Geschwindigkeit. <- in der Theorie.
Bei uns ergaben sich Probleme mit der Beleuchtung lang vorher, zumal wir anfangs nur die Quad - Ausgänge verwendet hatten und so keinen Schimmer hatten bzgl. der Beleuchtung hatten (unsere Leds zur Beleuchtung waren vom ADNS entkoppelt)

Wolfgang
Je länger die Korrelationsfunktion ist und je höher die Amplituden Auflösung, desto höher sollte die Positions-Auflösung sein...
Ich muß erst mal nachsehen, ist die Beleuchtung moduliert?
Manfred

Wolferl
14.02.2005, 10:26
Ich hab Manfred so verstanden, dass er unter relevanter Fläche die Fläche versteht, die der Sensor "fotografiert".
Diese Fläche lässt sich mit Hilfe von Linsen stark verkleinern bzw. für den Sensor vergrössern. Dadurch wird der Fehler Digitalisierungsfehler kleiner.
Da sich für einen positiven Bildvergleich altes und neues Bild noch zu einem gewissen Maß überlappen müssen verringert sich die maximal mögliche Verfahrgeschwindigkeit.
Jedoch wie oben erwähnt, vorher hat man das problem mit der ausreichenden Beleuchtung der Fläche.

Manf
14.02.2005, 10:30
Die Linse bildet die Unterlage auf den Chip ab. Mit einem Abbildungsmaßstab von 1:1 erhält man wohl 400-800dpi.
Möchte man beispielsweise den 20 fachen Abstand, dann erhält man nur noch ungefähr 20-40 dpi.
Das wären also Schritte von ca. 1mm auf ca. 5cm Entfernung.
Manfred

Wolferl
14.02.2005, 10:31
Moulation: weiß ich nicht.
Wir sind anfangs davon ausgegangen, dass der LED Strom evtl. geregelt wird. Muss aber nicht sein, da bereits der Shutter angepasst wird.

Johannes
14.02.2005, 10:32
Bekommt man den von dir angesprochenen ADNS2051 auch einzeln oder muss man immer die Maus kaufen?

Wolferl
14.02.2005, 10:37
Dazu gibts schon einen Thread.
Ja, den gibt es auch einzeln mit Optik und...
bei Farnell.
Maus kann ich aber nur empfehlen, die Mühe den ADNS rauszupopeln lohnt sich für privat.

robotxy
14.02.2005, 10:37
Ja den bekommst du bei http://www.farnell.com/.
MfG
Rasmus

Manf
14.02.2005, 10:41
Ich hab Manfred so verstanden, dass er unter relevanter Fläche die Fläche versteht, die der Sensor "fotografiert".
Diese Fläche lässt sich mit Hilfe von Linsen stark verkleinern bzw. für den Sensor vergrössern. Dadurch wird der Fehler Digitalisierungsfehler kleiner.
Da sich für einen positiven Bildvergleich altes und neues Bild noch zu einem gewissen Maß überlappen müssen verringert sich die maximal mögliche Verfahrgeschwindigkeit.
Jedoch wie oben erwähnt, vorher hat man das problem mit der ausreichenden Beleuchtung der Fläche.
Das System ist so gut, daß ich ihm das Licht gerne geben würde, das es braucht. Wenn es gepulst sein soll, umso besser, dann kann man es ausschalten wenn keiner hinschaut.

Relevante Fläche habe ich mal die Fläche genannt, die auf den Sensor abgebildet wird. Ich würde gerne einen größeren Abstand zum Objekt und damit mehr erlaubte Tolreranz im Abstand haben und dafür etwas an Auflösung aufgeben. Eine Auflösung um 1mm denke ich ist noch akzeptabel.

Die erforderliche Überlappung der Bilder müßte für die Korellation erheblich groß sein. Die vom Hersteller eingeplante Überlappung ergibt sich rechnerisch aus der Abtastrate, Kantenlänge der relevanten Fläche* und max Geschwindigkeit. Hat jemand die Daten gerade da? Sie müßte verfügbar sein.

*Sensor-Kantenlänge bei Abblidungsmaßstab 1:1
Manfred

Wolferl
14.02.2005, 10:53
Das war zu Beginn ebenfalls unser Ziel.
Wir haben den Ansatz gemacht, dass sich die Quantisierungsfehler im Mittel aufheben. Das war bei uns aber leider nicht der Fall, und wir haben auch nie wirklich verstanden wieso.
Daher gingen wir in die andere Richtung und haben versucht die relevante Fläche zu verkleinern (-> Quantisierungsfehler wird ebenfalls kleiner).

Wolfgang

Wolferl
14.02.2005, 10:57
Zu dem Fehler gabs auch noch einen schönen Link in einem anderen Thread, wo man den Fehlerverlauf schön sehen konnte. Da hat jemand den Sensor an einen Plotter gebaut und Kreise gezeichnet.
Dummerweise find ich den Link nicht mehr.

robotxy
14.02.2005, 11:00
Wieso nimmt man nicht eine Digitalkamera, da hätte man doch eine gute Auflösung(Motion Tracking), und könnte das dann in absolute Positionsdaten umrechnen?
MfG
Rasmus

Manf
14.02.2005, 11:06
Wieso nimmt man nicht eine Digitalkamera, da hätte man doch eine gute Auflösung(Motion Tracking), und könnte das dann in absolute Positionsdaten umrechnen?
MfG
Rasmus
Gute Frage, die bietet sicher mehr.

Wenn man aber soetwas braucht, mit n Ausgängen und klein und billig und fertig. Sicher funktionierend, dann ist es schon toll wenn man es einsetzen kann. Und ersetzen, und vervielfachen.
Manfred

Wolferl
14.02.2005, 11:26
IConnect von µEpsilon (wie LabView nur kostenlos zum download und mit etwas dürftiger Doku) bietet dafür ein paar nette Routinen. Ist aber elends langsam.

Wolfgang

Manf
14.02.2005, 12:29
Gleich hier unter "stats" sind die Daten einiger optischer Chips aufgeführt, meiner ist mal wieder nur kurz erwähnt.
Das werde ich wohl selber noch messen müssen.
Manfred

http://www.ida.net/users/oe1k/OpticalMouse/#maxacceleration

und weil es so schön aussieht
http://www.chipmunk.nl/ProMouse/part8.html

Thoralf
14.02.2005, 12:29
das ganze kann man nur in Echtzeit vernünftig lösen, also einen fertigen Sensor mit Signalprozessor wie eben in der Maus. Alle PC-Lösungen sind mehr oder minder aufwendig, entweder ist die Mathematik oder die Bildübertragung zeitintensiv. Mathlab- oder Labview-Algorithmen sind zeitmäßig NICHT optimiert, da nicht für Echtzeit gedacht. Zum Testen eines Verfahrens in Nichtechtzeit gehts aber.
Das Hauptproblem wird wohl eine vernünftige Linse sein bzw. die Qualität des abbildenden Systems. Dort müßte man ansetzen. Die Tiefenschärfe dürfte für eine holonomische Plattform (2 Antriebsräder + 2 Stützräder) unkompliziert sein.

Wolferl
14.02.2005, 13:20
Hier der Link von dem ich vorhin geschrieben hab:
http://www.fh-augsburg.de/~hobler/maus.htm#

Wolfgang

Manf
14.02.2005, 17:05
Vielen Dank für den Link.

Die Arbeit gefällt mir sehr gut, vor allem das Diagramm mit den 9 Kreisen zu 10cm finde ich sehr aussagekräftig.

Die Zielsetzung war, soweit ich es beim ersten Durchgang verstanden habe, die Maus im Original-Abstand über weißem Papier zu testen. (Die Anforderungen für den Betrieb als Maus hat sie unter den Bedingungen bei dem geringen akkumulierten Fehler sicher sehr gut bestanden.)

Ich will versuchen mich etwas stärker auf die Zweckentfremdung einzulassen und die Randbedingungen für das System zu verbessern: Schiefstellung des Sensors und Abstandstoleranz soll durch eine Optik an größere Strukturen angepaßt werden.
Zur besseren Erkennung des Musters soll mehr Kontrast als bei weißem Papier zugestanden werden.

Einen Plotter habe ich allerdings nicht zur Verfügung, der Punkt ist noch offen.

Manfred

Wolferl
14.02.2005, 20:06
An dem Thema hätte ich auch noch Interesse. Wenn ich behilflich sein kann...

Wolfgang

Manf
14.02.2005, 21:03
An dem Thema hätte ich auch noch Interesse. Wenn ich behilflich sein kann...Wolfgang
Das ist gut und bestimmt sehr wertvoll. Ich habe erst mal etwas ziellos Linsen im Bereich 10-30mm Brennweite davorgesetzt und hellbeleuchtete bedruckte Seiten und Strohhalme im Bildbereich bewegt.
Es haben sich im Verhalten keine Widersprüche ergeben. So ganz genau weiß ich noch nicht wie der nächste Schritt aussieht.
Parallel werde ich versuchen, den Sensor in der Größe zu bestimmen.

Was weiter aussteht ist die Entscheidung über das Interface. Ich hoffe, das System möglichst komplett nutzen zu können und nur die "Quadratur"-Signale auszuwerten.

Ich brauche (ggf.) die Messung der Verschiebung eines Musters in einer Richtung. Eigentlich jeweils nur einmal, in einer Richtung die Auflösung darf beliebig hoch sein. (100-1000Schritte)

Manfred

Wolferl
15.02.2005, 19:49
Hab in der Arbeit ein 5-Parameter Owis System zur verfügung.
Lineareinheiten:
Fehler: +-0,01mm
min. Schrittweite: 0,02mm
max Verfahrweg: ca 8cm
Sollte reichen.
Einziges Problem: ich kann nur Analogsignale (glaub mind 8SE) auswerten. Könnte also nur die Quads verarbeiten.

Für das Interface kann ich dir nach wie vor nur empfehlen, die serielle Schnittstelle für die Versuche zu verwenden. Wenn das System getestet ist gehts dann auch ohne aber die Info aus den Registern während den Versuchen ist sehr sehr hilfreich.

Wolfgang

Wolferl
15.02.2005, 20:09
Hab nochmal versucht unsere letzten Aufbauten zu skizzieren. Ich hoffe man kann etwas erkennen.

Manf
15.02.2005, 21:20
Mit 2 Linsen also so in etwa?

Wolferl
16.02.2005, 09:06
Das rote sollte den LED-Ring darstellen.

Wir haben 2 plankonvexe Linsen (waren damals grad zur Hand) verwendet. Die "Originallinse" wurde nicht mehr verwendet, d. h. der Strahlengang zwischen den Linsen war parallel. Die Reflexionen an der 2. Linse waren zwar nicht Vorteilhaft, waren aber homogen genug um den Sensoralgorithmus nicht zu stören.
Um das Linsensystem herum hatten wir noch ein Rohr (innen mit Kameralack) zur Abschirmung von Fremdlicht (->keine unerwünschten Reflexionen durch Fremdlicht an den Linsen ins CCD).

Manf
16.02.2005, 21:00
Einen kleinen Schritt habe ich weitergemacht, ich habe mir einmal die Netzhaut der Maus angesehen, erst mit Einspiegelung von Licht durch die 1mm Öffnung, dabei sind wegen des kleinen Winkels immer nur einige Zellen zu erkennen.
Dann habe ich das Loch vorsichtig mit einem Bohrer erweitert. Damit er nicht beim Durchbruch auf den Chip gezogen wird, habe ich den Rest dann doch mit einem Kugelfräser "gesäubert" wobei sich der gesamte Kunststoffabrieb auf den Chip gelegt hat und dort wohl statisch gehaftet hat. (siehe Bild)

Das bringt mich auf die Lösung des Wissensquiz
https://www.roboternetz.de/phpBB2/viewtopic.php?p=48501#48501
mit den Löchern im Chipgehäuse. Mit einfachem Pusten gingen die Kunststoffkrümel noch nicht weg, aber mit einem Sodaclub Automat lässt sich kräftig und gezielt pusten und mit einem kurzen Druck war der Chip sauber wie vorher.

Der Luftstrom ging durch das Gehäuse und hat die Krümel mitgenommen (der gefürchtete CO2 Ausstoß). Dafür sind wohl die Löcher drin, denke ich. Die Maus war auch nachher noch voll funktionstüchtig.
Manfred
https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=416

Wolferl
17.02.2005, 16:38
Ich hab denn Sinn dieser Übung glaub ich noch nicht verstanden. Hast du die Blende aufgebohrt, um zu sehen wie gross die Aktive CCD-Fläche ist?

Wolfgang

Manf
17.02.2005, 17:29
Ich bin noch am Probieren.
Die meisten Linsen mit denen ich sonst ein Bild auf den Sensor bringe haben eine kleinere Apertur (bzw. Öffungswinkel) und ich erreiche durch die 1mm Öffnung nicht den ganzen 2mm Chip.

Bei der Gelegenheit wollte ich auch gleich festhalten, dass die Beleuchtung gepulst ist. Die rote LED, die den Untergrund schräg anstrahlt wird mit Impulsen der Dauer 75µs betrieben, die ohne Bewegung in einer Rate von 150Hz kommen und bei Bewegung mit der 12 fachen Rate von 1,8kHz. Das wird auch gerade die Bildfolgefrequenz sein.
Manfred

Wolferl
17.02.2005, 18:23
Wird die Tastfrequenz für die LED nur umgeschaltet, oder wird sie je nach Reflexionsgrad (AvgPix Register) des Untergrundes angepasst?
Die schräge Beleuchtung könnte auch von Vorteil sein, um den Kontrast bei einfarbigen aber rauen Oberflächen zu erhöhen.
Evtl. war das auch der Grund, warum wir bei unseren Versuchen die Genauigkeit nicht wesentlich erhöhen konnten.

Wolfgang

Manf
17.02.2005, 20:13
Für die Tastfrequenz habe ich zwei Stufen beobachtet zwischen denen umgeschaltet wird. Man kann leicht die Umschaltung in die schnelle Stufe bewirken, indem man eine Bewegung mit der Maus macht.
Das Rücksetzen auf die langsame Stufe erfolgt dann wohl nach einer Zeit ohne Bewegung.

Ich glaube es gibt noch eine ganz langsame Stufe mit Pausen von einer halben Sekunde und geringem Licht von einer halben Sekunde, also ganz niedriger Rate, (wenn man vom Mittagessen kommt).

Dass der flache Winkel zur Erkennung von Schattenstrukturen auf einfarbigen Flächen vorgesehen ist habe ich auch in der Beschreibung gesehen.


Evtl. war das auch der Grund, warum wir bei unseren Versuchen die Genauigkeit nicht wesentlich erhöhen konnten.
Habt ihr Flächen ohne Muster abgetastet?

Manfred

Wolferl
17.02.2005, 20:28
Für Versuche und Justage Millimeterpapier oder strukturierte Platinen.

Für brauchbare Applikationen wäre eine Abtastung auf Kunststoff, eloxiertem/lackiertem Alu oder Stahl nötig gewesen. Alles ohne strukturierte Oberfläche.
Wir haben uns dann aus anderen Gründen für andere Sensoren entschieden und die Sache mit der optischen Abtastung nicht weiter verfolgt.

17.02.2005, 23:30
Den Ruhemodus kann man im Konfigurationsregister von
Agilentsensoren auch deaktivieren. Leider benötigen diese
optischen Sensoren auch eine strukturierte Oberfläche um
die Bewegung zu detektieren.
Die Oberfläche wird dazu mit einer endlichen Zahl Frames
(1500/2300 pro sec.) abgetastet, durch Bildvergleich wird
dann die Translation mittels DSP registriert und entweder
über Quadr.-ausgang oder Register 0x42h/0x43h ausgelesen.

Es gibt ein anderes optisches System am Markt, das misst die Geschwindigkeit mittels Laser (vielleicht finde ich die Quelle noch) und ermittelt durch Integration die zurückgelegte Strecke.

Gruß,
Mr. Maus

Wolferl
18.02.2005, 11:32
Mit strukturierter Oberfläche meinte ich eine gesondert behandelte Oberfläche. Normale Mäuse funktionieren auf eloxiertem Alu oder lackiertem Stahl.

18.02.2005, 12:38
Das ist wie gesagt solange richtig, wie Stahl und Alu eine ausreichende Oberflächenstruktur für den Sensor bieten. Bei komplett spiegelnden und unstrukturierten Oberflächen (CCD bekommt immer dasselbe Oberflächenbild) gehts eben prinzipbedingt nicht.
Mr.Maus

18.02.2005, 16:45
Hab den Link wieder gefunden, keine leider noch nicht das Funktionsprinzip,
aber vielleicht jemand von euch ??

http://www.tracs.de/Produkte/OptometerSpezial/optometerspezial.html

Gruß,
Mr.Maus

Wolferl
18.02.2005, 17:28
Also nach der Skizze mit dem Funktionsprinzip würde ich sagen, dass bei deinem Link nach dem gleichen Prinzip wie bei einer optischen Maus gemessen wird. Zum Messen reicht auch eine Struktur, die mit bloßem Auge nicht zu erkennen ist. Interessant ist allerdings, dass der Abstand zur Messoberfläche variabel ist.

Wolfgang

18.02.2005, 20:42
Ich tippe auf eine Art Laserinterferometer oder -triangulation. Wohl aber eher
ersteres, der Einbaueinschub bietet dafür vielleicht sogar genug Raum.
Mr. Maus

Wolferl
18.02.2005, 21:03
Interferometer/Triangulation -> du meinst für die Abstandsmessung Kamera - Oberfläche, oder?

Interferometrie ist nicht ganz einfach auf strukturierten Oberflächen.

Würd mich aber wirklich interessieren, wie der gute Mann das macht.

W.

18.02.2005, 23:04
Ja, schon richtig. Vielleicht hilft das bei der "Fokussierung". Wenn ich
das mit dem Colorscan lese, gehe ich bei dem Optometer ebenfalls
von einem CCD-Array aus. Mechanische Anpassung der Optik ist wohl
aufgrund der hohen Datenraten auszuschließen :-)
M.

Wolferl
19.02.2005, 08:30
Das mit der Fokussierung seh ich ähnlich. Eine Scharfstellung im sub ms Bereich ist sicher nur mit erheblichem Aufwand zu machen. Für den Abstand Messkopf - Messgrund wird ausserdem von unterschiedlichen Objektiven gesprochen. Dennoch wirken sich Schwankungen scheinbar nicht sehr stark auf die Messung aus (Messung im Auto: angenommen 20cm Abstand; Schwankung ~+-5cm? wären das 20%. Mit Maussensor wirken sich bereits 1-2% stark auf die Messgenauigkeit aus).
Ist mir ein Rätsel, wie das hier gemacht wird.
W

Manf
19.02.2005, 09:22
Es ist ein Bild vom Meßverfahren angegeben das durchaus nachvollziehbar ist.

Soweit wie ich die Seite gesehen habe wird von schnellen Messungen gesprochen, nicht von schneller Justierung des Abstands.

Für die Messung der Bewegung quer zum Meßkopf werden sichtbare oder "unsichtbare" Strukturen benötigt, Interferometire oder Triangulation können speziell dabei auch nur auf Strukturen aufsetzen. Es hlift vielleicht weiter wenn man ergründet, was unter den "nicht optisch erkennbaren" Stukturen verstanden wird.


Das OptometerSpezial benötigt keine optisch erkennbaren Strukturen.


Manfred

http://www.tracs.de/Messprinzip_g.gif

Wolferl
19.02.2005, 10:07
Für eine Weg/Geschwindigkeitsmessung aus einem fahrendem Auto muß der Fokus Einfluss auf jeden Fall minimiert sein.
Also: Nachfokussierung im ms Bereich oder ???

Optisch erkennbare Strukturen:
Eine Maus funktioniert auf Papier. Mit blossem Auge sind darauf keine Strukturen zu erkennen. Unter entsprechender Vergrösserung schon. Genau wie bei elox. Alu oder lackiertem Stahl.
"opt. erkennbar" bezieht sich daher vermutlich auf das menschl. Auge als instrument.
Aus den Strukturen (Kratzern, Korngrenzen...) entsteht dann der notwendige Kontrast für das Kamerabild.
Problem: Die mit blossem Auge nicht erkennbaren Strukturen müssen scharf und vergrössert auf dem CCD abgebildet werden, da sonst kein Bildvergleich möglich ist. Oder seh ich das falsch, und das ganze funktioniert auch noch mit unscharfen Bildern?
Wenn es so ist, dann ist die hohe Framerate nicht nur für eine entsprechend genaue Weg/Geschwindigkeitsmessung, sondern auch notwendig um die Unschärfe durch Defokussierung herauszurechnen.

Wenn ich mist geschrieben hab sagts nur.

Wolfgang

Manf
19.02.2005, 10:30
Der Messkopf des OptoMeters ist am PKW in etwa 1,40 m Höhe befestigt und auf die Fahrbahn ausgerichtet.
Solange ich scharfe Bilde mit meiner DVD Kamera auf 140cm Entfernung machen kann glaube ich, dass das auch unter den beschriebenen Umständen geht. Das Bild muß scharf genug sein um durch Bildvergleich die Geschwindigkeit messen zu können, das ist ja auch nicht "unendlich" scharf.

Ich kenne die Firma und die Hintergründe nicht und kann das Ganze noch nicht vollständig beurteilen. Insofern kann ich auch nicht beurteilen ob jemand Mist geschrieben hat. Ich will nur versuchen das Verfahren, das sicher auch zu Werbezwecken glänzen muss, mit Bekanntem zu vergleichen.
Manfred

Wolferl
19.02.2005, 10:44
Das mit den 140cm hab ich überlesen. Dann sind die Abstandsschwankungen im Bereich von +-3%. Das hatten wir damals auch so vorgesehen.
War also Mist.
Trotzdem ist die erreichte Genauigkeit nicht schlecht.

Wie steht es bei deinen Versuchen?

Wolfgang

Manf
19.02.2005, 10:55
Ich wünschte es ginge schneller, (immerhin bin ich schon bei der zweiten Maus #-o). Ich habe auch schon die 4 getrennten quardratur Pins lokalisert und verifiziert.

Ich werde die Maus dann getrennt mit Spannnung versorgen, einen up-down counter an ein Richtungssignal anschließen und hin und herlaufende Bilder auf den Sensor projezieren und den Zählerstand wohl erst mal mit D/A Wandler verfolgen.

Die Bilder sind dann noch etwas speziell zu generieren.
Manfred

Wolferl
07.03.2005, 08:51
Hallo Manfred

bist du an der Sache noch dran?

Gruß Wolfgang

Manf
07.03.2005, 09:37
Die zweite Maus ist noch funktionsfähig. Sie hat zwei herausgeführte Leitungspaare auf der 5V Quaradtursignale anstehen.

Sie sehr gut zum Erfassen von kleinsten Bewegungen geeignet. Auf dem Mousepad sind es die 400-800dpi (31µm). Mit einem Bild, das über einen Spiegel auf das Sehloch projeziert wird kann entsprechend feine Spiegelbewegungen erfassen. (Faktor 20-100.)

Beim geplanten Einsatz, die Erfassung der Verschiebung von Interferenzmustern gab es bis jetzt zu starke Störungen durch die Struktur des Laserbildes. Die optischen Dimensionen Liniendichte und Abblidung von Speckles müssen noch optimiert werden.

Manfred

Wolferl
07.03.2005, 09:56
Kannst du evtl. mal ein Foto von dem Aufbau machen? So kann ich mir das nicht so recht vorstellen.

Wolfgang

Manf
07.03.2005, 10:52
Mit einem Bild, das über einen Spiegel auf das Sehloch projeziert wird kann entsprechend feine Spiegelbewegungen erfassen.
Kannst du evtl. mal ein Foto von dem Aufbau machen? So kann ich mir das nicht so recht vorstellen.
Hier also erst mal ein Bild von dem Spiegel O:)

[fliph:18b2cb00ad]https://www.roboternetz.de/phpBB2/images/avatars/305177495407fad20d8a33.gif[/fliph:18b2cb00ad]
Ein Bild wird dann über einen Spiegel auf die unterseite der Maus projeziert. Die steht dabei auf der Seite. Ich versuche noch ein Bild von dem Ganzen zu manchen.
Die Inteferenz ist allerdings ein zweites Thema.
Manfred

Manf
08.03.2005, 14:30
Hier also das Bild mit dem Spiegel. Er ist nicht ganz senkrecht zur Drehachse auf den Motorflansch aufgeklebt und er projeziert ein "Bild" mit feiner Struktur in die Fokusebene der Maus.

Das "Bild" oder die Struktur ist einfach das Muster eines aufgeweiteten Laserstrahls, dann erübrigt sich auch das Fokusieren auf die Maus.

Die Drehbewegung des Spiegels ist für das Experiment nicht wichtig, nur die Kippung.

Am einfachsten erkennt man die Kreisbewegung wenn man die Maus wieder an den Computer steckt und den Cursor beobachtet.
(Siehe 4,5 sec Dokumentarfilm "Laser und Maus")

Die Lichtstärke auf dem Papier (zur Demonstration) vor der Maus ist übrigens viel zu stark. Kaum sichtbar ist für die Maus ausreichend.

Manfred


https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=434

Wolferl
08.03.2005, 18:28
Danke für die Bilder.
Mit welchem Programm kann man denn den Film anschauen?

Wolfgang

Manf
08.03.2005, 20:39
Das ist Real Media (gezippt) für Real Player. Mit 128kbps auf 320x240. Es sind dann halt nur 48k. Welches andere Format wird gewünscht?

Es sind die selben Bilder nur bewegt und einmal ein Cursor der auf dem Bildschirm im Kreis herumläuft. Ich gebe zu, daß ich es nicht sauber aufgebaut habe und durchaus ein Schrittfehler dabei sein kann.

Ich maches es nochmal und ich versuche es auch noch mal ohne Laser, ich glaube der Trick ist weniger Licht als man annimmt. Ich habe auch schon eine Vorlage für eine strukturierte Fläche: Objektträger mit Filzstift und feiner Drahtbüste. Es bleibt spannend.
Manfred

Wolferl
09.03.2005, 09:06
Ich werde einfach mal versuchen mir den Realplayer runter zu laden.

Du leuchtest direkt auf die CCD -> weniger Licht. Mehr Licht braucht man erst wenn über Reflexion gemessen wird.

Was mich wundert ist, dass es ohne Abschirmung von Fremdlicht funktioniert. Bei unseren Versuchen hat die Abschirmung den Kontrast deutlich verbessert. Ich schiebe das jetzt mal auf die direkte Beleuchtung.
Wirst du bei dem Objektträger auch mit Durchlicht arbeiten?

Wolfgang

Manf
09.03.2005, 10:20
Wirst du bei dem Objektträger auch mit Durchlicht arbeiten?
Ja, es ist der Versuch Licht mit große Ausbeute auf den Sensor zu bringen. Zumindest solange ich die Verhältnisse noch nicht so genau einschätzen kann.

Die schräge Originalbeleuchtung mit der man einheitliche Flächen über den Schatten der Rauigkeit nutzt, ist schon sehr speziell und erfordert wohl wirklich sehr starke Beleuchtung.
Manfred

Manf
10.03.2005, 11:07
Projektion eines bewegten Musters auf die optische Maus.

Ich gehe einfach mal die Darstellung der Versuchsanordnung durch. Links vorne im Bild ist die Beleuchtung, eine weiße LED (geht auch). Dann ist ein Objektträger (Glasscheibe) auf einem Basslautsprecher gelagert. Dritte Hand einseitig und Abstützung auf Aktenklemme. Es folgt eine Lupe nach 13,3cm und die Maus 40cm hinter der Lupe. Der Basslautsprecher wird mit einem 1Hz Sinussignal angesteuert und bewegt die Glasscheibe auf und ab.

Auf der Scheibe sind verschiedene Muster mit einem Filzstift aufgetragen und mit einer feinen Drahtbürste verfeinert. Das beste Muster ist wie erwartet eines mit einer möglichst feinen Struktur und mit 50% Abdeckung. (Vielleicht muss man auch nur eine staubige Glasscheibe mit fettigen Fingern anfassen, um den besten Effekt zu erzielen.)

Im Oszillogramm zeigt sich dass die Dichte der Wechsel im unteren Signal etwas mit der Steigung des Sinussignals also mit der Geschwindigkeit der Glasscheibe zusammenhängt.
Auf dem PC Bildschirm ergibt sich wie erwartet eine periodische horizontale Bewegung. Die Bewegung der Lautsprechermembran und der Glasscheibe ist senkrecht und die Maus liegt auf der Seite.

Für eine sichere Bewegungsaufnahme ist wie es aussieht, der Winkel unter dem die Maus angestrahlt wird mit entscheidend. Dieser Effekt soll weiter untersucht werden.
Manfred


https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=435

Wolferl
10.03.2005, 11:20
Erstmal KLASSE VERSUCHSAUFBAU und vielen Dank für die Bilder.
Langsam reizt es mich ja schon, das ganze auch wieder aktiv anzugehen, aber ich bin noch damit beschäftigt wovon wir vor einiger Zeit mal geredet haben.

Das Bild unten in der Mitte ist der Objektträger das eingekreiste die Drahtbürstenstruktur?
Hast du die Linse der Maus noch drinnen?

Manf
10.03.2005, 12:30
Ja, die Maus ist mit Linse, ich glaube, dass ich sonst nicht den ganzen Chip durch die kleine interne Blendenöffnung erreiche. Aufbohren wäre die andere Lösung.

Ja, das andere Bild ist von dem Muster auf dem Objektträger, aber ich glaube ich find dafür noch eine einfache vorgefertigte Lösung.
Manfred

Wolferl
10.03.2005, 13:21
Einfallswinkel: Das Bild wird auf die CCD rojeziert, dh mit dem Einfallswinkel verändert sich die Auflösung bzgl. des durchleuchteten Objekts. Ebenfalls sollte sich der Kontrast verschlechtern.
Wolfgang

Manf
10.03.2005, 14:32
Alle Parameter konnten nicht mit gleich sauber eingestellt werden. Ich hatte beide Hände beim Versuchsaufbau im Einsatz und noch drei "dritte Hände" (der Lautsprecher war auch noch second hand).

Ich hatte aber den Eindruck, daß beim Verstellen des Mauswinkels Änderungen aufgetreten sind. Ich werde den Verschusaufbau aus den letzten beiden Versionen in der Richtung optimieren.

Das optische System ab Mauslinse nach innen muß ich auch noch mal konkret messen. Brennweite, Chipfläche, Pixelgröße, Blendengröße...

Wenn man die Einflussgrößen irgendwann alle kennt wird es nachher ganz leicht.
Manfred

Wolferl
10.03.2005, 14:51
Wenn man die Einflussgrößen irgendwann alle kennt wird es nachher ganz leicht.

Die Photonen machen meistens nicht nur das was man meint (bewahrheitet sich manchmal auch bei geometrischer Optik).

Was für Änderungen sind denn beim variiren des Mauswinkels aufgetreten?

Wolfgang

Manf
10.03.2005, 21:05
Was für Änderungen sind denn beim variiren des Mauswinkels aufgetreten?
Das war die Stelle die ich variiert habe als nichts ging, und nachher ging es. Das System ist eben im Moment noch etwas komplex (undurchsichtig), bedingt durch die Regelung, die die Maus intern durchführt.

Eine feine 2-dimensionale Stuktur kann man mit einem Filzstift (dünne Schicht) und einer feinen Drahtbüste erzeugen. Eine Alternative ist sicher auch eine Regenschirm-Bespannung durch die man eine entfernte Laterne so stark gebeugt sieht wie durch ein 1/10mm Gitter. Das soll nicht gegen die Romantik eines Regenschirms am Abend sprechen, eher für die Wertschätzung eines 1/10mm Gitters.

Im nächsten Versuch ist bestimmt ein kleiner Teil von einem Regenschirm beteiligt.
Manfred

Wolferl
11.03.2005, 09:59
Evtl. war das Problem die Tiefenschärfe der Maus?

Manf
11.03.2005, 10:50
Evtl. war das Problem die Tiefenschärfe der Maus?
Grundsätzlich ja, die Schärfeneinstellung ist etwas aufwändig.

Durch den Lautsprecher hatte ich aber die Möglichkeit beim Einstellen der Schärfe die Reaktion zu beobachten. Beim Drüberfahren muß sich ja etwas rühren. Der Effekt trat aber erst ein als ich die Maus noch um 5-10° im Winkel korrigiert habe.

Ich bin auch nicht sicher, ob es genau dadurch bedingt war. Dazu will ich die Messanordnung weiter optimieren, um mich auf die wichtigen Parameter konzentrieren zu können. Ursprünglich bin ich davon ausgegangen, daß der Winkel relativ unkritisch sein müßte. Das Gegenteil kann ich aber auch noch nicht bestätigen.

Die Meßanordnung mit dem rotierenden Spiegel gefällt mir sehr viel besser, zumal sie auch gleich zwei Richtungen testet.
Manfred

Wolferl
11.03.2005, 11:32
Aufgrund des Datenblatts des ADNS 2051 nehme ich an, dass Verkippungen der CCD erhebliche Auswirkungen auf die Messung haben.
Naiver Ansatz: sobald die CCD nicht mehr senkrecht zur Achse des optischen Systems steht, ergeben sich Probleme mit der Tiefenschärfe, da die Bildweiten zu stark variieren. Zweites Problem dabei ist die Projektion des Bildes aufs CCD ("schiefe Projektion"). Dadurch nimmt der Kontrast ab, da die Struktur auf der CCD gestreckt wird. Diese Verzerrung ist auch noch von der Tiefenschärfe der Mauslinse (Tiefenschärfe eher gering, da kurzbrennweitig) verstärkt.
Was dann auf der CCD übrig bleibt kann dann der DSP nicht mehr vernünftig verarbeiten, da die Strukturen durch die "Bewegung" nicht nur ihre Position, sondern auch noch ihre Form ändern.

Wolfgang

Manf
11.03.2005, 13:35
Mit Zahlenwerten:
Ich habe eine Maus von 60mm Breite. Wenn ich ein 6mm Plättchen auf der einen Seite Unterlege bei der Maus auf dem Mousepad, dann ist sie an der Grenze, arbeitet aber noch. Das sind 3mm Verschiebung der Fokusebene mit 5,7° Verkippung, na immerhin.
Manfred

Wolferl
11.03.2005, 14:10
Dann wäre ja geklärt, warum es funktioniert hat als du die Maus gekippt hast.
Was wirst du dir als nächstes anschauen?
Wolfgang

Manf
13.03.2005, 21:59
Ich bin noch auf eine einfache Möglichkeit gekommen, die Schritte, die die Maus abgibt, zu dokumentiern. Es ist die Freihandlinie in Powerpoint.
Wenn man einfach die Maus an die USB Schnittstelle anschließt und die Freihandlinie in PPT anwählt dann zeichnet die Abbbildung eine Linie als Objekt.
Für 10 Umdrehungen des Spiegel habe ich die linke Maustaste bei der parallel angeschlossenen Hauptmaus gedrückt gehalten und die angegebene Linie wurde aufgezeinet. Perfekt ist es ja noch nicht und die Fehler sind im sehr stark durch den Winkel bedingt, in dem die Maus angeordnet ist.

Die Anordnung zur Aufzeichnung der Linie habe ich auch noch einmal aufgenommen. Oben links ist auch ein Eindruck wie das Laserlicht bei direkter Aufnahme in den Laser und bei Aufnahme über einen weißen Schirm aussieht.

Wenn alle Größen gegeben sind:
Der Abstand Spiegel-Maus
die Größe des Spielgels 10mx10mm
die Auflösung der Maus mit 400 dpi
und die Größe des Kreises der aufgezeichnet wird, in Punkten,
dann müßte sich eigentlich auch bestimmen lassen, um welche Distanz der Spiegel an seiner Seite gegenüber der Felge angehoben ist, um die Kreise zu erzeugen.

Manfred

https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=438

Wolferl
14.03.2005, 09:30
Die Freihandlinie ist eine gute Idee. Ähnlich dem Plotter aus dem Link.

Hast du Interesse an zwei gebrauchten ADNS2051? Bekomme evtl. die beiden Sensoren von unseren alten Versuchen. Kenne allerdings deren Zustand nicht. Mein ehemaliger Kollege meinte nur, dass die Sensoren aus den Testplatinen herausgedremelt wurden, aber beim letzten Test auf der Platine noch funktionstüchtig waren. Ich werd sie erstmal nicht brauchen, da mich meine Laufzeitmessung noch ein weilchen dauern wird.

Wolfgang

Manf
14.03.2005, 09:49
Ich bin schon interessiert.
Hoffentlich hat man die Anschlüsse beim Dremeln drangelassen.

Manfred

Wolferl
14.03.2005, 09:58
Hoffentlich hat man die Anschlüsse beim Dremeln drangelassen.

Manfred

Denke schon, aber wissen kann man es nie.
Ich werde sie vermutlich heute Nachmittag bekommen. Dann kann ich heute abend mal ein Foto posten oder dir schicken?

Wolfgang

Manf
17.03.2005, 20:54
Mitterweile habe ich den Chip der ersten optischen Maus einmal genauer betrachtet und vermessen.
Es ist ja nich immer ganz einfach, die feine Stuktur eines Chips unter dem Mirkoskop deutlich zu erkennen, da Mikroskope mit hoher Vergrößerung nach dem Durchlicht Prinzip arbeiten.

Geht man von einem Durchlicht-Mikroskop aus und entfernt das Okular, dann kann man eine Kamera mit Autofokus bzw. Fokus auf "unendlich" über dem Okular installieren. Beim geeigneten Abstand (Brennweite und kurz darüber) des Okulars ergibt sich eine Abbildung in der Kamera die mit Autofokus erreichbar ist.

Da die Brennweite des Okulars nur etwa 1mm beträgt, ist es ein Problem, das Objekt von oben zu beleuchten. Ein flacher Winkel mit seinem Schattenwurf bei den Konturen auf den Chip ist dabei machmal recht interessant (Bild unten links). Manchmal ist der Spalt zwischen Objekt und Objektiv zu klein, um ausreichend Licht einzubringen.

Ich habe deshalb ausprobiert, eine Glasscheibe unter 45° in den Strahlengang zu bringen und mit einer Leuchtdiode anzustrahlen. (Bild untern rechts). Das Ergebnis hat mich überzeugt. Der interessante Schattenwurf fehlt zwar, aber schon bei geringster Lichststärke ergibt sich ein sehr deutliches Bild der Chipstuktur.

Die quadratischen Zellen auf den Bildern sind die Pixel, die eine Größe von 65µm Kantenlänge haben. Die Größe des Arrays von 18 x 20 ist im Bild oben rechts mit dem gesamten Chip dargestellt. Die Skalen am Rand des BIldes oben rechts haben ein Raster von 0,1mm. Die aktive Fläche ist damit ca. 1,2 mm x 1,3 mm.

Strukturen, die auf den Chip projeziert werden, sollen damit eine Größe von 0,1mm bis 1mm haben.

Manfred


https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=440

Wolferl
18.03.2005, 09:02
Offtopic: Woher kommen die unterschiedlichen Färbungen bei dem Bild unten rechts? Schichtdickeninterferenzen? Sind das gelbe noch CCD, oder gehört das schon zum MUX fürs Auslesen?

Wolfgang

Manf
18.03.2005, 10:33
Die Farben kommen mit Sicherheit durch Interferenzen, bei schräger Beleuchtung links treten sehr viel weniger Farben auf. Dafür sind die Konturen links sehr viel kräftiger.
Das CCD Feld besteht aus gleichmäßigen Flächen einheitlicher Farbe, damit ist das gelbe wohl sicher kein CCD Element mehr. Im Bild links sieht es metallisch aus.

Ich habe noch nicht sehr viel mit dem Beleuchten durch die Linse gemacht. Die Chip Vermessung war ein Anlass für mich, es auszuprobieren. Es funktioniert erstaunlich gut.

Das Foto mit der Apparatur sieht etwas kompliziert aus aber es ist im wesentlichen die Fixierung der Kamera über dem Objektiv des Mikroskops. Dazu kommt noch eine kleine Glasscheibe zum Einspiegeln des Lichts und eine weiße LED als Lichtquelle, die hier nicht mehr als 1mA benötigt.
Manfred

Manf
25.03.2005, 14:07
Hast du Interesse an zwei gebrauchten ADNS2051? Bekomme evtl. die beiden Sensoren von unseren alten Versuchen.
Die beiden Sensoren sind bei mir eingetroffen, vielen Dank dafür. Eingetroffen sind sie schon am Montag, aber ich bin jetzt auch wieder da.

Es handelt sich, wie richtig vermutet, um inteligente Sensoren. Sie haben sich ganz in die untere linke Ecke des Briefs zurückgezogen, weit genug weg von den Briefmarken die ja gestempelt werden. O:)

Sie sind also unbeschädigt und sogar die Siegel sind noch auf den Sehöffnungen.
Ich werde dann als erstes ein paar dünne Kabel zun Testen an die Plantinenstückchen löten.
Manfred

Wolferl
26.03.2005, 09:20
Die Beschaltung war zwar nicht mein Thema, aber ich weiß noch, dass die Kondensatoren auf dem Schaltplan im Datenblatt möglichst nahe am ADNS sein sollten. Evtl. war das mit ein Grund warum die erste Testplatine ihren Dienst nicht wie erwartet verrichtet hat.

Wolfgang

Manf
29.03.2005, 21:15
Da es nachher sicher auf eine genaue Ausrichtung ankommt, habe ich erst einmal Fassungen für die Sensoren gesucht und bin auf Dia-Rahmen gekommen, die grundsätzlich gut in Mikropositionierer für Mikroskope passen.

Um der Linse eines Optical Mouse Sensors die richtige Höhe über Grund zu geben kann man sie mit ihrer Montagefläche von unten in den oberen Rahmen eines Dia-Rahmens kleben.

Dieser Dia Rahmen passt auch in den Bresser Mikroskop-Tisch-Manipulator (nachdem dieser allgemein-tauglich gemacht wurde). Ich weiß nicht was für ein Objektträger da sinnvoll ohne Modifikation passen soll. Es ist schon eine Fummelei, vielleicht waren sie deshalb so günstig.

Manfred

https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=462

ben
30.03.2005, 09:58
Tach,
Wir haben für unsere Experimente eine Typhoon Notebookmouse (wahrscheinlich ein Logitechsensor, Conrad Electronics, 9,95, 400dpi) verwendet.
Nach längeren, erfolglosen Versuchen mit einer zusätzlichen Sammellinse vor dem Sensor haben wir das Gehäuse unserer Maus entfernt und somit leider nur 2.5 mm Bodenfreiheit gewonnen.
Wahrscheinlich sind meine Optikkentnisse einfach zu bescheiden: Wir hätten gerne so 25mm (nicht 230mm wie hier im Thread beschrieben). Kann mir jemand vielleicht erklären, wie ich die Lupenstärken berechnen und wo ich die entsprechende Lupe kaufen kann?

Gruss aus Erlangen
Bernhard

Manf
30.03.2005, 10:31
Die Situation sieht mit interner Linse ungefähr so aus. Sollen die 2,5cm vor der Maus oder vor der Linse sein?
Manfred

ben
30.03.2005, 10:53
also eigentlich sollten die 2,5cm bei a sein ("Bodenfreiheit"), b ist nicht ganz so wichtig, aber wenn ich es mir wünschen könnte <= 1 cm. Wie ich aus Deiner Erklärung erkennen kann, wäre dies bei "normalen" Lupen nicht möglich, oder?
Angenommen man nehme 2,5cm, resultiert daraus eine Lupenbrennweite von 5.

DANKE!

Wolferl
30.03.2005, 11:12
Hallo

kannst du das 2f vielleicht nochmal erklären? Ist mir irgendwie nicht so ganz klar.

Wolfgang

Manf
30.03.2005, 12:19
Es gibt die Abstände a und b und die Brennweite f. Die Beziehung dazwischen. Ist einfach 1/a + 1/b = 1/f.
http://de.wikipedia.org/wiki/Linsengleichung

Besonders anschaulich wird es beim experimentieren mit einer optischen Bank:
http://www.hazelwood.k12.mo.us/~grichert/optics/intro.html

Die Werte sind wählbar, für a= 25mm b=10mm ergibt sich f= 7,1mm.

Die Vergrößerung V, die häufig bei Lupen angegeben wird berechnt sich aus V = 250/f in mm. Die gesuchte Linse hätte als eine Vergößerung von 35.

Die Originallinse der Maus hat schätzungsweise eine Brennweite von 1,5mm. Das Papier ist 3mm unter der Linse und der Chip sind 3mm über der Linse (muß ich noch mal nachmessen). Um eine 25mm entfernte Papierebene scharf auf den Chip abzubilden müßte man also die Linse auf 1,59mm an den Chip heranbringen. Dan könnte man sich die zusätzliche Linse vor der Maus sparen.

Das wäre sicher auch einen Versuch wert. Da der Linsenabstand aber durch eine Kunststoff-Passung gehalten wird, muß diese dazu bearbeitet werden (ca. 1,4mm abtragen).

Manfred

Wolferl
30.03.2005, 12:50
Bei deiner Zeichnung meinst du mit a/b nicht den Abstand von Linse zum Berührpunkt von Brennpunkt- und Axialstrahl, sondern Objekt- und Bildweite.
Dann ists klar.
Wolfgang

ben
30.03.2005, 14:52
Sehr anschaulich und vielen Dank für die Hilfe! Photos vom fertigen Sensor gibts hoffentlich bald hier!
lg
Bernhard

Manf
16.04.2005, 21:18
Im Bild ist die Konfiguration aus der optischen Maus dargestellt, wie sie im Wissens-Quiz besprochen wurde.
https://www.roboternetz.de/phpBB2/viewtopic.php?t=8192

https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=475
Man kann die Gegenstandsweite vergrößern indem man

1. die Kugellinse näher an den Chip bringt
2. eine andere, größere Kugellinse nimmt, oder
3. eine schwächere Linse außen davor setzt die ein Bild auf die Mousepadebene projeziert.
Nachdem ich eine Quelle für Linsen mit kurzer Brennweite gefunden habe, ist der Weg 2 vielleicht doch an einfachsten.

Typ Durchmesser Brennweite
Kugellinse 8 mm 6 mm
Kugellinse 7 mm 5,25 mm
Kugellinse 5 mm 3,75 mm
Kugellinse 3,6 mm 2,7 mm
Hochlandllinse 4,8 mm 35 min (Garzeit)

https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=482
Die Linsen sind im Bild dargestellt. Der Typ rechts außen gehört eigentlich nicht dazu, der Platz wäre sonst frei. Es ist eine "Hochlandlinse aus biologischem Anbau". Sie ist nicht durchsichtig deshalb ist auch nicht die Brennweite sondern die auf der Packung angegebene Garzeit aufgeführt. O:)

Die Linsen werden dann vermessen und zusammen mit der Maus erprobt.
Manfred

ben
17.04.2005, 07:27
Hallo Manfred,
Wir sind mit unseren flachen Linsen, die obiger Berechnung entsprechen noch nicht weiter gekommen. Aber vielleicht borgst Du uns mal zum probieren einer Deiner Kugellinsen? ;-)

lg
Ben

Manf
17.04.2005, 15:49
Die 25mm aus der obigen Anforderung halte ich für einen guten mittleren Wert den ich in weiteren Betrachtungen auch mit verwenden möchte.

Im Moment suche ich nach einer guten Montierung. Ich betrachte dabei auch die Mittelteile von Kugelschreibern:

Zusammengesetztes Kunststoffrohr mit Gewindeverbindung zur Justierung des Linsenabstands.


Aber vielleicht borgst Du uns mal zum probieren einer Deiner Kugellinsen?

Bei den Linsen wird es nicht ums borgen gehen, viel teurer als das Porto sind die Linsen nicht, sie sind aber auch nur von mittlerer Qualität was aber für kurze Entfernungen durchaus angemessen sein kann. Man muss es nur geschickt machen, und den Weg dazu suche ich noch.

Kannst Du noch etwas über den Einsatzfall sagen: Abtastung von freier Umgebung oder Rastervorlage?

Manfred

ben
17.04.2005, 21:16
Gerne,
Wir wollen mit der Maus vom Körper des Roboter nach unten schauen und dann eine "berührungslose Wegstreckenerfassung" durchführen.
Im Endeffekt wollen wir wissen, wo wir hingefahren sind.
Der Boden ist für eine optische Maus ausreichend gerastert, d.h. wir haben nicht vor auf Glas, etc. zu fahren.

lg
Ben

P.S. Wir wissen auch noch keinen "sauberen" Weg unsere flacheren Linsen richtig zu justieren, der Kugelschreiber klingt gut.

Manf
30.04.2005, 20:57
Experiment mit bewegter Maus einige cm über einer Holztischplatte

Die Maus ist am Kabel in einer Höhe von 60cm aufgehängt, so dass sie 5cm über dem Tisch frei pendeln kann. Die Schraube oben ist mit einer Mutter mit Heißkleber aufgeklebt und bildet den Halter für eine aufrechte Position. Das Sichtfeld ist mit einer kleinen Halogenlampe angestrahlt.

Unten ist die Originallinse entfernt und vor dem Sehloch ist eine Linse mit ca. 10mm Brennweite angebracht. Kernstück der Linsenhalterung ist eine Kabelklemmverschraubung. Die Mutter ist auf der Platte mit Loch, die mit drei Schrauben vor dem Sehloch gehalten wird. Das Einschraubteil trägt die Linse und ist leicht auswechselbar. (Die Linse sitzt ganz am oberen Ende des hellen Plastikteils mit Gewinde.)


https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=494

Dieses erste Experiment mit dieser Konfiguration zeigt, dass sich beim besten Abgleich der Höhe eine relativ runde Kurvenform beim Aufzeichnen der Bewegung ergibt. Die Form ist bei der besten Höhe auch dadurch gekennzeichnet, dass der Mittelwert der aufgezeichneten Pendelbewegung nur wenig driftet. Die Verfolgung der Position setzt nicht oder nur wenig aus. (Am wichtigsten ist es, schnell erkennbare Kriterien für einen interaktiven Abgleich zu gewinnen.)

Eine Beleuchtung ist erforderlich; schon ein Abschatten der Lampe mit der Hand stoppt wie erwartet die Mausrekation.

Die relativ runde Form und das geringe Driften fiel etwas besser aus als im Experiment mit zusätzlicher Originallinse. Die Kurve ist aber wohl noch nicht zufriedenstellend.

Ich vermute, dass sich mit kürzerer Brennweite eine Verbesserung erzielen läßt, da dann der Chip hinter dem kleinen Sehloch in der Fläche stärker ausgenutzt werden kann.

Manfred

Wolferl
02.05.2005, 09:11
Konntest du mit den beiden ADNS-Sensoren bzgl. Beschaltung etwas anfangen?

Kannst du schon Tipps abgeben, um wie viel sich die Auflösung erhöhen lässt, wenn geeignete Linsen eingesetzt werden?

Wolfgang

Manf
03.05.2005, 13:15
Ich habe erst mal ein kleines Wechselobjektivsystem aufgebaut mit verschiedenen Linsen und mit Distanzring zur Montage von Objektiven größerer Brennweite.

Mit dem Pendeln über der Schreibtischplatte habe ich auch schon einige Erfahrung bezüglich günstiger Werte für Beleuchtung und Abstand. Die Kurven sind aber bis jetzt nicht viel schöner als die mit den drei Ellipsen im Bild oben.

Der Vorteil beim Einsatz der Maus mit ihrer Steuerung ist, dass ein Ergebnis, wenn es erreicht wird, leicht verifiziert werden kann. Den umgekehrten Weg über das Auslesen der Pixeldaten habe ich noch aufgeschoben denn ich wollte nicht gleich die ganze Maus mit ihren zweidimensionalen Autokorrelationen nachbauen. Das muss noch kommen.

Manfred


https://www.roboternetz.de/phpBB2/album_pic.php?pic_id=496

pebisoft
04.05.2005, 10:04
hallo, nehmt eine lasermaus.
ist zwar etwas teurer, man kann damit vom robby den boden abtasten lassen und auf dem bildschim die bewegung verfolgen (mauszeiger).
geht zur zeit bei mir nur mit verbindungskabel vom robby zum pc.
wenn man einen pc auf dem robby setzt ist das problem gelöst.
die lichteinflüsse spielen keine rolle mehr.
mfg pebisoft

Manf
04.05.2005, 10:10
man kann damit vom robby den boden abtasten lassen und auf dem bildschim die bewegung verfolgen (mauszeiger).
Das ist schon das was auch hier erprobt wird.
Speziell geht es um den Abstand vom Boden und um mögliche Schrittverluste (den Schlupf).
Gibt es dazu schon Erfahrungen mit der Lasermaus?
Manfred

pebisoft
04.05.2005, 10:19
bei mir läuft sie mit ca 5mm abstand vom boden. es gibt keine schrittverluste. ist genauer als zur zeit eine andere messmethode für die erkennung eines weges vom robby.
mfg pebisoft

Wolferl
04.05.2005, 10:28
Wo liegt der unterschied zwischen Lasermaus und LED Maus?
Die Auflösung ist höher. Um die höhere Auflösung zu erreichen braucht man einen Laser zur Beleuchtung.
Was noch?

Wolfgang

Manf
04.05.2005, 10:56
bei mir läuft sie mit ca 5mm abstand vom bodenDie Normalmaus hatten wir vorher auch schon mal mit 3mm, ich habe es aktuell noch mal mit einer ausprobiert die kommt nur auf 2,5mm.
Manfred

stupsi
09.06.2005, 22:20
Ein nettes Versuchsobjekt könnte diese Lasermaus sein:

http://www.pearl.de/pearl.jsp;jsessionid=hIIhc6Da4_Og?screenX=1280&screenY=1024


oder www.pearl.de und dort Best.Nr. PE-9345-906 eingeben.

Zitat aus der Werbung:

"Diese General Keys Mäuse sind mit einer linsenfreien Lasertechnik ausgestattet. Das macht sie viel robuster und unempfindlicher als andere Lasermäuse!"
...

Stromversorgung über USB-Anschlußkabel
Linsenfreie Lasertechnik mit bis zu 1.600 dpi Auflösung
Bis zu 50% weniger Stromverbrauch als herkömmliche optische Mäuse
Höchste Genauigkeit auf nahezu allen Oberflächen

jetzt EUR 16,90"

...Zitat Ende
(Die hübsche Zitat-Technik hier im Editor ist mir zu kompliziert)


Die linsenfreie Technologie macht etwas Hoffnung auf größere Toleranz in der Abtasthöhe. Ich werde mal in dieses Teil investieren.
Falls jemand diese Maus schon besitzt, würden wir uns alle über einen Erfahrungsbericht freuen.

Gruß Stupsi

Thoralf
10.06.2005, 08:35
@wolferl


Wo liegt der unterschied zwischen Lasermaus und LED Maus

ist praktisch keiner, statt ner LED wird das Bildfeld mit einem Laser ausgeleuchtet

@stupsi


Die linsenfreie Technologie macht etwas Hoffnung auf größere Toleranz in der Abtasthöhe

die Lasertechnologie ist nicht linsenfrei, zumindest, was ich bei Agilent gesehen habe. Diese Mäuse haben eine Linse vorm Laser um den Strahl zu bündeln und eine Linse um das Bild auf den Sensor zu projizieren.

für Infos zu den Schaltkreisen und der Apllikation guckst du hier:
http://cp.literature.agilent.com/litweb/pdf/5989-3076EN.pdf

stupsi
10.06.2005, 11:39
Die Applikation von Agilent ist mir auch bekannt. Sie arbeitet mit Linsen.

Hier wird mit linsenfreier Technik geworben und man distanziert sich von der Technik anderer Lasermäuse, wahrscheinlich eben von den logitech-Mäusen mit agilent-chip.

Wegen des Preises könnte es was einfacheres sein. Von dieser Technik (General Key) hab ich aber nichts ausgoogeln können.
Ich schau mir das Ding mal an, brauche sowieso gerade ne neue Funkmaus.
Gruß Stupsi

Thoralf
10.06.2005, 13:18
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=33&seite=6

hier steht ein ganz gutes Fazit, mit dem Inhalt, daß die Lasermäuse auch nicht besser als die üblichen LED-Mäuse sind, na toll....
aber es wird schon werden, ist ja noch ne neue Technologie.

tha
14.06.2005, 10:40
http://www.elektronik-projekt.de/forumviewentries_showthread_threadid_237_15.html

Link zu einem der sich auch mit dem Problem befasst hat.
Gruss Tha :lol:

pebisoft
14.06.2005, 14:58
thoralf der bericht ist schon 6 monate alt. schnee von gestern. du musst dich mal mit den berichten der technik aktuell befassen. die mäuse mit laser sind schon ausgereift, natürlich kostet die auch ein bisschen mehr als die läppische billigmaus für 69 euro. für 140 -160 euro findest du schon hervorragende sachen.
mfg pebisoft

Thoralf
15.06.2005, 07:13
pebi, glaub auch, daß es schon bessere gibt. Hast du evtl. paar aktuelle links zu techn. Berichten bzw. zum Prinzip?
Gruß Thoralf

Klaus_0168
15.06.2005, 07:32
Hi all,

@pebisoft : Wo kauft Du denn Deine Mäuse ein. Bei Pearl gibt es eine USB-Lasermaus 1600dpi für 16,90€.

edit :
Unter Bechtle kann man eine optische Maus ab 5,90€ (Kabel) bzw. 18,70€(Funk) gekommen. Wer für eine gute Maus mehr als 25€ bezahlt hat sich nicht genug informiert.

Gruß Klaus

honkitonk
15.06.2005, 12:02
melede mich mal wieder, die maus ist doch in USB? oder kann ich das so ummodeln das ich 2 Digitale Werte rauskriege? Hat das scon jemand gemach?

Student

stupsi
25.07.2005, 13:24
ich hab jetzt nach 7 Wochen Wartezeit meine Laser-Maus von Pearl erhalten.
Es ist wirklich eine Lasermaus OHNE Optik !!! Laser und Empfänger sind ca. 25mm vom Boden entfernt in einem Winkel von ca. 15-20° angeordnet.
Eine Anmerkung in der Rechnung (Zitat):
"aufgrund der präzisen Abtastrate (1600dpi) arbeitet die Lasermaus nur eingeschränkt auf rauhen oder textilen Oberflächen"
.... nicht mal auf meinem Velur-Mauspad.

Dadurch ist sie als Computermaus überhaupt nicht zu verwenden. Man hat nur eine nervöses Gezappel des Mauszeigers auf dem Bildschirm.
Auf Textil bleibt trotz Mausbewegung der Mauszeiger stehen; auf glattem Untergrund wie z.B. Papier arbeitet sie aber präzise.

Jetzt kommts:
Sobald man die Maus zwischen 2 und 7mm anhebt und über eine beliebige Oberfläche schweben läßt, hat man eine (gefühlsmäßig) sehr präzise Zeigerbewegung. Dadurch sollte sie gut als Bewegungssensor für Roboterprojekte geeignet sein. Es fehlt nur noch eine Auswertung der Signale, die für Mikrokontroller passt.

Da ich die Maus zurückschicken werde, kann ich sie leider nicht für eine Analys aufschrauben, denn eine Schraube ist versiegelt. Schade.

Gruß Stupsi

mpetz
09.08.2005, 16:47
H, ich habe jetzt auch zwei von den Lasermäusen da (ist wirklich Laser) und will diese in meinen Catwiesel für die Odometrie (Positionbestimmung) einbauen. Ich versuche noch ein paar Bilder vom Innenleben zu machen und hier einzustellen.

Die Maus funktioniert bei mir auf allen getesteten Oberflächen sehr gut. der Abstand der Maus kann auf bis zu 22mm vom Untergrund angehoben werden. Aber da der Laser innen drin noch deutlich höher sitzt (nochmal ca. 18mm). Ich gehe also von einem möglichen Abstand von bis zu 40mm aus (ohne Veränderungen).

Nun brauch ich aber als Elektronikanfänger auch noch etwas Hilfe, ich habe das Ding ja nun als USB Version und würde aber gerne nur diese Mauswerte auslesen. Die Laserelektronik ist recht klein und nutzt einen PAN 301 Chip, der wie ich glaube ja auch in anderen Mäusen eingesetzt wird?!, naja von dort geht ein Kabel mit 5 Leitungen weiter zur Platine. Vielleicht hat jemand von euch Links zum auslesen von Mausdaten etc.

Ich versuche noch Bilder zu machen (hab nur leider keine Digicam), vllt klappts mit der Webcam

mpetz
09.08.2005, 17:13
ich habe mal einen neuen Thread eröffnet dazu
-> https://www.roboternetz.de/phpBB2/viewtopic.php?p=103658#103658

VictimOfMyOwn
27.10.2005, 17:01
hi ho...

hoffe doch, daß eure projekte nicht auf "eis gelegt" sind.

eine möglichkeit zur "perfekten" optik und ausleuchtung würde mich sehr interessieren.

ich habe auch schon etwas experimentiert...allerdings mit einem selbstgebautem board und einem ADNS 3060.

ein bild von der oberfläche kann auf dem pc dargestellt werden. die erfassung einer bewegung bzw. die wegstreckenmessung funktioniert auch...allerdings spricht der sensor nur an, wenn er auf einem stoff - mauspad ("gute" struktur) oder auf einem ausgedruckten raster bewegt wird.

bei weißem papier z.b. passiert garnix. also muss wahrscheinlich die optik noch optimiert werden. im moment wird eine kunststoff kollimatorlinse mit 4.5mm brennweite von reichelt verwendet.

das maximum war bis jetzt, daß auf dem sensor ein 1x1mm großes bild vom untergrund einigermaßen scharf abgebildet wurde. ich könnte mir vorstellen, daß man den bildausschnitt auf 0.5x0.5mm oder noch weniger verkleiner müsste...also eine noch stärkere vergrößerung, damit der sensor auch bewegungen auf weißem papier erkennt.

hat jemand in dieser richtung schon ein paar erfahrungen gemacht...bzw. eine "nicht originale" linse benutzt mit welcher der sensor gut funktioniert ?

als beleuchtung benutze ich übrigens eine üder den ADNS angesteuerte LED. ist im ADNS der "shutter mode" aktiviert wird die LED wahrscheinlich über PWM gedimmt (der ADNS steuert einen bc517 welcher seinerseits die LED ansteuert). wird der sensor näher an ein objekt bewegt, wird die LED dunkler.

mfg

dollreiner
01.06.2012, 22:34
hallo liebe profis,

ich würde gerne mit dem maussensor als erweiterung zur inertialsensorik eine 4copters spielen.
ne kamera und bildverarbeitung (wie die maus, die was ähnliches wie 2-dimensionale autokorrelation machen muß) auf einem 8-bit prozessor kann man völlig vergessen. also was fertiges...

aber : ich bin optisch eine null. könnte einer der profis von hier das mal für anfänger erklären, wie man den sichtabstand des maussensors (ist das die brennweite ??) so erhöht, daß z.b. 1-5 meter oder so möglich sind ?