Dazu gibts schon einen Thread.
Ja, den gibt es auch einzeln mit Optik und...
bei Farnell.
Maus kann ich aber nur empfehlen, die Mühe den ADNS rauszupopeln lohnt sich für privat.
Bekommt man den von dir angesprochenen ADNS2051 auch einzeln oder muss man immer die Maus kaufen?
relaunched: http://www.mindrobots.de algorithms for intelligent robots
Dazu gibts schon einen Thread.
Ja, den gibt es auch einzeln mit Optik und...
bei Farnell.
Maus kann ich aber nur empfehlen, die Mühe den ADNS rauszupopeln lohnt sich für privat.
Ja den bekommst du bei http://www.farnell.com/.
MfG
Rasmus
Das System ist so gut, daß ich ihm das Licht gerne geben würde, das es braucht. Wenn es gepulst sein soll, umso besser, dann kann man es ausschalten wenn keiner hinschaut.Zitat von Wolferl
Relevante Fläche habe ich mal die Fläche genannt, die auf den Sensor abgebildet wird. Ich würde gerne einen größeren Abstand zum Objekt und damit mehr erlaubte Tolreranz im Abstand haben und dafür etwas an Auflösung aufgeben. Eine Auflösung um 1mm denke ich ist noch akzeptabel.
Die erforderliche Überlappung der Bilder müßte für die Korellation erheblich groß sein. Die vom Hersteller eingeplante Überlappung ergibt sich rechnerisch aus der Abtastrate, Kantenlänge der relevanten Fläche* und max Geschwindigkeit. Hat jemand die Daten gerade da? Sie müßte verfügbar sein.
*Sensor-Kantenlänge bei Abblidungsmaßstab 1:1
Manfred
Das war zu Beginn ebenfalls unser Ziel.
Wir haben den Ansatz gemacht, dass sich die Quantisierungsfehler im Mittel aufheben. Das war bei uns aber leider nicht der Fall, und wir haben auch nie wirklich verstanden wieso.
Daher gingen wir in die andere Richtung und haben versucht die relevante Fläche zu verkleinern (-> Quantisierungsfehler wird ebenfalls kleiner).
Wolfgang
Zu dem Fehler gabs auch noch einen schönen Link in einem anderen Thread, wo man den Fehlerverlauf schön sehen konnte. Da hat jemand den Sensor an einen Plotter gebaut und Kreise gezeichnet.
Dummerweise find ich den Link nicht mehr.
Wieso nimmt man nicht eine Digitalkamera, da hätte man doch eine gute Auflösung(Motion Tracking), und könnte das dann in absolute Positionsdaten umrechnen?
MfG
Rasmus
Gute Frage, die bietet sicher mehr.Zitat von robotxy
Wenn man aber soetwas braucht, mit n Ausgängen und klein und billig und fertig. Sicher funktionierend, dann ist es schon toll wenn man es einsetzen kann. Und ersetzen, und vervielfachen.
Manfred
IConnect von µEpsilon (wie LabView nur kostenlos zum download und mit etwas dürftiger Doku) bietet dafür ein paar nette Routinen. Ist aber elends langsam.
Wolfgang
Gleich hier unter "stats" sind die Daten einiger optischer Chips aufgeführt, meiner ist mal wieder nur kurz erwähnt.
Das werde ich wohl selber noch messen müssen.
Manfred
http://www.ida.net/users/oe1k/Optica...axacceleration
und weil es so schön aussieht
http://www.chipmunk.nl/ProMouse/part8.html
Lesezeichen