Mein Tipp, schau dir ROS an. Da gibt es das alles als Nodes.
Mein Tipp, schau dir ROS an. Da gibt es das alles als Nodes.
ROS käme nach meinem Chef nicht in Frage weil es wohl nicht echtzeitfähig ist. Gäbe es denn keine Alternative oder zumindest eine mathematische Vorschrift nach der man nur den Input geben muss und dieser dann die Gelenkwinkel als Output wieder gibt.
Wenn du keine Erfahrung mit Programmierung hast, ist Echtzeitfähigkeit etwas was du auch nicht mal eben nebenbei in einem Programm einbaust. Würde deinen Chef lieber von ROS überzeugen, es gibt mehr als genug Systeme die bewiesen haben, dass Echtzeitfähigkeit nicht zwangsläufig notwendig ist. Alternative wäre Orocos das kann Echtzeit, ist aber nicht soweit verbreitet.
Zur Mathematik. Prinzipiell erstellt man zu einer gegeben Kinematik eine Kette von Transformationsmatrizen die ausgehend von der Basis deine Koordinaten anhand des Gelenkwinkels vorwärts transformiert. Diese Kette kann man dann prinzipiell invertieren und damit von Koordinaten auf Gelenkwinkel schließen. (Im Zweifelsfall kann man das numerisch machen). Das Problem dabei ist, die Invertierung Singularitäten aufweisen kann und nicht eindeutig sein muss. Im Roboternetz wissen ist glaube ich auch ein Artikel dazu.
Um mal weiteren Fragen vorzubeugen -> Wir bewegen uns in Bereiche dabei in denen du dich selbst einarbeiten musst und nicht in einem Forum mal eben nebenbei eine Lösung dafür bekommst.
Zu Kinematik und Inverser Kinematik s. z.B. hier:
https://homepages.thm.de/~hg6458/Robotik/Robotik.pdf (insb. S. 49ff, 62ff, 83ff.)
https://www.tu-chemnitz.de/informati.../robotik_4.pdf (insb. S. 36ff, 53ff, 72ff.)
Geändert von HaWe (29.04.2018 um 15:15 Uhr)
Es muss nicht alles in Echtzeit sein. Servoregler müssen in Echtzeit regeln. Pfadplanung muss das nicht sein. Klassisch ist hier, bsp. Hardware Regelungen mit µC (Echtzeit System), Höhere Logik mit ROS oder anderem System. Damit baut man das System in Schichten/Layer auf. Wie so etwas gehen kann, zeigt das Video des Mars Rover Curiosity.
[1] https://youtu.be/3SdSKZFoUa8?t=9m49s
Vielen Dank Leute, werde mir mal alles zu Gemüte führen.
Die einzige Frage, die sich mir stellt ist folgende:
Also über die Hand Auge Kalibrierung setze ich das Kamera-KS auf das Roboter-KS bzw. verschiebe es dahin.
Über die PointCloud erhalte ich 3 translatorische und 3 rotatorische Freiheitsgrade, welche über das Kamerasystem erkannt wird.
Somit ist dieser Punkt nach der Kalibrierung(was ja letztendlich auch nur eine Koordinatentransformation ist) ebenso im Roboter-KS.
Die inverse Kinematik also die Rückwärtstransformation findet doch also im Roboter-KS statt und dient nur dazu die 3trans und 3rot Freiheitsgrade in die 6 Gelenkwinkel des Roboters zu transformieren.
Stimmt das so ?
Lesezeichen