-
-
Erfahrener Benutzer
Roboter-Spezialist
Jetzt hab ich die Windows-Demo von Nicolas mal ausprobiert. Die nötigen Treiber (OpenNI, Kinect und Nite) liefert er gleich mit. Die Installation in der von ihm angebenen Reihenfolge hat auf Anhieb funktioniert - wenn man mal davon absieht, dass ich erst nach einer halben Stunde gemerkt habe, dass ich trotz blinkender KINECT-LED vergessen hatte zusätzlich die 12V Spannungsversorgung für die KINECT einzuschalten.
Die Punktwolke für die Beispielbilder ist in diesem ersten Versuch durch Drehen der KINECT mit festem Neigungswinkel um ca. 40° auf einem Stativ zustande gekommen.
Die Demosoftware kann die entstandene Punktwolke im .ply-Format speichern, d.h. sie kann mit der Opensource 3D-Software Meshlab dargestellt und bearbeitet werden.
http://meshlab.sourceforge.net/ (gibt's auch für Windows). Die verschiedenen Kameraperspektiven der Beispielbilder sind durch Drehen der Ansicht in Meshlab entstanden. Meshlab kann auch in der 3D-Punktwolke messen. Dafür hatte ich einen 50cm Stahlmaß auf dem Tisch liegen. Das Messergebnis ist erstaunlich genau.


Gruß, Günter
-
Erfahrener Benutzer
Roboter-Spezialist
MIT Quadrotor mit KINECT-Sensor erstellt 3D-Karte im Überflug:
http://groups.csail.mit.edu/rrg/inde...S-DeniedFlight
Gruß, Günter
-
Erfahrener Benutzer
Roboter-Spezialist
Habe gerade im heise-newsticker gesehen, dass Microsoft endlich das KINECT-SDK für Windows-PC ins Netz gestellt hat:
http://www.heise.de/newsticker/meldu...t-1262087.html
Wer ohne Umweg über heise zu den SDK-links möchte:
http://research.microsoft.com/en-us/...cts/kinectsdk/
http://channel9.msdn.com/coding4fun/kinect/
Gruß, Günter
-
Erfahrener Benutzer
Roboter-Spezialist
Ich hoffe nicht, dass der Roboternetz-Bot, der auch golem.de auswertet, schon darüber berichtet hat. Ist zwar schon 10 Tage her, aber wer es wie ich damals verpasst hat, wird sich das Video vielleicht doch gern ansehen:
http://www.golem.de/1108/85683.html
Für Roboter mit PC oder Verbindung zu einem PC ist Kinect mit entsprechender Software der ultimative Sensor. Für 150€ gibt es sonst nichts, das eine 3D-Karte der Umgebung mit Farb/Texture Information darstellen könnte. Für fahrende Roboter sicherlich interessant, dass die 3D-Rekonstruktion auch mit „verwackelten“ Eingangsdaten funktioniert, wie es in dem Video gezeigt wird.
Weitere Videos zu Kinect Fusion von Microsoft Research findet man hier:
http://www.engadget.com/2011/08/09/m...al-time-3d-re/
Ein Aspekt des Kinect Sensors, der bisher wenig beachtet wurde, ist das eingebaute Mikrophon-Array. Auf einem Roboter kann das Array zur Spracherkennung/-Steuerung eingesetzt werden. Im Microsoft Kinect-SDK findet man Beispiele dazu.
Über das Mikrophon-Array lässt sich auch die Position (besser: Richtung) eines Sprechers lokalisieren:
http://channel9.msdn.com/coding4fun/...io-Positioning
Gruß, Günter
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
Lesezeichen