Um Gottes Willen vielleicht irre ich mich ja diesbezüglich aber für mich wirkt der Reachy Mini eher wie eineb KI-Kopf mit einem Körpergefühl als wie ein klassischer Einstiegsroboter in Richtung Asuro. Und exakt diese Tatsache mach ihn imho ein bisschen schräg einzuordnen auch wenn er natürlich auch interessant ist. Wenn ich das korrekt verstanden habe scheint der Reiz beim Reachy Mini eher darin Sprache, Blickrichtung, Gesten und Reaktion in Hardware zu bekommen zu liegen.
Fahren würde ich ihm erstmal gar nicht als Pflicht aufdrücken. Sobald das Ding mobil wird, kommt direkt die ganze alte Suppe mit der Stromversorgung, dem Schwerpunkt, dem Absturz, den Hindernisse, der Sicherheit und dem Kabelsalat hinzu. Dann ist man schneller beim Fahrgestell als bei der eigentlichen KI-Interaktion.
Als Kopf auf einer mobilen Plattform wäre es aber schon witzig. Gerade diese Idee, dass der Körper dem Blick folgt, finde ich reizvoll. Nur muss die die Mechanik zuverlässig sauber genug rückmelden, denn sonst wird das eher ein nervöser Wackeldackel auf Rädern.
Wie offen das Controlboard wirklich ist würde mich aber vor allem interessieren. Denn es ist weniger Lernplattform als ein Demo-Spielzeug wenn man da am Ende nur hübsch über fertige APIs winkt.







Zitieren
Lesezeichen