Archiv verlassen und diese Seite im Standarddesign anzeigen : [ERLEDIGT] Bildverarbeitung Linien, Kreise u.a.
Hallo,
ich habe eine Kamera, die z.B. Linien oder Kreise in einem Bild erkennen kann.
Ich habe mir das mal angeschaut. Die Linien oder Kreise (auch Rechtecke) sind sehr unbeständig.
Was macht mit so etwas, wenn z.B. Linien in einem Bild gezeigt werden. Selbst wenn ich die Koordinaten im Bild von Linien bekäme, lässt sich damit auf nichts rückschließen. Halte ich die Kamera auf einen Türrahmen, ist noch nicht mal der eindeutig zu erkennen. Dazu genügen die wenigen unbeständigen Linien nicht. Und man hat auch keine Info (denke ich jedenfalls) zur Entfernung. Selbst wenn ich eine Senkrechte eines Türrahmens angezeigt bekäme und auch die Koordinaten zweier Punkte hätte, wäre völlig unklar, zu welchem Objekt diese Linie gehört. Genau so verhält es sich mit kreisrunden Objekten oder Rechteckigen (wie ein Bildschirm z.B.).
Wozu ist so etwas gut, wofür wird so eine Erkennung eingesetzt?
MfG
Holomino
27.10.2020, 17:09
So dämlich es klingt: Mach mal richtig Licht an. Das vermindert das Bildrauschen, steigert die Kontraste und damit die Erkennungsrate.
Ja das ist noch eine andere Sache, dass das im schwachen Licht schlechter funktioniert. Aber die Frage ist, was macht man damit, wie ich es beschrieben habe? Denn es ist ja zu nichts zuzuordnen. Wenn ich in eine Richtung schaue, erkenne ich Gegenstände. Wenn die Kamera das macht, erkennt die nichts aussagende Linien.
was für eine kamera ist das?
Die Kamera sollte da keine Rolle spielen. Es muss doch eine Anwendung für solche Sachen geben.
Nur, um mal die Linienerkennung zu zeigen: https://openmv.io/blogs/news/line-detection
Wobei das auf den Bildern oder Videos immer sehr optimal abgebildet ist, wie in dem Beispiel, mit der Tastatur.
In Wirklichkeit, sieht das ganz anders aus, erst recht, wenn die Kamera auf einem Roboter montiert wäre, der sich bewegt. Dann würde die Mehrzahl der Linien fehlen, ab und an mal eine für den Bruchteil einer Sekunde erkannt werden. Manchmal sind es auch mehr Linien.
MfG
Holomino
27.10.2020, 18:51
Man verwendet es als zusätzliche Orientierung. Wenn Du den Öffnungswinkel Deiner Kamera kennst, kannst Du in Verbindung mit Odometrie durch Linienpaarbildung mehrerer aufeinanderfolgender Bilder die Bewegung der Kamera errechnen.
Ich muss allerdings gestehen, ich hab mal vor Jahren so ein Projekt angefangen, aber dann recht schnell wieder eingestellt, weil einerseits das Problem mit dem Ausleuchten indoor kritisch ist, andererseits die Normalo-WebCams aus der Bewegung heraus keine scharfen Bilder mehr produzieren. Sprich: Im praktischen Betrieb war die (Wieder-) Erkennungsrate auch bei mir unterirdisch.
Hinzu kommt, dass für eine einwandfreie Erkennung oft auch ein bestimmter Abstand notwendig ist. Personenerkennung bzw. das Erkennen eines Gesichts ist hier ein gutes Beispiel. Das ist eher was für stationäre Kameras, die an der Wnad montiert sind oder so und wo man sich dann davor stellt. Unter halbwegs optimalen Bedingungen wird dann eine Person erkannt (aber keine bestimmte). Hmmm...
Bei Barcodes oder Tags wäre es ähnlich. Hier muss man, wenn man auf 2 Meter einen Tag erkennen will, den schon sehr groß ausdrucken. So mit kleinen, nicht störenden Bildchen ist da nichts zu machen. Es sei denn, man will die nur erkennen, wenn der Abstand ca. 30 bis 50cm beträgt. Bloß, als Orientierungspunkt wäre es ja schon auf größere Entfernung sinnvoll.
ohne den genauen Kameratyp zu kennen und ohne etwas über Belichtungs- oder Scharfstellfunktionen zu wissen, kann man doch überhaupt nichts dazu sagen - wer weiß denn, was die wie und wozu intern verwendet.
So eine Kamera liefert Werte über die erkannten Objekte, wie beschrieben. Wenn Du damit nichts anzufangen weißt, brauchst Du Dir über Belichtung und Schärfe keine Gedanken zu machen.
Holomino hat da schon was Richtiges geschrieben, so würde ich mir das auch etwa vorstellen können. Aber ich weiß immer noch nicht wie genau.
Angenommen, ich bekomme zwei Zahlenpaare, eines über die x/y-Position von einem Punkt und eines vom zweiten Punkt, einer Linie. Sind mehrere Linien erkennbar, bekommt man noch mehr Werte.
Was mache ich mit so einem Wertepaar? Woher weiß die Software, wozu so eine Linie gehört, was da erkannt wird - welches Objekt? Die Linie könnte die eines Türrahmens sein, eines auf dem Boden liegenden Teppichs, die eines Wandvorsprungs oder eines Objektes, das im Raum steht und von dem man nicht weiß, was es ist.
Es gibt auch Beispiele für Arduino, aus denen geht so etwas aber nicht hervor. Oder anders ausgedrückt: ich habe kein Beispiel gefunden, wo diese Linienerkennung sinnvoll eingesetzt würde.
Gesagtes gilt dann auch für erkannte Kreise oder Rechtecke.
Ich weiß wohl, dass solche Sachen zur Objekterkennung eingesetzt werden, aber wie? Wo findet man Beispiele für sinnvolle Anwendung? Also z.B. ein Beispiel, wie aus gefundenen Linien in einem Bild, ein Objekt erkannt wird, wenn die Erkennung der Linien dafür überhaupt gedacht ist (wofür ganz genau ist es gedacht?).
MfG
- - - Aktualisiert - - -
Hier habe ich ein Beispiel zum Template Matching gefunden. Zumindest wird da mal was erklärt. https://www.youtube.com/watch?v=Ke4kOCvo0Yk
darüber kann man nichts aussagen solange man nichts über die Kamera weiß und/oder mit welcher Soft- oder Firmware die läuft.
Warum stellst du dich so stur an? Kannst du nicht einfach mal nur antworten?
Nikon? (welche?) Canon? (welche?) Sony? (welche?) USB cam? (welche? welche Software? welche cpu/Soc?) GoPro? (version?) Smartphone-cam? (welches Smartphone? OS?) Pixy-cam? (Version)?
Warum stellst du dich so stur an? Kannst du nicht einfach mal nur antworten?
Weil ich Antworten auf diese Fragen haben möchte, die ich gestellt habe. Nicht Vermutungen oder was Anderes, zu dem, was mich jetzt nicht interessiert.
Hier hast Du ein Datenblatt dazu: https://openmv.io/products/openmv-cam-h7
Version, Aufbau, Maße etc.
Aber es geht nicht nur um diese Kamera, auch um ähnliche, wie die Pixy 2. Inwiefern die sich gleichen, muss ich erst sehen, wenn ich beide habe.
Ich will nichts über Schärfebereich wissen, ich brauche keine Infos zur Ausleuchtung des Bildes. - Das kann ich hier selber sehen.
Informationen zur Kamera selber, Version, Hersteller, Objektiv, Brennweite, Ausleuchtung, Bildgröße, Framerate usw. usw. sollen für meine Fragestellung nicht interessant sein.
Worum es mir geht, ist dies:
Hallo,
ich habe eine Kamera, die z.B. Linien oder Kreise in einem Bild erkennen kann.
Ich habe mir das mal angeschaut. Die Linien oder Kreise (auch Rechtecke) sind sehr unbeständig.
Was macht mit so etwas, wenn z.B. Linien in einem Bild gezeigt werden. Selbst wenn ich die Koordinaten im Bild von Linien bekäme, lässt sich damit auf nichts rückschließen. Halte ich die Kamera auf einen Türrahmen, ist noch nicht mal der eindeutig zu erkennen. Dazu genügen die wenigen unbeständigen Linien nicht. Und man hat auch keine Info (denke ich jedenfalls) zur Entfernung. Selbst wenn ich eine Senkrechte eines Türrahmens angezeigt bekäme und auch die Koordinaten zweier Punkte hätte, wäre völlig unklar, zu welchem Objekt diese Linie gehört. Genau so verhält es sich mit kreisrunden Objekten oder Rechteckigen (wie ein Bildschirm z.B.).
Wozu ist so etwas gut, wofür wird so eine Erkennung eingesetzt?
MfG
Ich möchte wissen, wie man diese Sachen, die so eine Kamera zur Verfügung stellt, einsetzt:
Ich weiß wohl, dass solche Sachen zur Objekterkennung eingesetzt werden, aber wie? Wo findet man Beispiele für sinnvolle Anwendung? Also z.B. ein Beispiel, wie aus gefundenen Linien in einem Bild, ein Objekt erkannt wird, wenn die Erkennung der Linien dafür überhaupt gedacht ist (wofür ganz genau ist es gedacht?).
Vielleicht ist es möglich, beim Thema und der dazugehörigen Fragestellung zu bleiben? Ich möchte eben nur wissen, was man aus den Daten macht (und wie man das macht) die aus so einer Bildverarbeitung, zu Linien, Kreise u.a., entstehen (Koordinaten und Richtungsangaben). Insbesondere die Frage nach den Linien interessiert mich hier, als Beispiel. Noch genauere Fragen dazu habe ich schon gestellt.
Gruß
Moppi
Rabenauge
28.10.2020, 07:38
James Bruton hat erst kürzlich (ich habs gestern gesehen) ein Video veröffentlicht, in dem er die Gesichtserkennung nutzt.
Da war auch ein Ausschnitt drin, wo er nen anderen Roboter Dreiecke, Kreise, Vierecke unterscheiden lässt.
Beides schien ziemlich gut zu funktionieren- ich kann mir z.B. vorstellen, dass ein Roboter z.B. seine Ladestation am entsprechenden Marker erkennt.
Die Symbolerkennung funktioniert auch halbwegs, da könnte man sogar etwas damit anfangen, wenn man herausgefunden hat, unter welchen Bedingungen das praktikabel ist.
Leider sind diese Demos immer hübsch anzusehen. Ich kann jetzt auch ein Video davon machen, wenn ich die Kamera auf das fahrbare Chassis montiert habe. Dann schaffe ich halbwegs taugliche Bedingungen (wenn vielleicht auch praxisferne Bedingungen, das weiß ja keiner, der das Video nicht herstellt) und zeige am PC die Auswertung der Kamera. Das ist durchaus eindrucksvoll.
Bloß was macht man mit den Ergebnissen, die für Linien z.B. ausgeworfen werden. Weil Linien können überall erkannt werden: eine offenstehende Tür, ein Mauervorsprung, eine Ecke einer Wand, ein Schrank, Fenster, Teppiche, Stühle ... Um mit einer Linie was anfangen zu können, muss sie doch zuzuordnen sein.
Wenn ich es z.B. schaffe, einwandfrei einen blauen Ball zu verfolgen und weiß, dass es nur ein blaues Objekt im Sichtfeld gibt, dann bekäme ich vermutlich die Position des Objektes (als Koordinate, im zweidimensionalen Bild), vielleicht die Größe (Umfang oder Fläche) und die Richtung (vielleicht relativ zur Bildmitte). Aus diesen Angaben könnte ich ableiten, wie weit der blaue Ball weg ist und in welcher Richtung. Mit etwas Tüftelei könnte ich so einen Tischtennis spielenden Roboterarm steuern, oder einen Arm, der den blauen, fliegenden Ball einfängt.
Aber was tue ich mit Linien?
Mit der Symbolerkennung ist es auch so eine Sache, weil das auf eine bestimmte Entfernung funktioniert. Ein Symbol von der Größe 3*3cm wird auf eine Entfernung von 30 bis 50cm erkannt. Größere Entfernungen sind möglich, dann muss das Symbol größer werden (z.B. Apriltags). Auf 2m Entfernung müsste das Symbol dann vielleicht schon 20*20cm groß sein, um eine einwandfreie Erkennung und eine hohe Erkennungswahrscheinlichkeit zu bekommen.
MfG
das ist ja emdlich mal eine Info, mit der man as anfangen kann.
Bei "ich habe hier eine Kamera" habe ich zuerst an eine Canon EOS R etc. gedacht.
Also eine embedded Cam auf einem Breakoutboard mit on-board-Imageprocessing, ähnlich wie Pixy.
Eine Pixy 1 + 2 hatte ich auch mal, aber wieder verkauft, weil die Objekt-Erkennung hundsmiserabel war und extrem gute und konstante Lichtverhältnisse erfordert hatte, und dort wurden auch ständig Bereiche "erkannt", die absolut ohne Sinn waren und der Rest unglaublich verrauscht. Außerdem war der Firmen-Support grottenschlecht. Habe sie beide wieder verkauft.
Daraufhin habe ich eine kleine USB-Cam für 20 EUR gekauft (skalierbar bis Full-HD) und weit bessere Ergebnisse mit meinem Raspi und openCV erzielt. Da kann ich genau selber programmieren, was ich wie erkennen will.
oberallgeier
28.10.2020, 11:17
.. Daraufhin habe ich eine kleine USB-Cam für 20 EUR gekauft (skalierbar bis Full-HD) und weit bessere Ergebnisse mit meinem Raspi und openCV erzielt ..Bitte nenn doch dazu Cam-Typ, Händler und so. Das klingt ja richtig gut, günstig und wenns so gut funktioniert - sowas sucht man doch (gelegentlich). Wenigstens zum Rumspielen. Danke im Voraus
die habe ich schon ewig lang, Firma: "Made in China" ;-), damals bei Ebay gekauft.
openCV arbeitet aber mit allen möglichen USB-cams, man muss nur einen passenden Linux- Cam-Treiber installieren, und ntl openCV.
z.B.
sudo apt-get update
sudo apt-get upgrade
# opencv
sudo apt-get install libopencv-dev
#Auswahl von Cam Tools:
#apt search webcam
# cam tool guvcview
sudo apt install guvcview
# alternativ z.B.:
# cam tool camorama
sudo apt install camorama
die habe ich schon ewig lang, Firma: "Made in China" ;-), damals bei Ebay gekauft.
leider auch wieder ohne quellen- oder typ-angabe :-( - was soll man damit anfangen?
Holomino
28.10.2020, 12:42
Aber was tue ich mit Linien?
Du triangulierst z.B. über die Eigenbewegung. Fokussierst Du eine vertikale Linie auf den 0° Winkel Deiner Kamera (Mittelpunkt der x-Achse) und fährst vorwärts, hast Du schon eine einfache Winkelkorrektur. Beobachtest Du dabei, dass sich eine zweite Linie zum Bildrand verschiebt, kannst Du mithilfe der gefahrenen Strecke (Odometrie mit nun verringertem Winkelfehler) und etwas Trigonometrie Lage und Abstand der nach außen wandernden Kante relativ zur Roboterposition bestimmen. So lässt sich bei ausreichender Anzahl detektierbarer Kanten ein Netz aufbauen, in dem einzelne Kanten durch Lage-/Abstandsinformationen miteinander verknüpft werden.
leider auch wieder ohne quellen- oder typ-angabe :-( - was soll man damit anfangen?
welchen Teil von "openCV arbeitet aber mit allen möglichen USB-cams, man muss nur einen passenden Linux- Cam-Treiber installieren" hast du NICHT verstanden?
Für dich, noch mal sehr simpel formuliert:
Es geht mit jeder beliebigen web-Cam gleich gut.
PS,
geht genauso auch mit dem Raspi-Cam-Modul https://www.ebay.de/itm/Raspberry-Pi-Kamera-Kameramodul-5-Megapixel-1080p-FullHD-5MP-Camera-Cam-Module/162828376010?hash=item25e953d7ca:g:EgIAAOSwgwhfHJk N uvm
welchen Teil von "openCV arbeitet aber mit allen möglichen USB-cams, man muss nur einen passenden Linux- Cam-Treiber installieren" hast du NICHT verstanden?
ich habe mich mit "openCV" noch gar nicht beschäftigt, deshalb musst du aber nicht gleich ausfallend werden...
dann musst du etwas freundlicher fragen und nicht sofort mit Gemaule kommen wie "leider auch wieder ohne quellen- oder typ-angabe :( - was soll man damit anfangen?"
Zumal ich hier derjenige war, der einerseits immer den OP um genauere Angaben gebeten hat, andererseits aber ja bereits schrieb, dass openCV hardwareunabhängig arbeitet.
Außerdem ist die Frage, welchen Teil du nicht verstanden hättest, Welten von "ausfallend" entfernt.
Das Forum soll ja den Austausch von Ansichten und Verständnissen dienen. Damit geht man ja davon aus, dass das Verständnis bei den Beteiligten vorher ungleich ist und nachher im Idealfall etwas ausgeglichener.
Wenn einer etwas nicht gleich verstanden hat, dann weil es nicht in seinem Sinn dargestellt oder erklärt wurde. Das kann man im Sinn des Forums durch Nachfragen ausgleichen, es als unverständlich darzustellen heißt, die Verständlichkeit einseitig auf den eigenen Standpunkt zu beziehen und anderen Fehler zuzuschreiben.
Ein freundliches Fragen und um nähere Angaben bitten wäre sicher ideal, in den ersten Kommentaren wie „Warum stellst du dich so stur an? Kannst du nicht einfach mal nur antworten?“ ist das noch nicht vorhanden, und gibt Anlass zu Beschwerden und führt dann auch wieder zu persönlichen Auseinandersetzungen.
Ich bitte deshalb darum, die Diskussion in diesem Sinn konstruktiver zu führen.
Du triangulierst z.B. über die Eigenbewegung. Fokussierst Du eine vertikale Linie auf den 0° Winkel Deiner Kamera (Mittelpunkt der x-Achse) und fährst vorwärts, hast Du schon eine einfache Winkelkorrektur. Beobachtest Du dabei, dass sich eine zweite Linie zum Bildrand verschiebt, kannst Du mithilfe der gefahrenen Strecke (Odometrie mit nun verringertem Winkelfehler) und etwas Trigonometrie Lage und Abstand der nach außen wandernden Kante relativ zur Roboterposition bestimmen. So lässt sich bei ausreichender Anzahl detektierbarer Kanten ein Netz aufbauen, in dem einzelne Kanten durch Lage-/Abstandsinformationen miteinander verknüpft werden.
Theoretisch kann ich dem folgen, bis auf den Schluss (ein Netz aufbauen, in dem einzelne Kanten durch Lage-/Abstandsinformationen miteinander verknüpft werden) hier habe ich noch keine Vorstellung davon, weil ich so was noch nie gemacht habe. Alles in allem, was immer ich damit anstellen wollte, setzt es doch voraus, dass:
1. Linien immer wieder erkannt werden
2. Linien desselben Objektes immer wieder erkannt werden
3. Dieselben Linien, desselben Objektes (oder derselben Objekte im Raum) immer wieder erkannt werden
Und genau da sehe ich ein Problem. Wenn es gut läuft, werden in einem Bild, dass immer denselben Ausschnitt zeigt, Linien oft, aber nicht immer erkannt. Mit Glück sind es aber dieselben Linien, derselben Objekte. Wackelt die Kamera, kann sich dies schon ändern, es werden Linien nicht mehr so oft erkannt und es tauchen Linien auf, die vorher nicht erkannt wurden (dass diese "neuen" Linien danach wieder erkannt werden, steht aber auch nicht fest). Verwechselungsgefahr bei Linien sehe ich auch schon irgendwie, aber das will ich nur am Rande erwähnen. Deshalb frage ich mich, ob es sinnvolle Anwendungsgebiete gibt. Template Matching ist ja auch ganz brauchbar, Apriltag-Erkennung ebenfalls; so wie ich das bisher sehe, ist die Erkennungsrate ziemlich gut (auch unter normalen Bedingungen, bei wechselnden Lichtverhältnissen). Aber so tief stecke ich noch nicht drin, bin da noch nicht weiter, als bei ersten Versuchen.
MfG
Das Forum soll ja den Austausch von Ansichten und Verständnissen dienen. Damit geht man ja davon aus, dass das Verständnis bei den Beteiligten vorher ungleich ist und nachher im Idealfall etwas ausgeglichener.
Wenn einer etwas nicht gleich verstanden hat, dann weil es nicht in seinem Sinn dargestellt oder erklärt wurde. Das kann man im Sinn des Forums durch Nachfragen ausgleichen, es als unverständlich darzustellen heißt, die Verständlichkeit einseitig auf den eigenen Standpunkt zu beziehen und anderen Fehler zuzuschreiben.
Ein freundliches Fragen und um nähere Angaben bitten wäre sicher ideal, in den ersten Kommentaren wie „Warum stellst du dich so stur an? Kannst du nicht einfach mal nur antworten?“ ist das noch nicht vorhanden, und gibt Anlass zu Beschwerden und führt dann auch wieder zu persönlichen Auseinandersetzungen.
Ich bitte deshalb darum, die Diskussion in diesem Sinn konstruktiver zu führen.
Wieder mal eine weitscheifende Epik, ohne die objektiven Fakten zu erkennen:
die Frage "warum stellst du dich so stur" war der repetitiven Weigerung geschuldet, auf freundliche Nachfrage genauere Infos zum Topic zu liefern.
die Frage "was davon hast du nicht verstanden", war der unhöflichen Formullierung des zuvor Fragenden geschuldet, die jener von vornherein freundicher hätte stellen können, mit dem Hinweis, was noch neu für ihn ist.
Wären die beiden Vorraussetzungen erfüllt gewesen, hätte es keine "Diskussion" gegeben.
Arbeite mal bitte etwas verstärkt an deiner Objektivität.
Das war eine Bitte, die Diskussion konstruktiv zu gestalten.
.. die Frage "warum stellst du dich so stur" war der repetitiven Weigerung geschuldet, auf freundliche Nachfrage genauere Infos zum Topic zu liefern.
Beim "Topic" geht es darum, wozu einzelne Erkennungsalgorithmen gut sind, wozu man deren Ergebnisse einsetzt und ... wenn möglich zu beantworten .... wie.
Kreise, Rechtecke, Linien sollte Standard bei den Kameramodulen sein. Was für Infos fehlen zu der Fragestellung noch?
Die Fragestellung trifft auf eine Pixy und Pixy 2 genau so zu, wie auf eine andere Kamera, die ich hier schon woanders erwähnt habe und trifft auch auf andere Kameramodule zu, die in der Lage sind Kreise, Linien und Rechtecke (per Bildverarbeitung) zu erkennen. Ich würde das als Standard sehen, bloß den Sinn noch nicht.
Holomino
29.10.2020, 13:04
Hallo Moppi,
ich wollte noch ein wenig zum Thema und Deinen Fragen beitragen, da dieser Thread aber wieder einmal jenseits der Schmerzschwelle zu enden droht, hab ich heute keinen Bock mehr.
Vielleicht mach ich's morgen, wenn die Wasser wieder ruhiger sind. Vielleicht entscheide ich auch, mich generell ab der ersten Entgleisung eines Thread nicht mehr daran zu beteiligen. Vielleicht schreib ich Dir auch einfach eine PN. (Soll der Rest sich doch kabbeln, Du stellst zumindest die richtigen Fragen).
Ich meine, es wäre vielleicht auch mal gut, wenn themenfremde Gegenfragen auftauchen, dass man die in einem neuen Thread stellt. Kann man ja unter "Welche Kameras für Objekterkennung" z.B. tun. Da passt so eine Frage nach Typ, Größe, Objektiv, Schärfebereich dann eher.
@Holomino
Ist nicht so tragisch, Danke hier noch mal, für Deine Mühe!
Ist immer schwer, irgendwo einen Einstieg zu finden.
Gruß
nein, die Frage "ich habe hier eine Kamera, die zeigt Linien, welchen Zweck haben die" lässt sich keineswegs generell beantworten, ohne die Cam und ihr Image Processing zu kennen, denn erstens hast du gar nicht geschrieben, wer und was die Linien produziert (Software? on-board-Immage-Prozessoren mit unbekannten Algorithmen?), wozu die Cam laut Hersteller eingesetzt werden soll mit welchen Fähigkeiten, und jede Lösung macht es anders mit anderen "Bedeutungen" von eingeblendeten Signalen.
Auch eine digitale SLR oder ein Smartphone kann das u.U., wenn es um horizontale oder vertikale Linien zur exakten horizontalen oder vertikalen Ausrichtung der Kamera oder für Gesichtserkennung etc. geht (und dann wird meist dadurch Vordergrund gegen Hintergrund erkannt und separiert und entspr. scharf gestellt und belichtet).
Eine Pixy liefert andere Linien als andere Cams und auch mit anderen Fehlern und anderem Rauschen. Und meine Pixy hat eigentlich nur Rechtecke anzeigen können, "Linien" wären also nur verunglückte Rechtecke gewesen und absolut ungeeignet zum "Triangulieren" etc., und "Kreise" habe ich bislang bei einer Pixy auch noch nie gesehen.
Genausogut hätte es auch eine nackte Webcam sein können, bei der eine Bilderkennung komplett als Software läuft (openCV?), und dann hätte man sich mit der Software beschäftigen müssen, nicht mit der Cam.
Außerdem ist immer die Frage, was überhaupt erkannt und aufgelöst und angezeigt werden kann und soll, wenn offensichtliche Fehler und Rauschen auftreten.
- - - Aktualisiert - - -
PS
Hallo HaWe,
du hast im Forum Roboternetz eine Warnung erhalten.
Grund:
--------------
Unangemessene Ausdrucksweise
Verwarnung für unangemessene Ausdrucksweise
--------------
Warnungen dienen als Erinnerung an die Forumregeln, welche du verstehen und einhalten solltest.
Mit freundlichen Grüßen
ICH hätte mich unangemessen ausgedrückt? Ich glaube jetzt echt du hast se nich mehr alle.
piggituX
01.11.2020, 22:50
HI,
ich hatte damals über das Forum die openMV M7 gewonnen und einiges rumprobiert, die Cam wird ja via Python programmiert. ich es gibt viele Beispiele, ich wollte Sie irgendwann als FaceDetection nutzen, so ähnlich wie es auch Anki Cosmo macht.
Bild mit der CAM auf der SDCard speichern und via python code dann vergleichen, so die Theorie.
wie man man das auf Roboter mit Formen umsetzen kann, ist gut in dem Beispiel was hier zu finden ist zu sehen.
https://www.robotshop.com/community/forum/t/rs4-self-balancing-raspberry-pi-image-processing-robot/5794
Powered by vBulletin® Version 4.2.5 Copyright ©2024 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.