-
-
Erfahrener Benutzer
Roboter Genie
Lichtpunkterkennung
Hallo,
Ich möchte nur kurz mein kleines Projekt vorstellen.
Da ich mit meinem Roboter Lichtpunkte erkennen möchte habe ich mich in den letzten zwei Tagen beschäftigt, außerdem wollte ich mal MATLAB ausprobieren, da ich es vorher noch nie versucht habe.
Da ich im Internet garnichts zu diesem Thema gefunden habe , habe ich mcih entschlossen meine Erkentnisse auf meiner Seite genau zu dokumentieren.
Ich möchte euch das nicht vorenthalten, über Feedback wäre ich auch erfreut.
Es lohnt sich auch für nicht-matlab Nutzer den Artikel durchzulesen!
Der Link:
http://www.techgeek.at/?page_id=255
Hier der
-
Erfahrener Benutzer
Roboter Experte
ich finds klasse dukomentiert. =D> =D> =D>
-
Erfahrener Benutzer
Roboter Genie
Vielen Dank für dein Feedback, auch wenn es dokumentiert heißt (Dokument) . Wenn es schon einer gut findet hat sichs gelohnt, das Zusammenschreiben.
Ich werde noch Überschriften einfügen, damit es bisschen übersichtlicher wird.
-
Erfahrener Benutzer
Robotik Einstein
ich find es auch toll, daß Du die Arbeit zur Verfügung stellst.
Es ensteht bei mir der Eindruck, daß beim Einlesen der Bilder im Matlab zwei Matritzen mit 160 X 120 Elementen erzeugt werden und jedes Element aus einer Zahl besteht. Die müssen nur noch voneinander subtrahiert werden und man erhält das Bild mit dem Lichtpunkt bei der der Rest schwarz ist.
Das kommt mir sehr einfach vor. Vielleicht könntest Du noch etwas mehr auf die Matrixelemente eingehen und was passiert, wenn die beiden Bilder nicht genau deckungsgleich sind.
Gruß
Searcher
Hoffentlich liegt das Ziel auch am Weg
..................................................................Der Weg zu einigen meiner Konstruktionen
-
Erfahrener Benutzer
Roboter Genie
Du hast Recht, dass zwei Matritzen entstehen, eine für jede Bild.
Jedoch ist es so, dass diese Bilder vorerst im RGB Format sind, daher die Matrix nicht zweidimensional ist, weil einem Pixel 3 Werte zugeordnet werden müssen.
Jedoch macht das keinen Unterschied bei der Subtraktion, da jedes Element der Matrix vom gleichen Element der anderen Matrix abgezogen wird. Das ist aber denke ich klar.
Damit ich dann möglichst einfach die Analyse durchführen kann, wandle ich die Bilder in Graustufen um, da mich eigentlich der Weißanteil der Pixel interessiert und mehr nicht. So habe ich nur noch ein Wert pro Pixel, 0-255
Naja was passiert wenn die Bilder nicht deckungsgleich ist...
Dadurch, dass die zwei Bilder trotzdem ähnlich sind, erhält man bei der Subtraktion trotzdem ein Ergebnis, welches einfacher zum analysieren ist als nur ein Bild. Angenommen ein Bild ist um die X-Achse verrutscht. Trotzdem wird es dann viele Elemente geben, die Deckungsgleich sind und noch mehr Pixel die zwar nicht den gleichen Wert haben, aber einen ähnlichen.
Da sieht man nämlich gleich den Zusammenhang: Zwei Bilder sind zwar nich deckungsgleich aber ähnlich ergo: die Pixelwerte sind nicht gleich aber ähnlich.
Ziehe ich jetzt die zwei voneinander ab, bekomme ich trotzdem einen kleineren Wert als wenn ich nur den originalen wert eines Bildes genommen hätte.
Man kann natürlich zuerst eine Ähnlichkeitsanalyse durchführen wie viel Prozent sich die zwei Bilder ähneln. Je nach Resultat könnte man dann nur das Bild mit dem Licht analysieren.
Und das bringt mich zu einer neuen Idee, ich werde versuchen so eine Analyse zu implementieren....
Ich hoffe das beantwortet deine Frage wenn nicht einfach Fragen. Wie du siehst kommen neuen Ideen auch durch Fragen zu stande :-D
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
Lesezeichen