Du hast Recht, dass zwei Matritzen entstehen, eine für jede Bild.

Jedoch ist es so, dass diese Bilder vorerst im RGB Format sind, daher die Matrix nicht zweidimensional ist, weil einem Pixel 3 Werte zugeordnet werden müssen.

Jedoch macht das keinen Unterschied bei der Subtraktion, da jedes Element der Matrix vom gleichen Element der anderen Matrix abgezogen wird. Das ist aber denke ich klar.

Damit ich dann möglichst einfach die Analyse durchführen kann, wandle ich die Bilder in Graustufen um, da mich eigentlich der Weißanteil der Pixel interessiert und mehr nicht. So habe ich nur noch ein Wert pro Pixel, 0-255

Naja was passiert wenn die Bilder nicht deckungsgleich ist...

Dadurch, dass die zwei Bilder trotzdem ähnlich sind, erhält man bei der Subtraktion trotzdem ein Ergebnis, welches einfacher zum analysieren ist als nur ein Bild. Angenommen ein Bild ist um die X-Achse verrutscht. Trotzdem wird es dann viele Elemente geben, die Deckungsgleich sind und noch mehr Pixel die zwar nicht den gleichen Wert haben, aber einen ähnlichen.

Da sieht man nämlich gleich den Zusammenhang: Zwei Bilder sind zwar nich deckungsgleich aber ähnlich ergo: die Pixelwerte sind nicht gleich aber ähnlich.

Ziehe ich jetzt die zwei voneinander ab, bekomme ich trotzdem einen kleineren Wert als wenn ich nur den originalen wert eines Bildes genommen hätte.

Man kann natürlich zuerst eine Ähnlichkeitsanalyse durchführen wie viel Prozent sich die zwei Bilder ähneln. Je nach Resultat könnte man dann nur das Bild mit dem Licht analysieren.

Und das bringt mich zu einer neuen Idee, ich werde versuchen so eine Analyse zu implementieren....

Ich hoffe das beantwortet deine Frage wenn nicht einfach Fragen. Wie du siehst kommen neuen Ideen auch durch Fragen zu stande :-D