Wenn ich bei euch mitlesen will, muss ich ständig was nachgooglen.
Mesh:
http://erbsen.er.funpic.de/.theprodu...emo/meshes.htm
Habt ihr noch mehr so Wörter die ich nicht kenne?
Das mit der Bilddatei, oder einem Videoframe ist mir auch durch den Kopf gegangen.
Das ist aus meiner Sicht dasselbe.
Wenn ich das damals beim Amiga richtig verstanden habe, haben die einen großen Leistungssprung im Datentransfer gemacht als sie einfach die Videodatenschaufel benutzt haben. Die war notgedrungen schnell und eben schneller als der Rest der Speicherverwaltung.
Beim Amiga gab es keine strikte Trennung zwischen Hauptspeicher und Videospeicher. Das war alles einer.
Aus diesem Grund lohnt sich aus meiner Sicht schon, mal zu gucken wie Frames behandelt werden und vielleicht auch Routinen aus der Frame -Fummelei zu adoptieren.
Der Amiga hatte auch das erste ernst zu nehmende Bilddateiformat:
IFF Intechange File Format. Mit Haeder und Boddy und so.
Des Weiteren hatte er eine witzige Art Speicher zu sparen.
Die hieß HAM.
Hold and Modify. Da wurde für den Nachbarpixel nur der Differenzwert gespeichert.
Also: Alten Wert halten und neuen Modifizieren. Damit haben sie farbtiefen generiert die eigentlich unmöglich für das System waren.
Zum Thema speziell:
Insgesamt kann man ja ein komplettes Array real, oder virtuell errichten. Aber die Koordinaten die fürs Leben wichtig sind machen nur einen Bruchteil davon aus.
Man könnte übrigens, wenn wir hier grob was klar haben auch in einen Evolutionären Prozess eintreten und mal was Prototypenhaftes auf die Beine stellen.
Und mal sehen wie sich das macht.
Das ganze könnte man im ersten Durchlauf auf dem PC machen um die Logik und Funktionalität zu entwickeln. Erst dann verkleinern und auf den µC.
Dabei können zwei Modelle verfolgt werden:
Array und Vector.
Der Zustrom von Sensordaten müsste idealer weise erstmal künstlich sein. Denn nicht jeder hat einen lauffähigen Robi im Schrank oder unter dem Sofa(wo ihn Mutti nicht findet).
So für ein Post genug
Netter Gruß