PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : USB Cam am microcontroller?



.Johannes.
15.02.2005, 15:14
Hi!
Ich möchte eine USB Kamera (webcam) an einem Microrontroller
betreiben. hat jemand erfahrung mit so was?

Albanac
15.02.2005, 15:27
Eine USB Webcam ist sehr schwer abzugreifen da du einen sog. USB Host programmieren müsstest.

Für genauere Infos benutz mal die Suche

Kjion
15.02.2005, 16:17
Es gibt zwar Mikrocontroller die einen USB Host implementiert haben, allerdings sind die nicht so weit verbreitet unter Bastlern so das du wenig Infos dazu bekommen wirst, außerdem müsstest du zudem noch das Protokoll deiner Webcam rausbekommen, ich weiß nicht ob das irgendwie genormt ist. Und Hersteller halten sich das meist bedeckt was sowas angeht...

Ich würde es eher lassen ;-)

MfG Kjion

15.02.2005, 21:25
Wie wäre es, wenn ich das Signal einer Kamera mit ganz normalem
Videosignal nehme. Dazu bräuchte ich einen sehr schnellen A/D-Wandler.
Weis jemand, wo's die gibt? Hab auch schon mal was von
Video-Frame-Buffern gehört, die extra für so was konstruiert sind... ???

JanB
15.02.2005, 22:02
Hallo,
einen sehr schnellen A/D-Wandler.
Das wäre dann ein Flash-Wandler. Teuer und aufwendig.
Wenn die Auflösung nicht so hoch sein soll kannst du dir mit
einer Widerstandkette und ein einigen schnellen Komparatoren
behelfen. Bis zu 10 Stufen kein Problem.

Wenn es sich um ein Standbild handelt, kann eine Sample & Hold
Schaltung helfen, die das Bild vesetzt zu immer späteren Zeitpunkten abtastet.
Die Spannung des S&H kannst du dann mit einem normalen AD-Wandler erfassen.
Das Bild muss aber über mehrere Videoframes "stillhalten" bis es komplett erfasst ist.
Deshalb Standbild.

Gruß Jan

15.02.2005, 22:02
So etwas hab ich mir auch schon mal überlegt, eine USB-Kamera zu benutzen, weil die bei Ebay seehr günstig sind ( ~12 €)
Aber da das ganze USB-Protokoll für benötigt würde, dacht ich mir ich brech' die USB-Cam auf und benutze nur den Sensoren mit hoffentlich digitalem Ausgang.

mfg Clemens

God
15.02.2005, 22:04
Och meno, mein Beitrag \:D/

mfg

JanB
15.02.2005, 22:05
Hallo,
dacht ich mir ich brech' die USB-Cam auf und benutze nur den SensorenDas hab ich mir auch schon gedacht.
Aber ich fürchte, bei den heutigen Preisen ist Sensor uns
USB-Logik bestimmt alles integriert.

Bitte sag mir, was dabei rauskommt.
Wenn der Sensor einzeln zugänglich ist, kauf ich mir auch eine,
und zerlege die noch an der Kasse,
während die den Garantiebeleg ausfüllen. :-)

Gruß Jan

15.02.2005, 22:12
Das würde mich auch interessieren!

God
15.02.2005, 22:17
Bitte sag mir, was dabei rauskommt.
Ich hatte mir das mal so überlegt, aber wusst ich halt nicht genau ob das nicht wie gesagt mit integriert ist.
Waer aber mal interessant son ding aufzumachen, hab aber leider keine.

mfg Clemens

m4444x
16.02.2005, 10:33
mein vorschlag:

cypress cy7c67300 smd usb-host von segor für 15 euros
compiler von cypress.com für 300 MB

dazu noch:
etwas sram
ein oder zwei usb cameras
ein schnelles interface (ethernet controller oder eventuell wlan)

ich hab leider kein dsl, um die compiler cd runterzuladen und auch keine möglichkeit eine passende platine zu ätzen.

würde sich aber eventuell lohnen. der cypress ist ein 48 mhz risc mit 2/4 usb ports, spi, rs232. also recht leistungsfähig. das sdk enthält bereits eine usb low level api mit bulk transfers und was noch dazu gehört. für viele usb cameras gibts linux source.

ideal wär dann noch ein wlan stick.

also:

wer lädt die compiler cd runter?
wer hilft beim platinen layout?
wer hat ne bessere idee?

JanB
16.02.2005, 10:48
wer lädt die compiler cd runter?
wer hilft beim platinen layout?
wer hat ne bessere idee?
wer hat noch Zeit übrig für so ein interessantes Projekt ?

Gruß Jan

Wolferl
16.02.2005, 11:03
Wie wäre es für den Anfang mit einem universellen USB<->µController Interface.
An so etwas hätten nehm ich mal an sehr viele Interesse. Nicht nur für Kameras, sondern auch für WLAN-, Speicher-Sticks, Maus, ...

Wolfgang

JanB
16.02.2005, 11:09
Hallo,

An so etwas hätten nehm ich mal an sehr viele Interesse.
Ja unbedingt, hochinteressant.
Nicht nur als Entwicklungsaufgabe,
aber auch zur Anwendung,
wenn man den ganzen Kram den es mit USB gibt,
am Mikrocontroller anschliessen könnte....Super

Gruß JAn

Manf
16.02.2005, 11:53
Aber ich fürchte, bei den heutigen Preisen ist Sensor und
USB-Logik bestimmt alles integriert.


Wie wäre es für den Anfang mit einem universellen USB<->µController Interface.
An so etwas hätten nehm ich mal an sehr viele Interesse. Nicht nur für Kameras, sondern auch für WLAN-, Speicher-Sticks, Maus, ...
Wolfgang

Gute Interfaces suche ich auch immer. Hoffentlich wird das USB Interface im Controller nicht zu kompliziert.
Manfred

Wolferl
16.02.2005, 14:06
Ich kenne mich mit USB nicht sonderlich gut aus, aber mich ärgerts eben wenn ich für eine WLAN karte €150 zahlen soll, wenn es USB-Sticks teilweise schon ab 20 E gibt.
Ausserdem Notebook ohne RS232...

Anders gefragt, weiss jemand wie es Leistungsmässig mit einem FTDI aussieht? FTDI2µC-Universalinterface? Die wären leicht zu beschaffen und der Pitch lässt sich noch bequem löten.

Wolfgang

JanB
16.02.2005, 14:36
Hallo Wolfgang,

FTDI ??
Was ist das ?

Gruß Jan

Wolferl
16.02.2005, 14:51
http://www.ftdichip.com/Products/FT2232C.htm

gibts bei Reichelt für ca. 10€

Wolfgang

Kjion
16.02.2005, 15:33
Was heißt "Leistungsmäßig" ??
Funktionieren tun die Dinger sehr gut, ich hab hier gerade einen USB<>seriell Wandler mit einem virtuellen ComPort unter Windows am laufen.

Ein sehr hohen Datendurchsatz wirst du mit dieser Methode nicht bekommen, allerdings gibt es auch noch andere Modi.

Allerdings sind das USB Slave Bausteine, es ging vorher ja irgendwie um USB Hosts...

MfG Kjion

JanB
16.02.2005, 15:39
Hallo Wolferl,
Danke für die Info.
Wenn ich das richtig sehe, ist dieser Chip (FTDI) für unser Vorhaben nicht geeignet.
Er sitzt quasi auf der "falschen Seite" des USB -Bus und arbeitet "verkehrtherum.
Er ist für eine USB -> RS232 Umsetzung o.ä. gedacht.
Wir bräuchten das Gegenteil dieses Chips.
Das wäre derjenige, der auf dem Motherboard des PC sitzt.
Und den müssten wir per Microcontroller ansteuern.
Aber dann erben wir auch das ganze Protokollgedöns.

Oder sehe ich das falsch ?

Trotzdem, die Idee sämtliche USB-Geräte mit dem uC verwenden zu können,
ist einfach zu interessant.
Lasst uns das weiter verfolgen...
Vielleicht kriegen wir was hin...

Gruß Jan

Wolferl
16.02.2005, 16:08
War nur ein Vorschlag, wie gesagt, ich hab nicht viel Ahnung von USB.

16.02.2005, 17:56
Das USB ist ja nicht das größte Problem, sondern vielmehr
das Datenprotokoll der Kamera.

Wolferl
17.02.2005, 14:37
Ich hab mal ein bischen gegoogelt und z. B. das hier gefunden: http://webcam.sourceforge.net/

Ich bin kein studierter Mausschubser, aber ich denke anhand von den source codes der treiber sollte sich doch das Datenprotokoll ableiten lassen, oder stell ich mir das zu einfach vor?

Wolfgang

Wolferl
17.02.2005, 14:44
Hier noch was bzgl. WLAN und USB:
http://orinoco-usb.alioth.debian.org/#protocol
http://orinoco-usb.alioth.debian.org/doc/NOTES.txt

386EX2
07.03.2005, 19:56
Hallo
Es gibt eine Windows SDK für die Logitech Quickcam. Leider funktioniert sie nicht 100%, ein paar Funktionen gehen einfach nicht.
Ich habe damit ein paar Experimente zu Stereosehen gemacht, wobei die Kamera zwischen den zwei Aufnahmen seitlich verschoben wurde.
Mit Hilfe eines Diaprojektors habe ich strukturiertes Licht auf den Sichtbereich der Kamera projeziert. Man kann die beiden Bilder dann korrelieren. Diese Korrelation ist aber ziemlich aufwendig, so daß selbst das einfachste Verfahren bei 640x480 Pixeln 1-3 s auf einem 1.7GHz Celeron benötigt. Dabei kommt dann aber auch erst mal nur ein Graustufenbild heraus, bei dem jedes Pixel einer Entfernung entspricht.
Deshalb mein Tip: Für Bildverarbeitung immer ein Laptop oder PC verwenden, dann erledigt sich auch die Anschlussfrage über USB.
Man könnte ja auch eine Funkkamera nehmen, den Empfänger am PC anschließen und über WLAN den "dummen" Robi steuern.
Gruß
Andreas

Manf
08.03.2005, 09:54
Diese Korrelation ist aber ziemlich aufwendig, so daß selbst das einfachste Verfahren bei 640x480 Pixeln 1-3 s auf einem 1.7GHz Celeron benötigt.
Prima Leistung, wie sieht es mit einem 64x48 Bild aus, das geht dann in 16ms, oder ein 16x12 Bild in 1ms?

Für ein erstes Abstandsbild würde ich gerne eine geringere Auflösung in Kauf nehmen.

Dann käme der Controller wieder in Spiel, um die Zeit bis das Bild gebraucht wird sinnvoll zu nutzen. O:)
Manfred

386EX2
08.03.2005, 21:21
Hallo Manfred
Das Problemist, daß bei diesem Verfahren dann auch die Auflösung der Entfernungsmessung entsprechend geringer wird.
Ich habe mit Pixelverschiebungen von bis zu 64 gearbeitet. Außerdem kann man noch ein bischen Interpolieren, so daß man dann auf vielleicht 100-250 diskrete Abstandswerte kommt. Viel genauer geht es dann aber mit diesem Verfahren nicht mehr. Außerdem gibt es Ränder links und rechts, die nicht ausgewertet werden können.
OK. Es gibt aber noch andere Verfahren: Z.B. einen Strichlaser auf den Sichtbereich der Kamera projezieren und die Verschiebung des Strichs auswerten. Das geht wesentlich schneller. Man erhält dann aber auch nur ein "Radarbild" der Begrenzungen im Sichtbereich, statt ein 3-D-Bild.
Für viele Anwendungen ist das aber völlig ausreichend.
Trotzdem: Wer schnell Erfolg haben will, sollte einen PC nutzen. Was noch dazu kommt: Logitech-Kameras haben eine JPEG/MPEG-Schnittstelle, erst im PC werden die Bilder wieder zu Bitmaps. Auch das kostet Rechenzeit.
Man muß das ganze ja graphisch darstellen können.
Deshalb: Grundlagenforschung am PC, wenn man dann die richtigen Algorithmen kombiniert hat, auf den Roboter übertragen.

Gruß
Andreas

der_prince
09.03.2005, 14:58
Hi,
ich beschäftige mich auch gerade damit wie ich die entfernung mit einer CCD Kamera messen kann. Das system "A Real-time Laser Range Finding Vision System (http://www.seattlerobotics.org/encoder/200110/vision.htm)" finde ich sehr gut nur finde ich die Art wie sie es gelöst haben sehr altmodisch.
Mein vorschlag also.
CCD -> SAA71XX -> CPLD -> CPU

CCD Kamera da sie sehr lichtempfindlich sind
SAA71XX Video Decoder habe mich noch nicht wirklich entschieden
CPLD da er sehr schnell Bildpunkte vergleichen könnte
CPU werde ich wohl einen Atmega 128 nehmen da ich ihn gut kenne

Die Kamera gibt ein video signal zum SAA71XX die digitalen Daten werden vom CPLD ausgewertet also wo sich der laser befindet. Die CPU braucht dann nur noch den Abstand berechnen.

patti16
10.03.2005, 19:49
hört sich gut an.


gruß
patrick

starkeeper
27.03.2005, 11:05
Wie wäre es denn mit einem solchen Chip? Hab keine Ahnung wie man sowas nutzt aber den gibt es eben, um USB-Hosts zu basteln.

http://www.semiconductors.philips.com/pip/ISP1161A1.html

27.03.2005, 16:41
Schaut euch mal das hier an:
Optisch-reaktive Hindernisvermeidung
http://www.erkenntnishorizont.de/ki/bildverarb/optreakthv.c.php?screen=800
Also für kleinere Roboter mit "wenig" Rechenleistung ist das doch Ideal, finde ich.
Das auswerten wäre hier denke ich schon mit z.B. ner CMUCam und nem ATmega möglich.
Und EX2 zu deinem Stereosehen. Ich versteh dich grad nicht mit dem Pixelverschiebung von 64? Von der Epipolarlinie?
Und noch ne Frage. Was machst du wenn auf einem Bild z.B. eine schwarze Fläche ist und alle schwarzen Pixel im Bild die gleichen Farbwert haben? Errechnest du dann die Enfernung der ganzen schwarzen Fläche, oder wie erkennst du dann den richtigen Pixel aus lauter gleichfarbigen im anderen Bild wieder?
Gruß Muraad

muraad
27.03.2005, 16:44
^
das ist von mir.
Ist schon schwer sich einzuloggen O:)
Gruß Muraad

Gironymo
09.02.2006, 09:46
Hallo Leute, ich bin neu hier, aber ich muss mal was dazu sagen ;o)

Was ich weiß, ist es mit USB-Geräten nicht so direkt einfacht. Das liegt nicht nur am Protokoll sondern auch an der Geschwindigkeit. Soweit es mir bekannt ist, läuft ein ATMega128 mit maximal 14MHz. USB 1.1 (Full Speed - wird von fast allen USB-Geräten benötigt) hat aber eine Übertragungsrate von 12MBit. Das könnte ein wenig knapp werden ...

Gironymo
09.02.2006, 09:57
Hallo Leute, irgendwie ist mein Post nicht angekommen.
Gut dann schreib ichs nochmal.

Ich denke mal, dass bei USB-Geräten an einem uC noch ein weiteres Problem dazukommen dürfte. Soweit ich weiß, benütigen alle USB-Kameras mind. USB 1.1 (Full Speed), das wäre dann eine Übertragungsrate von 12MBit. Das könnte aber mit einem ATMega mit 14MHz zu einem kleinen Problem werden, wenn die Pakete noch aufbereitet werden müssen.

Allerdings weiß ich, dass man die Handy-Kamera von Sony Ericson (MCA 25) ziemlich einfach anschließen kann. Sie hat einen eigenen Controller und man brauch nur den Speicher der Kamera auszulesen.

Manf
09.02.2006, 13:08
Hallo Leute, irgendwie ist mein Post nicht angekommen.Lass es ruhig ein bisschen wirken, das letzt Post zu dem Thema ist vom 27.3.05. Nach 10 Monaten Ruhe haben sich bei den Beteiligten die Schwerpunkte des Interesses erfahrungsgemäß etwas verschoben.

Der Hinweis auf die Handy-Kamera von Sony Ericson (MCA 25) ist sicher gut.
Manfred

Gironymo
09.02.2006, 13:23
Nein, ich hab nicht gemeint, dass er bei den Leuten nicht angekommen ist, sondern im Board. Ich hab den Post geschrieben, aber er wurde im Forum nicht angezeigt ;)

shahri
18.02.2006, 11:06
hi,

ich würde auch gerne einen roboter per kamera steuern (hab mir schon das RN-Wissen Tutorial zur Bildverarbeitung durchgelesen).
weiß jemand ein buch oder tutorial in dem alles erklärt wird (inkl. anschließen der kamera, etc.).
ich meine, irgendwo müssen das ja auch die leute die das jetzt alles können gelesen haben!?

toemchen
18.02.2006, 13:49
Da schau her, diese Diskussion hatte ich nicht gefunden, als ich meinen Thread "Sick-ähnlicher Laserscanner im Selbstbau" startete.

Ein echtes Ergebnis an dieser Stelle hier hätte mir auch sehr geholfen - scheint es aber nicht zu geben, vielmehr ist die Sache eingeschlafen. Wirklich eingeschlafen? Hallo? Hat keiner mehr Interesse?

Schade.

Was ich noch einwerfen wollte: Mittlerweile gibt es recht günstig einen Digitalisierer für Videosignale, damit lassen sich die wohl empfindlicheren CCD-Kameras nutzen. Eigentlich müsste man dieses kompakte Dingelchen umprogrammieren und die Bildverarbeitung gleich dort laufen lassen. Und nur das Ergebnis über, ähem, USB an den Host übertragen.

Andere Frage: Hat es jetzt schon jemand geschafft, ein Videosignal auf Microcontrollerbasis zu digitalisieren und zu verarbeiten? Das wäre ja mein Ziel. Der dazu nötige Flash-Wandler wurde weiter oben als sehr aufwendig und teuer genannt - finde ich aber nicht: Gibts z.B. bei Reichelt als DIL-Bauteil für glaube ich 9 Euro. Siehe auch Thread "Flash-Wandler".

Gruß
Tom

Rubi
21.02.2006, 14:51
Hallo

Wie wäre es mit einer Labtech Webcam Pro?
Die verwendet einen Agilent HDCS-2020 Sensor , HDCP-2010
Bildprozessor und einen USB Slave.

Den USB Slave entfernt man und schließt den Mikrokontroller direkt an den Bildprozessor an.

Was haltet ihr davon?
Ich möchte es einmal versuchen.

LG
Michael

NaYthan
26.07.2006, 04:02
Hat schonmal jemand ausser mir darüber nachgedacht die Sensoren aus Optischen Mäusen als Kameras zu verwenden?
Prinzipiell sind diese Sensoren nämlich kleine digital Kameras mit einer sehr geringen Auflösung (sowas um die 128x128).
Die Bilder dieser Kameras können per Software Ausgelesen werden (ich habe einen Artikel von jemandem gelsen, der mit Hilfe von einem bisschen Software seine optische Maus in einen kleinen Handscanner verwandelt hat), ausserdem habe diese Sensoren ja noch den Vorteil, dass sie Daten über die Bewegungsrichtung und Geschwindigkeit selbst errechnen und über eine serielle schnittstelle zur verfügung stellen.
Was das ganze natülich doppelt interessant für Roboter Projekte macht.
Hinzu kommt noch der verdammt niedrige Preis für eine optische Maus heutzutage.
Die größte Herausforderung wird nur sein eine eigene Optik zu entwerfen (die standard Optik ist ja dafür gedacht scharfe Bilder vom nahen Untergrund zu machen, nicht in die Ferne zu gucken), obwohl es da vielleicht auch ein standard Objektiv aus einer S/W Kamera macht.

Was microcontroller und USB angeht... ich denke nicht, dass es möglich ist einem Micro einen generellen USB Host stack zu verpassen. Ignorieren wir sämtliche Geschwindigkeitsprobleme, dann bleibt noch das Hauptproblem, der enorm beschränkte Programmplatz in einem µC...
Ich denke man wird kaum mehr schaffen, als einem µC den speziellen Code für ein spezielles USB Gerät einzupflanzen. Gut, man könnte jetzt einfach eine Programmierbibliothek schaffen, welche sämtliche Protokolle beinhaltet, von denen dann aber nur die für die Anwendung benötigten in das eigentliche Programm des µCs einfließen.
Aber WLAN könnt ihr euch komplett abschminken, Freunde.
(Es sei denn ihr verpasst einem µC eine Ethernet Karte und schliesst das Teil annen WLAN Router an, aber das hat dann nix mehr mit USB zu tun).

Bei WLAN ist nicht allein der enorme Speicherbedarf (Protokolle, treiber) und der enorme Rechenaufwand (Verschlüsselungstechniken wie WEP und WPA) entscheidend, sondern viel mehr ein generelles Problem, das auch dazu geführt hat, dass die Unterstützung von WLAN unter Linux sich extrem schleppend entwickelt hat.
Jeder hersteller hat da seine eigene Kombination von Chipsätzen. Das heisst, man braucht für viele WLAN Hardware unterschiedliche Treiber, damit das WLAN Teil überhaupt was von sich gibt.
Das Problem dabei ist, dass den WLAN Herstellern gesetzlich verboten ist die Spezifikationen dieser Kommunikation zwischen WLAN Karte und Host freizugeben, mit der Begründung, dass ein findiger Programmierer ansonsten eine eigene Software schreiben könnte, um die Ausgangsleistung des WLAN adapters über das gesetzlich erlaubte Maximum zu bringen.
WLAN am normalen µC, vergesst es... da könnt ihr besser gleich nen ARM Prozessor nehmen (am besten noch mit USB Host eingebaut), dadrauf packt ihr dann als OS nen Linux und portiert/schreibt dafür Software.

Rubi
26.07.2006, 08:05
Hat schonmal jemand ausser mir darüber nachgedacht die Sensoren aus Optischen Mäusen als Kameras zu verwenden?
Prinzipiell sind diese Sensoren nämlich kleine digital Kameras mit einer sehr geringen Auflösung (sowas um die 128x128).


Leider sind das nur um die 19*19 Pixel.
Überleg Dir mal wie viel aussagekraft so ein Bild hat.
Als Liniensensor oder für Geschwindikeitsmessung sicher eine
feine Sache. Als Camera leider ungeeignet.

LG
Michael

NaYthan
26.07.2006, 13:19
Leider sind das nur um die 19*19 Pixel.
Überleg Dir mal wie viel aussagekraft so ein Bild hat.
Als Liniensensor oder für Geschwindikeitsmessung sicher eine
feine Sache. Als Camera leider ungeeignet.

LG
Michael

Bei der geringen Auflösung könnte man aber eventuell noch ein Neuronales Netzwerk für die Bildbearbeitung aufbauen.

Rage_Empire
26.07.2006, 16:14
Ja natürlich, und vergesst den Fluppskompensator nicht ;-)

NaYthan
26.07.2006, 16:44
Das Dingen heisst Fluxkompensator...
Enthält das Wort Flux, was ein Term für die magnetische Flussdichte in einem Medium ist.
Ich kenne zwar Fluxkompressoren, aber einen Fluxkompensator habe ich noch nicht gesehen...
Allerdings könnte auf einem Roberter event bei dem die Robeter gegeneinander antreten müssen ein Fluxkompressor nützlich sein, dass ist nämlich eine EMP Bombe!

Rage_Empire
28.07.2006, 09:49
Würde mit diesem Controller sowas evtl. gehen?

http://www.atmel.com/dyn/resources/prod_documents/at89c531_3_04.pdf

jörn
28.07.2006, 10:43
Nein, wahrscheinlich nicht, da man wohl einen USB-Host-Controller benötigt. Den findet man beispielsweise im AT91RM9200 von Atmel. Da ist der Schaltungsaufwand dann aber gleich so groß, dass man wirklich überlegen muß, ob man ihn auf sich nehmen möchte um dafür ein schäbiges Webcambild zu erhalten.
Ich denke, die Möglichkeiten einfacher Kameras wie der Gameboy-Kamera werden deutlich unterschätzt zumal hier auch der Betrieb mit einem Mikrocontroller einfach gelingt.

NaYthan
28.07.2006, 12:57
Naja, es kommt halt auch immer darauf an, was mit der Kamera angestellt werden soll.
Soll sie nur Bilder zurück zu einer Art Fernsteuerung übertragen, braucht man theoretisch keinen Anschluss an irgendeinen Kontroller.
Will man das Signal über WLAN übertragen, dann besorgt man sich am besten einen Linksys Router, der eine USB Schnittschtelle hat (die is eigentlich für einen Drucker gedacht), flasht das Teil mit einem dafür von der OpenSource Community entwickelten Linux und kann dann unter anderem auch eine Webcam dran anschliessen.
Will man aber eine Bildverarbeitung on Board machen, so braucht man schon Rechenleistung. Und dann fährt man entweder mit einem ARM µC wie dem AT91RM9200 (obwohl ich noch nicht weiss, wo man die herbekommt, wäre ne interessante Info, bei farnellinone haben die nur die ARM7 µCs von Atmel, die haben aber kein USB Host und eine Entwicklungsplattform für die ARM7er kostet nur 150 Euro, die Chips liegen so zwischen 10 und 20 Euro pro stück), oder man baut gleich einen PC mit ein.
Eine Alternative zum mini-itx Board wäre da z.B. auch ein Thin Client, der eine Festplatte und USB besitzt. Und Thin Clients sind ja eigentlich kleine PCs mit geringer Leistung (nun, relativ, nen normalen µC hängen die ja locker ab). Brauchbare Thin Clients findet man bei eBay schon für 50-80 Euro...

AVRBot
28.07.2006, 22:24
Allerdings weiß ich, dass man die Handy-Kamera von Sony Ericson (MCA 25) ziemlich einfach anschließen kann. Sie hat einen eigenen Controller und man brauch nur den Speicher der Kamera auszulesen.

Diese Idee finde ich auch gut. Auf der Seite von Ulrich Radig ist ein Projekt mit einem Atmega32 beschrieben, der die MCA-25 Cam ansteuert. Leider werden diese Dinger nicht mehr produziert, aber bei Ebay gibt es die für wenige Euro.

AVRBot
29.07.2006, 12:08
Hallo,
mit der Seite von Ulrich Radig meine ich diesen Link:

http://ulrichradig.de/

Dort gibt es auch viele andere interessante Projekte rund um Mikrocontroller und Elektronik.

Mfg David