Hallo, möchte für die Robotik eine Kamera, bei welcher man den fokus einstellen kann. Dies könnte entweder eine mit autofokus sein, oder eine, bei der man den Fokus selber steuern/regeln muss. Auf jeden fall muss die Stellung des Fokus ermittelbar sein, d.H. bei einer Autofokus-Kamera sollte man die fokus-Einstellung lesen können. Kameras mit fixem Fokus inklusive mikrocontroller-Board gibt es zu hauf, aber ich habe noch keine gefunden mit oben beschriebenen features. Es gibt zwar Kameras mit Autofokus, das sind jedoch solche, die man einfach so einsetzt, und da stehen leider keine weiteren Details, ob der Fokus ermittelbar ist. Auf jeden Fall gibt es mittlerweile zig Handys die einen Autofokus haben. Wer kann mir eine Kamera empfehlen, eventuell mit einem uC- oder FPGA-Board? Vielen Dank schon zum Voraus
Ich fände es sinnvoller wenn du uns erzählen würdest was du mit der Kamera machen willst. Was darf es kosten, wie groß darf sie sein, was für Objekte willst du Filmen/Fotografieren...? Thomas I. schrieb: > Auf jeden Fall gibt es mittlerweile zig Handys die einen Autofokus > haben. Meins auch... leider. Meine Vorstellung von einer idealen Handykamera = sehr weitwinklig, fester Fokus, 6-9er Blende. für alles andere gibts DSLRs, EVILs und wenns sein muss auch kompakte knipsen.
möchtest du Wissen auf welche Entfernung der Fokus scharf gestellt ist? oder was für einen "Wert" brauchst du? was muss die Kamera sonst alles können bzw. brauchst du das bild in analoger oder digitaler form? in der Firma in der ich arbeite nutzen wir einige von den FCB Modulen von Sony mit analogem Video die Funktionen sind meist über RS232 steuerbar. für mein Roboter Projekt hab ich mir diese Kamera zugelegt: http://www.sparkfun.com/products/10061 Vorteil: einfach zu benutzen, Fokus manuell Einstellbar (von Hand), kein IR Filter (Nachtsichttauglich), Bild bereits komprimiert. Nachteil: geringe Auflösung, kein Videostream
Bei den meisten 'normalen' Kameras ist die Fokus-Entfernung in den EXIF-Daten hinterlegt. Einige Kameras lassen sich per USB bedienen. Gruß Jobst
Hallo, sorry, dass ich mich zu unklar ausgedrückt hab, aber es genau darum wie Harald es vermutet hat, geht es darum, herauszufinden auf welche Entfernung etwas scharf gestellt wird. Die Idee dahinter ist, einen Roboter zu bauen, der Objekte im Raum erkennen kann, so wie wir das mit unseren Augen tun: - Fokussieren - mit hilfe des Fokuses die Entfernung abschätzen. (Geht übrigens auch nur mit einem Auge, wenn Ihr das mit euren Augen mal ausprobiert, indem ihr das andere zu hält.) Die Idee ist, die, mit möglichst wenig aufwand Objekte mithilfe der Fokustiefe zu erkennen und die Entfernung abzuschätzen. Wenn es also Kameras gibt, die schon automatisch fokusieren und man den Fokus-Wert abrufen kann, dann ist das schon sehr viel wert. Das entsprechende objekt im Bild der Kamera müsste dann noch mit einer Kontrastanalyse bewertet werden, so dass man dann ein Objekt konstruieren könnte. Die Kamera sollte aber nicht zu weitwinklig sein, da mein Roboter sich um die eigene Achse drehen soll und sich so ein Bild von der Umgebung machen kann. Objekte, die weiter entfernt sind, sind sicherlich leichter zu erkennen, wenn das Bild nicht unnötig viele andere Dinge enthält. Ich bin absoluter neuling in der Robotik und vielleicht stelle ich mir das alles zu einfach vor, aber ich glaube der Ansatz unseres Auges ist nicht von der Hand zu weisen. Nun hab ich von Euch verschiedene Ausdrücke gepostet bekommen, mit denen ich im Moment nichts anzufangen weiss: - Was ist ein FCB-Modul? - Was sind EXIF-Dateien?
Kannst Du vergessen. Die Fokustiefe ist erheblich zu ungenau. Probier lieber einen Ansatz mit zwei Kameras und Ermittlung der Parallaxe. Die Objekterkennung musst Du eh auf nem fpga machen. Mikrocontroller? Muhahaha.
FCB Module von Sony: http://www.sony.de/biz/product/blockcams Ich hab da auf ner Messe mal ne schacht Inspektionskamera gesehen mit der wurde auch der ungefähre Abstand eines Objektes anhand der schärfe über den Fokus ermittelt, musste man zuerst Kalibrieren auf nen bestimmten Wert, aber das war auch alles andere als genau und eher zum groben Abschätzen gedacht +/- 0,5m eventuell könntest du den Fokus fix auf z.B. 1m Einstellen und dann prüfen ob das Bild scharf ist sonst würde ich die Distanz eines Objektes mit Ultraschall oder Infrarot ermitteln.
Thomas I. schrieb: > Geht übrigens auch nur mit einem Auge, wenn Ihr das mit euren Augen mal > ausprobiert, indem ihr das andere zu hält. Geht aber nur, solange man weiß, wie man mit zwei Augen sieht. Es sind mehr Erfahrungswerte, als 'Mess'-werte. Den Mond empfindest Du sicherlich als Scheibe, wenn Du ihn ansiehst. Die Augen sind einfach zu dicht beieinander, als das sie bei der Entfernung verschiedene Bilder erhalten. Ich habe mal ein Bild vom Mond in Süd Afrika aufgenommen und eins hier. Beide Bilder habe ich so montiert, daß mit jedem Auge eins der Bilder wahrgenommen wird. Und dann wird aus der Scheibe auf einmal eine Kugel, die einfach nur fleckige Oberfläche bekommt eine rauhe Struktur und man kann Berge und Täler erkennen! Thomas I. schrieb: > Die Kamera sollte aber nicht zu weitwinklig sein Ich könnte jetzt einen Vortrag über Objektive halten, würde hier aber teils zu weit vom Thema abkommen. Die Brennweite kann dir im prinzip egal sein, denn Du willst ja nur die Entfernung zum Objekt in Bildmitte. Ich würde in dem Fall allerdings ein Makrofähiges Normalobjektiv mit großer Offenblende verwenden. Thomas I. schrieb: > Was sind EXIF-Dateien? Nicht Dateien. Daten! Befinden sich eigentlich in jedem Bild, welches von einer Digitalkamera aufgenommen wurde. Darin stehen Daten wie Kameramodell und -hersteller, Datum und Uhrzeit der Aufnahme, Brennweite, ISO-Empfindlichkeit, Blendenöffnung, Verschlusszeit, Weißabgleich, ob mit oder ohne Blitz, welcher Modus benutzt wurde (Automatisch bis Manuell), welches Objektiv, größe des Sensors (mechanisch als auch Auflösung), Seriennummern von Kamera und Objektiv, wenn ein GPS-Empfänger vorhanden ist auch die Geokoordinaten, und, und, und ... Und eben auch die Entfernung zum Objekt. Kabelmatz schrieb: > Kannst Du vergessen. Die Fokustiefe ist erheblich zu ungenau. Bei Spiegelreflekkameras (die haben Kreuzfeldsensoren) und guten Objektiven ist das möglich. Was hältst Du davon, einen Strich von oben nach unten mit einem Laser zu ziehen und dann ein paar cm von der Seite ein Bild davon zu machen? Je dichter ein Objekt steht, desto weiter wandert die Linie darauf Richtung Laserquelle (von der Kamera aus gesehen). Gruß Jobst
Vielen Dank für Eure Inputs, ich bin ein bisschen überrascht, dass das mit dem Fokus so ungenau sein soll, aber wenn es andere schon probiert haben, wird es wohl so sein. Das mit dem Laser währe vielleicht ein Ansatz, der nicht so viel Rechenpower brauchen würde. Parallaxfehler zu erkennen ist ja sicherlich wesentlich aufwendiger. >Die Objekterkennung musst Du eh auf nem fpga machen. Mikrocontroller? Muhahaha. Sorry, dachte eigentlich eher an einen DSP, die sind ja soviel ich weiss dafür ausgerichtet (Fetch, Addition, Multiplikation, Abspeichern mit einer Instruktion) oder hast du da andere Erfahrungen? >Geht aber nur, solange man weiß, wie man mit zwei Augen sieht. Es sind mehr >Erfahrungswerte, als 'Mess'-werte. Halte mal einen Bleistift vor die Augen und schau einmal auf den Bleistift (Hintergrund unscharf) und dann auf den Hintergrund (Bleistift unscharf). Meiner Meinung nach hat das nichts mit dreidimensionalem Sehen zu tun, Du nutzt einfach die Einstellung der Schärfe um daraus die Distanz abzuschätzen. Auf jeden Fall werde ich heute wieder mal eine Weile rum-Googeln, mit all den neuen Inputs...
Thomas I. schrieb: > - mit hilfe des Fokuses die Entfernung abschätzen. > (Geht übrigens auch nur mit einem Auge, wenn Ihr das mit euren Augen mal > ausprobiert, indem ihr das andere zu hält.) > ich glaube der Ansatz unseres Auges ist > nicht von der Hand zu weisen. M.W. benutzt der Mensch die Fokussierung aber nicht zur Entfernungs- schätzung, sondern benutzt da eine kompliziertere Bildauswertung. Das führt dann auch zu typischen Fehlern wie: "Die Berge sind ja heute so nah!", wenn es nur wenig Dunst gibt. Gruss Harald
Du unterliegst mit den Bergen einem Irrtum, relativ einer optischen Täuschung. Siehe da: http://wetter.tagesschau.de/wetterthema/index.php?id=961 Das ist nicht das Auge oder die Bildauswertung sondern, du siehst es wegen dem Linseneffekt so. Gruss, Thomas
Thomas I. schrieb: > Halte mal einen Bleistift vor die Augen und schau einmal auf den > Bleistift (Hintergrund unscharf) und dann auf den Hintergrund (Bleistift > unscharf). Meiner Meinung nach hat das nichts mit dreidimensionalem > Sehen zu tun, Du nutzt einfach die Einstellung der Schärfe um daraus die > Distanz abzuschätzen Nein. Du kannst nur sagen: 'Der Bleistift ist vor dem Hintergrund'. Aber Du kannst nicht sagen: 'Der Bleistift ist 75cm von mir entfernt'. Das kannst Du evtl. nur anhand Deiner Erfahrung sagen, weil Du weißt wie groß der Bleistift ist. Wenn ich einen Bleistift anderer Größe nehme, wird der Hintergrund immer noch unscharf sein. Aber Du wirst Dich bei der Entfernung böse verschätzen. Sollte der Hintergrund der Himmel oder Meer sein, wird das noch schlimmer. Jemand soll Dir mal einen Ast (etwas anderes mit uneindeutiger Größe ist mir gerade nicht eingefallen) vor das Auge halten. 50-100cm von Dir entfernt. Und Du mußt nun, die ganze Zeit mit nur einem Auge guckend, den Stock greifen. Aber er soll nicht dort anfassen, wo Du greifen sollst. Aber eigentlich ist diese Diskussion überflüssig, den Du willst ja kein Auge einbauen. Ein guter Autofokus liefert Dir diese Information, ist allerdings auch nicht preiswert. Mit 1k€ bist Du aber bestimmt dabei. Gruß Jobst
Thomas I. schrieb: > Du unterliegst mit den Bergen einem Irrtum, relativ einer optischen > Täuschung. Siehe da: > http://wetter.tagesschau.de/wetterthema/index.php?id=961 > Das ist nicht das Auge oder die Bildauswertung sondern, du siehst es > wegen dem Linseneffekt so. Der Link ist zwar interessant, aber darum ging es mir nicht. Mit "Bildauswertung" meinte ich das, was unser Gehirn mit den von den Augen erhaltenen Bildern macht. Das ist oft deutlich komplizierter, als das, was Computer können. Gibt es eigentlich Computer, die mit zwei "Armen" einen zugeworfenen Ball fangen können? Für Menschen eine der leichtesten Übungen. Gruss Harald PS: Inzwischen haben ja auch andere geschrieben, das die Fokus- auswertung einfach zu ungenau ist. Im Nahbereich bis ca. 10m benutzt man als Mensch eindeutig den Stereoeffekt zum Schätzen der Entfernung. Im Fernbereich werden automatisch andere Algo- rithmen benutzt (wie die von mir genannte Unschärfe), ohne das man sich dessen bewusst ist.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.