Hallo, ich arbeite gerade an meiner Bachelorarbeit. Ich habe ein 16x4 Infrarot Array zur Verfügung und arbeite mit einem Mikrocontroller mit 24Mhz. Ich versuche einen Algorithmus zu schreiben, der in dem 16x4 Array Vordergrundobjekte (zb Personen/Gesichter) vom Hintergrund trennt. Bisher sind mir dazu Histogramme und adaptive Schwellenwertbildung eingefallen. Ich bin momentan noch auf der Suche nach weiteren Methoden, da ich am ende einen Vergleich der verschiedenen Verfahren machen möchte. Hat vielleich jemand eine Idee welche Methoden es dafür noch geben könnte? (Wichtig ist das Sie nicht zu komplex sind, d.h. kein Float, nicht zu performancelastig)
Da fällt mir spontan dieses Projekt ein http://www.youtube.com/watch?v=rKhbUjVyKIc also einfach auszählen, wieviele Pixel pro Zeile/Spalte 'hell' sind und welche 'dunkel'.
es gibt viele Ansätze! aber in deinem uC wird sich nicht viel machen lassen. wenn du weißt, was es zu sehen gibt, könnte ein kleiner partikelfilter objekte erkennen. ansonsten kannst du mit optischem fluss erkennen, wo in der szene sich etwas tut. Da ein Gesicht aber auf einem hals hängt, wird's schon schwieriger. könnte es sein, dass dein BA-Thema viel zu allgemein gestellt ist oder verrätst du uns nicht alles? ;)
Im Grunde geht es nur darum Personen aus dem Bild herauszufiltern, da über das Array eine Temperaturmessung stattfindet. Die Personen diese Messung allerdings verfälschen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.