Forum: HF, Funk und Felder Die Umgebung durch hochfrequente Funkwellen sehen?


von Frank001 (Gast)


Lesenswert?

Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums 
dazu geeignet technisch ein Bild zu erzeugen?
Kann man beispielsweise durch Mikrowellen kein visuelles Bild der 
Umgebung erzeugen?
Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus 
Millionen von miniaturisieren Mikrowellen Empfängern besteht?

von Bauteiltöter (Gast)


Lesenswert?

Hi,

klar kann man die Umgebung auch mit Mikrowellen (GHz-Bereich) scannen 
und daraus ein Bild machen, sihehe Synthetic aperture radar: 
https://de.wikipedia.org/wiki/Synthetic_Aperture_Radar

Um so geringer die Wellenlänge, desto schlechter die Auflösung.

von andi6510 (Gast)


Lesenswert?

Wir hatten mal ein Projekt in der Firma, das dies mit Teraherzwellen 
gemacht hat. Also Wellenlaengen irgendwo zw. Mikrowellen und Infrarot. 
Damit ging wirklich einiges und die Ergebnisse waren irgendwo zwischen 
beeindruckend und beaengstigend. So konnte man ueber zig Meter 
Entfernung den Puls und die Atmung von Lebewesen ueberwachen.

von M.A. S. (mse2)


Lesenswert?

Frank001 schrieb:
> Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums
> dazu geeignet technisch ein Bild zu erzeugen?
Das Grundproblem ist, dass je größer die Wellenlänge der verwendeten 
Strahlung, desto geringer die Auflösung und um so größer die Empfänger 
(also die einzelnen Pixel).

Aber machen kann man es, wie u.a. die Radioastronomie beweist.

: Bearbeitet durch User
von Einer (Gast)


Lesenswert?

andi6510 schrieb:
> So konnte man ueber zig Meter
> Entfernung den Puls und die Atmung von Lebewesen ueberwachen.

Das konnte ich schon 1980 bei handelsüblichen Gunnoszillatoren 
feststellen.

von Lotta  . (mercedes)


Lesenswert?

Das Ganze hat der große Stanislaw Lem schon in den 50'iger
Jahren vorausgesehen, in seinem Roman "Planet des Todes". :-O

Was wird die Zukunft bringen?
Glück füt Alle, oder Jeder gegen Jeden?

mfg

von Sven D. (sven_la)


Lesenswert?

Bauteiltöter schrieb:
> Um so geringer die Wellenlänge, desto schlechter die Auflösung.

Es ist andersrum.

von Timo (Gast)


Lesenswert?

Frank001 schrieb:
> Kann man beispielsweise durch Mikrowellen kein visuelles Bild der
> Umgebung erzeugen?

Doch, Radioteleskope können das z.B. machen.
https://www.e-education.psu.edu/astro801/content/l8_p6.html

von Mario M. (thelonging)


Lesenswert?

andi6510 schrieb:
> Wir hatten mal ein Projekt in der Firma, das dies mit Teraherzwellen
> gemacht hat.

Stichwort: "Nacktscanner"
https://de.m.wikipedia.org/wiki/K%C3%B6rperscanner

von Patrick L. (Firma: S-C-I DATA GbR) (pali64)


Lesenswert?

Eine Fledermaus, packt das sogar mit Ultraschall, die können sogar 
"Mücken" Räumlich lokalisieren...

von Cyblord -. (cyblord)


Lesenswert?

Frank001 schrieb:
> Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums
> dazu geeignet technisch ein Bild zu erzeugen?

Allein schon diese Einschätzung ist maximal falsch.
Unsere Augen können nur einen winzigen Teil des Spektrums erfassen und 
dein Gehirn macht daraus ein Bild.

> Kann man beispielsweise durch Mikrowellen kein visuelles Bild der
> Umgebung erzeugen?
> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
> Millionen von miniaturisieren Mikrowellen Empfängern besteht?

Astronomen machen sowas seit Erfindung der Radioastronomie.

von Patrick L. (Firma: S-C-I DATA GbR) (pali64)


Lesenswert?

Oder schon mal ein 3D-Ultraschallbild eines Embryo studiert?

Cyblord -. schrieb:
> Allein schon diese Einschätzung ist maximal falsch.
> Unsere Augen können nur einen winzigen Teil des Spektrums erfassen und
> dein Gehirn macht daraus ein Bild.

Hat das eigentlich ganz Treffend formuliert.

: Bearbeitet durch User
von HF-Werkler (Gast)


Lesenswert?

Hallo,
das Thema ist durchaus komplex. Die Wellenlänge und die Zahl der 
"Antenne" (vgl. Linsenöffnung) bestimmt die räumliche Auflösung der 
Objekte. Mit Wellenlängen im Meterbereich kann man halt kaum ein Objekt 
im cm-Bereich auflösen. Und die "Antenne" braucht auch eine gewisse 
Öffnung im Verhältnis zur Wellenlange, um die Winkelauflösung zu 
erreichen. Hier kann man sich der Formeln aus dem Bereich der Optik 
bedienen.
https://de.wikipedia.org/wiki/Aufl%C3%B6sungsverm%C3%B6gen

Dann ist nicht jedes Objekt/Material bei jeder Wellenlänge gleich 
Reflektiv/Transmissiv/Streuend. Damit hat man eine Frequenzabhängige und 
Materialabhängige Komponente bei den empfangenen Signalen.

Weiterhin sollte man berücksichtigen, dass die Bandbreite, die wir mit 
den Augen erfassen mit dem "Fenster" der Atmosphäre zusammenhängen, in 
dem die Dämpfung der Wellen noch sinnvoll/nützlich ist.

Und zuletzt gilt es noch die Fremdquellen zu beachten (z.B. andere 
Funksysteme, natürliche Strahlungsquellen).

Aber ja, man kann mit elektromagnetischen Wellen bei richtigem Einsatz 
und mit den geeigneten Antennen durchaus einiges an Abbildung erreichen.

Gruss

von HF-Werkler (Gast)


Lesenswert?

Hier noch der Link zum "Atmosphärischen Fenster":
https://de.wikipedia.org/wiki/Atmosph%C3%A4risches_Fenste

Z.B. steigt bei ca. 60GHz bedingt durch den Sauerstoff (O2) die Dämpfung 
der Atmosphäre stark an. Daher ist dieser Bereich eines "hohen" 
ISM-Bänder.

von HF-Werkler (Gast)


Lesenswert?


von MaWin (Gast)


Lesenswert?

Frank001 schrieb:
> Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums
> dazu geeignet technisch ein Bild zu erzeugen

Unsinn.

Je kleiner die Wellenlänge, je schärfer wird das Bild.

Und das menschliche Auge sieht halt nur einen bestimmten 
Frequenzbereich.

Aber Infrarotkameras, Radar, Teraherzwellen, Rontgenstrahlen sind alles 
bekannte bildgebende Verfahren.

Sogar mit Ultraschall kann man Bilder machen, Echolot.

von Christoph db1uq K. (christoph_kessler)


Lesenswert?

>Eine Fledermaus, packt das sogar mit Ultraschall

Da sich Licht und Schall etwa um 1 Million unterscheiden (300m/s / 
300Mm/s), entsprechen z.B. 50kHz Ultraschall der Fledermaus der 
Wellenlänge von 50 GHz Mikrowellen.

von Marek N. (Gast)


Lesenswert?

Frank001 schrieb:
> Kann man beispielsweise durch Mikrowellen kein visuelles Bild der
> Umgebung erzeugen?

Doch! Konnten die Tommies schon vor über 75 Jahren: 
https://de.wikipedia.org/wiki/H2S_(Navigation)

von M.A. S. (mse2)


Lesenswert?

HF-Werkler schrieb:
> Dann ist nicht jedes Objekt/Material bei jeder Wellenlänge gleich
> Reflektiv/Transmissiv/Streuend. Damit hat man eine Frequenzabhängige und
> Materialabhängige Komponente bei den empfangenen Signalen.
Das ist bei für das Auge sichtbarem Licht nicht anders. Manche 
Stoffe/Körper sind durchsichtig.

HF-Werkler schrieb:
> Und zuletzt gilt es noch die Fremdquellen zu beachten (z.B. andere
> Funksysteme, natürliche Strahlungsquellen).
Bei sichtbarem Licht hast Du auch die verschiedensten Quellen, die Deine 
Szene beleuchten.

von Jonas B. (jibi)


Lesenswert?

Nennt sich Kamera...

von MeinName (Gast)


Lesenswert?

Christoph db1uq K. schrieb:
> Da sich Licht und Schall etwa um 1 Million unterscheiden (300m/s /
> 300Mm/s), entsprechen z.B. 50kHz Ultraschall der Fledermaus der
> Wellenlänge von 50 GHz Mikrowellen.

Haha, was eine witzige Aussage!
Kannst du bitte diesen Zusammenhang näher beleuchten.

Frank001 schrieb:
> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
> Millionen von miniaturisieren Mikrowellen Empfängern besteht?

Im Gegensatz zum elektro optischen Bild erhältst du eine 
Entfernungsinformation. Mit einem zwei dimensionalen Array wie bei einer 
Kamera erhältst du beim Radar ein drei dimensionales Abbild.

von Harald W. (wilhelms)


Lesenswert?

Frank001 schrieb:

> Kann man beispielsweise durch Mikrowellen ein visuelles Bild der
> Umgebung erzeugen?

Ja, sowas nennt man Radar.

von Frank001 (Gast)


Lesenswert?

Danke für die interessanten Beiträge.

Harald W. schrieb:
> Ja, sowas nennt man Radar.

Mit "sehen" und "Bild" meine ich ein bildgebendes Verfahren dass 
detaillierte Bilder von Objekten generiert. Also schon etwas mehr als 
nur ein einfaches Echo Signal, das die Information trägt dass in 
Richtung x sich irgendwas befindet.

von Frank001 (Gast)


Lesenswert?

MeinName schrieb:
> Im Gegensatz zum elektro optischen Bild erhältst du eine
> Entfernungsinformation. Mit einem zwei dimensionalen Array wie bei einer
> Kamera erhältst du beim Radar ein drei dimensionales Abbild.

Interessant. Weil man bei einem Radar die Laufzeiten der einzelnen 
Signale misst?
Man könnte sich aber auch ein 2D Array als Sensor vorstellen, das 
lediglich von Mikrowellen angeregt wird und dann elektrische Signale 
erzeugt ähnlich wie bei Fotodioden. So dass man von der unterschiedlich 
starken Aktivität der einzelnen "Pixel" ein Bild erhält.

von Timo (Gast)


Lesenswert?

Frank001 schrieb:
> Mit "sehen" und "Bild" meine ich ein bildgebendes Verfahren dass
> detaillierte Bilder von Objekten generiert. Also schon etwas mehr als
> nur ein einfaches Echo Signal, das die Information trägt dass in
> Richtung x sich irgendwas befindet.

Radar kann das durchaus. z.B. 
https://www.nasa.gov/image-feature/nine-radar-images-of-asteroid-pa8

von Dieter (Gast)


Lesenswert?

Das mache ich laufend im Frequenzbereich zwischen 385-789 THz.

von Bildgeber (Gast)


Lesenswert?

Frank001 schrieb:
> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
> Millionen von miniaturisieren Mikrowellen Empfängern besteht?

In Verbindung mit einer Linse* funktioniert das, so wie beim optischen 
System auch.

*Dielektrische Linsen sind für Millimeterwellenantennen durchaus üblich. 
Funktioniert in einem kleinen Frequenzbereich genau so wie eine 
"optische" Linse, das Funktionsprinzip und die Berechnung sind 
identisch.

von RadaR (Gast)


Lesenswert?

Was hier für ein Unsinn geschrieben wird...

Das Auflösungsvermögen eines Radars wird durch eine Eigenschaft 
bestimmt: Phasen-Diversität. NICHT durch die Wellenlänge.

Die Phasen-Diversität in Entfernungsrichtung erreicht man durch 
Signal-Bandbreite, nicht Wellenlänge.

Je höher die Bandbreite des Sendesignals(=unterschiedliche 
Sendefrequenzen, welche jeweils eine eigene Phasenlage im Echo 
erzeugen), desto besser die Entfernungsauflösung. Für höhere Frequenzen 
(=kürzere Wellenlängen) wird es automatisch einfacher, mit höheren 
absoluten Bandbreiten zu senden und damit die Auflösung zu verbessern.

Ein Radar mit synthetischen Aperturen erzeugt zusätzlich eine 
Phasen-Diversität im Raum. Das heißt, eine Antenne bewegt sich z.B. 
entlang einer Linie und wertet das Empfangssignal aus unterschiedlichen 
räumlichen Positionen aus. Die Modulation der Empfangsphasen entlang der 
Apertur erzeugt das Bild in Bewegungsrichtung (orthogonal zur 
Entfernungsrichtung).

von interWebz (Gast)


Lesenswert?

Frank001 schrieb:
> Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums
> dazu geeignet technisch ein Bild zu erzeugen?
> Kann man beispielsweise durch Mikrowellen kein visuelles Bild der
> Umgebung erzeugen?
> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
> Millionen von miniaturisieren Mikrowellen Empfängern besteht?

Bei der Fragestellung würde ich empfehlen das du dich mit 
elektromagnetischen Wellen etwas näher beschäftigst. Geeignete techn. 
Lösungen zum Detektieren gibt es über einen deutlich breiteres Spektrum 
als den des optisch sichtbaren Licht´s.
Die Erstellung eines visuellen Bildes hat erstmal nix mit dem 
"empfangen" zu tun, sondern eher mit der Aufbereitung/Darstellung der 
Daten.
Siehe Vergleich "Bild von einem schwarzen Loch".

von M.A. S. (mse2)


Lesenswert?

Bildgeber schrieb:
> In Verbindung mit einer Linse* funktioniert das, so wie beim optischen
> System auch.

...oder in Verbindung mit einem Spiegel, was die beobachtenden 
Astronomen sowohl mit sichtbarem Licht als auch mit Radiowellen 
betreiben.

von Josef L. (Gast)


Lesenswert?

Zunächst muss man mal unterscheiden ob man mit bereits vorhandenen 
(natürlichen oder künstlichen) Strahlungsquellen auskommen möchte oder 
die zu detektierende Strahlung selbst mitbringt. Und als Gegenpart den 
Empfänger für die entsprechende Strahlung/Wellenlänge(n).

Zum ersteren gehören Strahlungsquellen wie Sonne, Mond, Sterne, 
Milchstraße, ferne Quasare, aber auch Straßenlampen, Autoscheinwerfer, 
Vulkane, Glühwürmchen, Leuchtfische, PCs, Wandwarzen, Generatoren, 
Handys, TV- und Rundfunksender, Satelliten. Hier hat man alle 
Wellenlängen von weniger Hertz bis härteste kosmische Strahlung, und je 
nach Wellenlänge wird lustig reflektiert und/oder absorbiert, und die 
Frage ist wieviel noch beim Empfänger ankommt. Entfernungen lassen sich 
nicht messen, außer wenn man 2 Empfänger in gewissem Abstand zueinander 
benutzt über Triangulation ("3D-Sehen").

Zur 2. Kategorie gehören Taschenlampe/Handylicht, IR-Leds, Ultraschall- 
und Radarsender, Laser etc.; man kann selbst bestimmen wie hoch die 
Intensität sein muss, um trotz Absorption noch etwas reflektierte 
Strahlung zu bekommen - sie sollte auch möglichst wenig durch die der 
ersten Kategorie gestört sein - und kann zusätzlich über die Laufzeit 
die Entfernung bestimmen.

In allen Fällen ist die Winkelauflösung (vereinfacht formuliert) durchs 
Verhältnis Sensorgröße zu Wellenlänge bestimmt - je größer desto besser, 
was aber auch bedeutet, dass die tatsächliche räumliche Auflösung mit 
der Entfernung abnimmt. Das gilt ähnlich auch für die 
Entfernungsmessung, auch beim Radar, da mit zunehmender Entfernung das 
Signal immer schwächer wird.

Was die ürsprüngliche Fragestellung angeht: In der Astronomie werden 
bildgebende Verfahren für einen weiten Wellenlängenbereich genutzt, und 
zwar je nachdem was grade günstiger ist. Im Radiowellenbereich ist es am 
einfachsten, das infrage kommende Himmelsareal mim Zickzack abzuscannen, 
so wie früher ein Fernsehbild erzeugt wurde. Die meisten Himmelobjekte - 
insbesondere außerhalb des Sonnensystems - laufen einem nicht so schnell 
davon. Im IR-UV-Bereich nimmt man normale Optiken und einen 
2-dimensionalen Sensor (CMOS-Chip o.ä.). Im Röntgenbereich (Satelitten) 
braucht man Spiegel mit streifendem Einfall der Strahlung, zwei 
hintereinander ergeben ein zweidimensionales Bild, und um die Intensität 
zu steigern, also mehr Röntgen"licht" einzufangen, schachtelt man 
mehrere Spiegel mit unterschiedlichen Durchmessern ineinander. Vor einem 
optischen Detektor liegt dann z.B. eine Schicht, die Röntgen- in 
optische Strahlung wandelt.
Siehe https://de.wikipedia.org/wiki/R%C3%B6ntgenteleskop
https://de.wikipedia.org/wiki/ROSAT
https://de.wikipedia.org/wiki/EROSITA

Gammastrahlung kommt wie Röntgenstrahlung nicht bis zur Erdoberfläche, 
ist aber stark genug, beim Auftreffen auf die Atmosphäre 
Sekundärstrahlungsschauer auszulösen, die vom Boden aus detektiert 
werden können. Also um die Ecke gedacht. Siehe 
https://de.wikipedia.org/wiki/High_Energy_Stereoscopic_System
https://www.faz.net/aktuell/wissen/weltraum/magic-gammastrahlenteleskope-der-extreme-himmel-1798018.html

von Wolfgang (Gast)


Lesenswert?

Bauteiltöter schrieb:
> Um so geringer die Wellenlänge, desto schlechter die Auflösung.

Was verstehst du unter "geringer Wellenlänge". Bisher war es immer so, 
dass die Auflösung steigt, wenn die Wellenlänge kleiner wird.

von Wolfgang (Gast)


Lesenswert?

Josef L. schrieb:
> Das gilt ähnlich auch für die
> Entfernungsmessung, auch beim Radar, da mit zunehmender Entfernung das
> Signal immer schwächer wird.

Unsinn, was hat die Stärke des Signals mit der Auflösung bei der 
Laufzeitmessung zu tun. Guck dir z.B. die LIDAR Entfernungsmessungen im 
Apollo-Projekt an. Da kommen relativ wenige Photonen vom Mond zurück und 
die Entfernungswerte liegen auf einer haarscharfen Linie, deren Breite 
durch den Einfallswinkel auf dem Reflektorarray auf dem Mond bestimmt 
wird.

von Harald W. (wilhelms)


Lesenswert?

Frank001 schrieb:

> Harald W. schrieb:
>> Ja, sowas nennt man Radar.
>
> Mit "sehen" und "Bild" meine ich ein bildgebendes Verfahren dass
> detaillierte Bilder von Objekten generiert. Also schon etwas mehr als
> nur ein einfaches Echo Signal, das die Information trägt dass in
> Richtung x sich irgendwas befindet.

Wie bereits gesagt: Je grösser die Wellenlänge, desto schlechter
die Auflösung. Deshalb sind "detaillierte Bilder von Objekten"
ähnlich eines optischen Bildes mit "hochfrequenten Funkwellen"
nicht möglich.

von Bildgeber (Gast)


Lesenswert?

Harald W. schrieb:
> Wie bereits gesagt: Je grösser die Wellenlänge, desto schlechter
> die Auflösung. Deshalb sind "detaillierte Bilder von Objekten"
> ähnlich eines optischen Bildes mit "hochfrequenten Funkwellen"
> nicht möglich.

Mit kleiner Wellenlänge geht schon was:
https://www.fhr.fraunhofer.de/de/das-institut/kernkompetenzen/hochfrequenzsysteme/hochaufloesendes-240-ghz-radar-mit-sige--chip.html

von Harald W. (wilhelms)


Lesenswert?

Bildgeber schrieb:

> In Verbindung mit einer Linse* funktioniert das, so wie beim optischen
> System auch.

Wenn es um Auflösung kleiner als halbe Lichtwellenläge geht,
funktionieren Linsen auch im optischem Bereich nicht mehr.

von Frank001 (Gast)


Lesenswert?

Auf Wikipedia heißt es:
Chemischer Film, und auch CMOS- und CCD-Sensoren sind auch in 
Wellenlängenbereichen sensitiv, in denen das menschliche Auge praktisch 
keine Empfindlichkeit besitzt, was Aufnahmen verfremden kann.
https://de.wikipedia.org/wiki/Tageslichtfilter

Bezieht sich dass nur auf Infrarot oder können solche Sensoren schwach 
auch andere Wellenlängen erfassen?

Vielleicht mal die Filter von so einer Kameralinse entfernen und die 
Linse mit einem Material bedecken das Tageslicht reflektiert. Irgendein 
Kunststoff vielleicht. Welches aber noch für andere Wellenlängen 
durchlässig ist. Frage mich ob da wirklich etwas messbares auf dem 
Sensor ankommt.

von Harald W. (wilhelms)


Lesenswert?

Frank001 schrieb:

> Bezieht sich dass nur auf Infrarot oder können solche Sensoren schwach
> auch andere Wellenlängen erfassen?

Ja, UV. Längerwelliges IR aber nicht. Dafür gibts spezielle,
teure Wärmebildkameras.

von Jemand (Gast)


Lesenswert?

Frank001 schrieb:
> Vielleicht mal die Filter von so einer Kameralinse entfernen und die
> Linse mit einem Material bedecken das Tageslicht reflektiert.

Je nach Kamera ist es sogar eine recht triviale Angelegenheit, den 
Infrarotfilter einfach zu entfernen. Nur: besonders bei Fotokameras ist 
der meist direkt auf dem Sensor; das Risiko möchte man selbst bewerten.

> Frage mich ob da wirklich etwas messbares auf dem
> Sensor ankommt.

Wenn er nichts bringen würde, wäre er nicht da.

von Ralf (Gast)


Lesenswert?


von (prx) A. K. (prx)


Lesenswert?

Frank001 schrieb:
> Vielleicht mal die Filter von so einer Kameralinse entfernen

Das nahe Infrarot einer TV-Fernbedienung wird von Handycams oft noch 
erfasst, weshalb man die Fernbedienung damit auf Funktion testen kann: 
IR-Sender auf die Handycam halten und Knopf drücken.

: Bearbeitet durch User
von J. S. (pbr85)


Lesenswert?

Stichwort Photonisches Radar:

https://www.spiedigitallibrary.org/conference-proceedings-of-spie/11442/114420L/The-photonic-radar--the-situation-today-and-the-prospects/10.1117/12.2565721.full?SSO=1

Da wird mit großen Mitteln daran gearbeitet, weil es sehr viel Potential 
im militärischen Bereich gibt.

von Frank001 (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Das nahe Infrarot einer TV-Fernbedienung wird von Handycams oft noch
> erfasst, weshalb man die Fernbedienung damit auf Funktion testen kann:
> IR-Sender auf die Handycam halten und Knopf drücken.

Cool! Das funktioniert ja wirklich. Und das trotz Infrarotfilter in der 
Handykamera?

von Markus K. (markus-)


Lesenswert?

Frank001 schrieb:
> Und das trotz Infrarotfilter in der Handykamera?

Die Filter sind nicht perfekt und Du schaust damit ja auch direkt in die 
Lichtquelle. Die Filter sind aber im Laufe der Zeit (letzte 10-15 Jahre) 
deutlich besser geworden.

von M.A. S. (mse2)


Lesenswert?

Markus K. schrieb:
> Die Filter sind nicht perfekt und Du schaust damit ja auch direkt in die
> Lichtquelle.
...und die Lichtquelle ist ziemlich hell. Es wird mit recht hohen 
Strömen gepulst, um Reichweite zu erreichen...

von Wolfgang (Gast)


Lesenswert?

Cyblord -. schrieb:
>> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
>> Millionen von miniaturisieren Mikrowellen Empfängern besteht?
>
> Astronomen machen sowas seit Erfindung der Radioastronomie.

Die machen ganz etwas anderes.

Ohne ein abbildendes System liefern einem auch Millionen von Mikrowellen 
Empfängern nur die Summe über die Menge der einfallenden Strahlung.

Hast du schon einmal versucht, nur mit einer Photozelle ein Bild der 
Umwelt zu gewinnen? Funktioniert nicht.

Für niedrig auflösende Bilder in der Radioastronomie 
(Himmelsdurchmusterung) kann man zur Abbildung riesen Parabolantennen 
nehmen und damit den Himmel abrastern. Aber damit bekommt man noch lange 
keine hochauflösenden Bilder. Das funktioniert erst über 
Phasenauswertung.

von Harald W. (wilhelms)


Lesenswert?

Frank001 schrieb:

> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
> Millionen von miniaturisieren Mikrowellen Empfängern besteht?

Rauschen.

von Josef L. (Gast)


Lesenswert?

Wolfgang schrieb:
> Das funktioniert erst über Phasenauswertung.

Natürlich wird das gemacht, z.B. bei https://de.wikipedia.org/wiki/UTR-2 
und einer Rehe von anderen ebenen 2-dimensionalen Antennenarrays. Das 
müsste ebenso bei Mikrowellen funktionieren, natürlich in entsprechend 
verkleinertem Maßstab (und dann verringerter Empfindlichkeit wegen 
geringerer Fläche).

von Bernd (Gast)


Lesenswert?

Wolfgang schrieb:
> Das funktioniert erst über
> Phasenauswertung.
Und was genau nimmst Du als Phasenreferenz?

von Josef L. (Gast)


Lesenswert?

Bernd schrieb:
> Und was genau nimmst Du als Phasenreferenz?

Da reicht es die Phasen der einzelnen Antennen gegeneinander zu 
betrachten, Nullpunkt ist relativ, also z.B. die Phase einer der 
Antennen. Das Ganze funktioniert doch auch bei Sendern mit mehreren 
Antennen, die durch die gegenseitig verschobene Phase an den Antennen 
eine Richtwirkung bekommen.

von Wolfgang (Gast)


Lesenswert?

Bernd schrieb:
> Und was genau nimmst Du als Phasenreferenz?

Die Signale der benachbarten Antenne, z.B. für VLBI
https://de.wikipedia.org/wiki/Very_Long_Baseline_Interferometry

von Frank001 (Gast)


Lesenswert?

Harald W. schrieb:
> Frank001 schrieb:
>
>> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
>> Millionen von miniaturisieren Mikrowellen Empfängern besteht?
>
> Rauschen.

Sehr aufschlussreich :D

von Harald W. (wilhelms)


Lesenswert?

Frank001 schrieb:

>>> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
>>> Millionen von miniaturisieren Mikrowellen Empfängern besteht?
>>
>> Rauschen.
>
> Sehr aufschlussreich :D

Dir ist schon mehrfach erklärt worde, warum das so ist.

von eric (Gast)


Lesenswert?

Frank001 schrieb:
> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
> Millionen von miniaturisieren Mikrowellen Empfängern besteht?

Ein Facettenauge wie bei den Insekten.

von Christoph db1uq K. (christoph_kessler)


Lesenswert?

>Phasen der einzelnen Antennen gegeneinander
Kann man nicht sogar die Daten eines Radioteleskops im Abstand eines 
halben Jahres verrechnen, um als Basisbreite den Durchmesser der Erdbahn 
zu benutzen? Aber wie setzt man dafür eine Bezugsphase fest?

Zu meinem Vergleich zwischen Schall und Licht: 30 GHz hat 10 mm 
Wellenlänge, 50 GHz wären etwa 7mm. Dieselbe gilt für 50 kHz 
Ultraschall, die Fledermaus kann also dicke Nachtfalter "sehen".

von Josef L. (Gast)


Lesenswert?

Christoph db1uq K. schrieb:
> Kann man nicht sogar die Daten eines Radioteleskops im Abstand eines
> halben Jahres verrechnen

Leider nein! Das Licht durchläuft die Strecke Sonne-Erde in 499 
Sekunden, also den Durchmesser der Erdbahn in einer guten Viertelstunde. 
In der Zeit müsste man auf der anderen Seite sein, wenn man in 
Vorwärtsrichtung beobachten wollte, und man müsste gleichzeitig auf der 
anderen Seite sein, wenn man im 90°-Winkel zur Verbindungslinie der 
beiden Beobachtungsorte beobachten wollte. Funktionieren würde es mit 
Erde und einem Satelliten auf der anderen Seite, der einem die 
aufgefangenen Daten sendet. Nur fängt man halt mit Antennen der 3m-Größe 
nicht allzu viel ein. Man hat Satelliten auf solchen Bahnen, siehe 
"STEREO" https://stereo.gsfc.nasa.gov/ aber die sind nicht für 
Radioastronomie geeignet.

Die Suche nach "Radioastronomie Satellit" ist erfolglos, auch die 
Wikipediaartikel zu Radioastronomie und Radioteleskop bringen das Thema 
Satellit nicht auf.

von Christoph db1uq K. (christoph_kessler)


Lesenswert?

Im Wikiartikel zu VLBI ist diese (gleichzeitige) Messung von zwei 
Radioteleskopen mit einem Erddurchmesser Abstand gezeigt.
Für die Erdbahn als Basis bräuchte man eine hochpräzise Radioquelle im 
All, deren Phasenlage man sich so genau ein halbes Jahr "merken" kann, 
das noch Abweichungen von Bruchteilen eines Grads messbar wären. Ich 
sehe ein, dass das sehr ambitionierte Forderungen sind.

von Josef L. (Gast)


Lesenswert?

Christoph db1uq K. schrieb:
> deren Phasenlage man sich so genau ein halbes Jahr "merken" kann

Das nützt doch nichts, denn du kannst nicht Wellenfronten von jetzt mit 
denen in 1/2 Jahr vergleichen, auch wenn du von genau 1 Quelle bei genau 
1 Frequenz die Phasenlage kennst. Alle anderen Frequenzen und alle 
anderen Quellen haben andere Phasenlagen. Funktionieren tut es nur immer 
mit derselben Wellenfront. Die kommt bei zwei Messpunkten in 300 
Millionen km Abstand in maximal 1000 Sekunden Zeitdifferenz an, das muss 
korreliert werden. Mit späteren Wellenfronten funktioniert das nicht, 
vor allem nicht, wenn die im Submikrometer-Abstand aufeinanderfolgen, 
und du in 1/2 Jahr etwa 10 hoch 22 Wellenfronten hast. Notwendige 
Genauigkeit also 1 zu 10 hoch 24 mindestens, pro beobachteter Frequenz 
und pro Objekt. Bei Radiofrequenzen im Meterbereich verringert sich das 
um Faktor 1 Million, das kommt allmählich in die Reichweite der besten 
Atomuhren. Aber überlege wo die Strahlung herkommt - auch die Quelle 
ändert sich in 1/2 Jahr, die Abstände haben sich geändert - nicht nur um 
Wellenlängen, sondern in der Gegend 10-100 km/s, usw. - du bekommst es 
nicht zusammen, sondern immer nur wenn du Ausschnitte derselben 
Wellenfront hast. Aber ich lasse mich gern belehren, damit ich bei der 
nächsten Führung keinen Blödsinn erzähle. Nach Corona, spätabends.

Außerdem bekommt man mit 2 Messpunkten kein vernünftiges Bild, es 
sollten mindestens drei sein. Also 2 Satelliten, einer 120° vor, einer 
120° nach der Erde in ihrer Bahn (so war es bei STEREO auch geplant), 
dann kann man einigermaßen gut im 45-90° Winkel nach oben und unten 
beobachten.

von Wolfgang (Gast)


Lesenswert?

eric schrieb:
> Ein Facettenauge wie bei den Insekten.

Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher 
Richtwirkung.

von Wolfgang (Gast)


Lesenswert?

Josef L. schrieb:
> Die Suche nach "Radioastronomie Satellit" ist erfolglos, auch die
> Wikipediaartikel zu Radioastronomie und Radioteleskop bringen das Thema
> Satellit nicht auf.

Dann suche mal nach Spektr-R (Apogäum 350000 km, 10m Antenne).
https://scitechdaily.com/radioastron-an-international-project-for-vlbi-observations-in-space/

von Josef L. (Gast)


Lesenswert?

Wolfgang schrieb:
> Dann suche mal nach Spektr-R

Mir war auch so dass es da was gibt, und ich war bisher auch der Ansicht 
dass Google die Suchwörter auch zumindest auf englisch übersetzt und 
entsprechende Ergebnisse bringt - wieso dann bei meinen Stichworten 
nichts kommt ist mir ein Rätsel. OK, andere Stichworte wie "VLBI from 
orbit" bringen auch

https://www.jpl.nasa.gov/missions/space-very-long-baseline-interferometry-space-vlbi

- da habe ich offenbar zu früh aufgegeben. Aber VLBI ist halt schon 
wieder ein Spezialbegriff gegenüber Radio...

von eric (Gast)


Lesenswert?

Wolfgang schrieb:
> Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher
> Richtwirkung.

Rechthaber, Besserwisser und Klugscheisser
bringen Leben in dieses Forum.

von Wolfgang (Gast)


Lesenswert?

eric schrieb:
> ...

Bei manchem Unsinn, der hier verbreitet wird, ist es schwierig, den 
unkommentiert stehen zu lassen.

von Thomas U. (charley10)


Lesenswert?

Bauteiltöter schrieb:
> Hi,
>
> klar kann man die Umgebung auch mit Mikrowellen (GHz-Bereich) scannen
> und daraus ein Bild machen, sihehe Synthetic aperture radar:
> https://de.wikipedia.org/wiki/Synthetic_Aperture_Radar
>
> Um so geringer die Wellenlänge, desto schlechter die Auflösung.

...desto BESSER die Auflösung!

von Wolfgang (Gast)


Lesenswert?

Thomas U. schrieb:
> Bauteiltöter schrieb:
>> ...
>>
>> Um so geringer die Wellenlänge, desto schlechter die Auflösung.
>
> ...desto BESSER die Auflösung!

Das kommt drauf an, was "schlechter" bzw. "besser" ist. Manchmal hat man 
Ortsfrequenzen, die bei hoher Auflösung störende Artefakte durch 
Aliasing erzeugen. Dann ist eine geringere Auflösung eindeutig besser, 
weil sie als Anti-Aliasing-Filter wirkt.

Fest steht nur, das bei gleicher Apertur eine kürzere Wellenlänge zu 
einer höheren Auflösung führt.

von Frank001 (Gast)


Lesenswert?

Wolfgang schrieb:
> Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher
> Richtwirkung.

Vereinfachen wir mal: Man nehme irgendeine Form von Richtantenne und 
ordne sie in einem 10x10 Matrix als Fläche an.
Verbinde jede Antenne entweder mit einem separaten SDR Empfänger oder 
einer Schaltung die den Ausgang aller Antenne abwechselnd zu einem 
zentralen SDR Empfänger leitet.

Man richte die Fläche mit den Antennen in Richtung eines Senders. Durch 
die Messung der Intensität bei jeder Antenne, sollte doch in einer 10x10 
Pixel Auflösung visualisiert werden können, wo sich der Sender befindet?
Wäre das dann nicht ein einfacher Bildsensor etwa für Mikrowellen?

Wenn es nun möglich wäre für den gewünschten Frequenzbereich tausende 
kleine Richtantennen zu nehmen. Dann hätte man viel schärfere 
Mikrowellen Bilder.

Das wäre jedenfalls die naive Idee um einen optischen Bildsensor zu 
imitieren.

von Harald W. (wilhelms)


Lesenswert?

Frank001 schrieb:

> Wenn es nun möglich wäre für den gewünschten Frequenzbereich tausende
> kleine Richtantennen zu nehmen. Dann hätte man viel schärfere
> Mikrowellen Bilder.

Was erwartest Du da für Bilder? Bilder ähnlich denen eines optischen
Sensors oder unscharfes Wischiwaschi?

von Patrick L. (Firma: S-C-I DATA GbR) (pali64)


Lesenswert?

Stand der Technik, ist es mittlerweile auch möglich mit Wellenlängen im 
cm-Band Bilder aufzulösen, die einem Kamera-bild ähnlich kommen.
Habe zur Zeit grad ein Projekt eines Kunden der auf dem "Walabot" 
basiert.
Man kann damit auch auf grössere Distanzen sehr genaue Bilder enthalten.

Es war früher so dass man "Glaubte" man könne nur Bilder mit einem 
Raster in der ½ der Wellenlänge auflösen.
Und man braucht dazu auch nicht 1000ende Antennen, es geht mit viel 
weniger.
Siehe Link.
https://walabot.com/de/diy

von eric (Gast)


Lesenswert?

Harald W. schrieb:
> Was erwartest Du da für Bilder? Bilder ähnlich denen eines optischen
> Sensors oder unscharfes Wischiwaschi?

Bei allen sogenannten 'Bildsensoren', die mir einfallen,
wird das Bild aus Einzelelementen in einer Signalverarbeitung
(z.B. Gehirn) zusammengesetzt:
das menschliche Auge
das menschliche Ohr
das Insektenauge
die Photo-Emulsion
die elektronische Kamera
das Radio-Interferometer
Es scheint ein Naturprinzip zu sein.

von Josef L. (Gast)


Lesenswert?

eric schrieb:
> wird das Bild aus Einzelelementen in einer Signalverarbeitung
> (z.B. Gehirn) zusammengesetzt:

Deine Beispiele teilen sich aber auf in 3 verschiedene Prinzipien:
- Das Insektenauge beruht auf Sensoren, die bereits eine Richtwirkung 
haben (langes Rohr mit Sensor am Ende
- dann Auge, Kamera etc. die die Richtwirkung durch ein Objektiv 
bekommen (Beugung oder Brechung)
- dann Ohr, Interferometer, wo direkt die Laufzeitunterschiede 
ausgewertet werden müssen

So wie man eine Optik für Röntgenstrahlen hinbekommen hat, gibt es ja 
auch Optiken für Mikro- und Radiowellen, vornehmlich Parabolspiegel. Bis 
zu welcher Wellenlänge Linsen wie zB aus Germanium funktionieren können, 
kann man ja googeln, zB bei
https://www.pleiger-laseroptik.de/germanium_linsen/
dort steht: Einsatzbereich 2-12µm

von Frank001 (Gast)


Lesenswert?

Harald W. schrieb:
> Was erwartest Du da für Bilder? Bilder ähnlich denen eines optischen
> Sensors oder unscharfes Wischiwaschi?

Ich denke die Auflösung kommt nicht die von optischen Bildsensoren 
heran. Aber wäre gut genug um die Umgebung auf bestimmte Frequenzen zu 
überwachen.

Angenommen die Mikrowellen "Kamera" wäre auf eine Landschaft 
ausgerichtet mit Menschen die Handys mit sich tragen, Flugzeuge am 
Himmel die irgendwelche Signale senden, Fahrzeuge mit Funkgeräten. Es 
mag nicht reichen um die Form der Objekte genau zu erkennen. Aber selbst 
mit groben Mustern würde man erkennen, dass sich verschiedene Objekte 
durch den Raum bewegen, die entweder von sich aus Signale aussenden oder 
von denen Signale der Umgebung reflektiert werden.
Da verschieden geformte Oberflächen und Materialien unterschiedlich 
reflektieren müsste man da auch spezifische Muster erkennen.

Vermutlich kann man man aus dem Muster an Signalen noch einiges 
softwaretechnisch raus holen. Es bietet sich an Künstliche Neuronale 
Netze anzuwenden und sie darin zu trainieren bestimmte Muster und 
Objekte selbst in stark verrauschten Daten zu erkennen. Ein KNN könnte 
die typischen Reflexionen von bestimmten Formen und Materialien erkennen 
und so aus den schwammigen Aufnahmen noch mehr Informationen raus holen.
Gut trainierte KNNs erkennen bei der typischen Bilderkennung Formen 
selbst in stark verrauschten Bildern, wo Menschen nur Pixelbrei 
wahrnehmen.

Es muss ja auch keine kleine handliche Kamera sein. Man kann es sich 
auch als  eine mehrere m² große Sensorfläche vorstellen. Montiert auf 
einer Basis oder einem Fahrzeug.

Ich glaube das was mir da vorschwebt ist ähnlich wie eine 
Phased-Array-Antenne. Wo aber jeder kleiner Empfänger selbst eine 
Richtantenne darstellt.

Klärt mich ruhig auf, falls dass ganze so nicht funktionieren kann, wie 
ich es mir vorstelle.

von Harald W. (wilhelms)


Lesenswert?

Frank001 schrieb:

> Klärt mich ruhig auf, falls dass ganze so nicht funktionieren kann, wie
> ich es mir vorstelle.

Das ist schon mehrfach in diesem Thread geschehen.

von Patrick L. (Firma: S-C-I DATA GbR) (pali64)


Lesenswert?

Frank001 schrieb:
> Klärt mich ruhig auf, falls dass ganze so nicht funktionieren kann, wie
> ich es mir vorstelle.

Mach dich mal über Walabot schlau,
Dies ist aus einem Open Source Projekt entstanden worüber mann nun 
einige Hack findet.

Mitunter kann man bereits Mäuse in den Wänden erkennen, ja bis hin sogar 
das Herz des Tieres sehen.
Andere Hack's gibt's auch zum aus etwas Entfernung des Herz eines 
Menschen schlagen zu sehen usw.

Und das alles wohlverstanden mit Radiowellen die ein Vielfaches der 
Wellenlänge der möglichen Auflösung haben.

Nein es sind nicht mal hunderte Antennen erforderlich dies zu 
realisieren.

von Wolfgang (Gast)


Lesenswert?

Frank001 schrieb:
> Wolfgang schrieb:
>> Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher
>> Richtwirkung.
>
> Vereinfachen wir mal: Man nehme irgendeine Form von Richtantenne und
> ordne sie in einem 10x10 Matrix als Fläche an.
> Verbinde jede Antenne entweder mit einem separaten SDR Empfänger oder
> einer Schaltung die den Ausgang aller Antenne abwechselnd zu einem
> zentralen SDR Empfänger leitet.

Eben - mit ausreichend richtscharfen Antennen ist das kein Problem - bei 
einer statischen Szene wäre es auch egal, ob parallel per Array oder 
sequentiell per Scanner abgetastet wird.

eric behauptete aber, dass man mit Millionen von Mikrowellen Empfängern 
schon ein Facettenauge wie bei den Insekten hätte.
Die Sensoren alleine nützen aber überhaupt nichts, wenn die 
bilderzeugende Optik davor fehlt.

von eric (Gast)


Lesenswert?

Wolfgang schrieb:
> eric behauptete aber, dass ...
> ...die bilderzeugende Optik davor fehlt.

Das hast Du hinein interpretiert,
um Dich als Besserwisser zu präsentieren.

Es gibt keine isotropen Strahler. Darum hat jeder Sensor eine gewisse
Richtcharakteristik. Selbst eine Öffnung ohne Linse formt ein Bild.
Das vom Gesamtsystem geschaffene Bild wird durch Anzahl, Anordnung, 
Ausrichtung und Auswertung der Sensoren bestimmt, egal nach welchem
physikalischem Prinzip der einzelne Sensor arbeitet.

von Wolfgang (Gast)


Lesenswert?

eric schrieb:
> Das hast Du hinein interpretiert,
> um Dich als Besserwisser zu präsentieren.

Ich dachte, das hätten wir geklärt 🤔

Nimm mal den Bildsensor einer Kamera (entsprechen den Mikrowellen 
Empfängern) und lass den ohne Optik (entsprechend den Antennen) in die 
Landschaft gucken. Dann wird jeder Sensor ziemlich genau die gleiche 
Lichtmenge erhalten und entsprechend gleich sehen die Pixel aus, die aus 
dem Sensor ausgelesen werden. Nix mit Bild.
Ohne reeles Bild nützt dir der schönste Bildsensor nichts.

Beim Facettenauge besitzt jedes Pixel eine eigene Optik, die nur Licht 
aus einem kleinen Raumwinkelbereich auf das Bildelement (den Empfänger) 
fallen lässt.

eric schrieb:
> Frank001 schrieb:
>> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus
>> Millionen von miniaturisieren Mikrowellen Empfängern besteht?
>
> Ein Facettenauge wie bei den Insekten.

von Josef L. (Gast)


Lesenswert?

Wolfgang schrieb:
> Nix mit Bild.

Du vergisst, dass die Mikrowellensensoren auch die Phase der Welle 
aufzeichnen können. Mit dieser Information von jedem Sensor kann man die 
tatsächliche Wellenfront rekonstruieren und damit das Bild. Sozusagen 
eine simulierte Optik. Das ist doch das, was auch bei VLBI benutzt wird, 
auch wenn man dabei nur wenige Sensoren (3-50) hat. Ohne Kenntnis der 
Phasen (CMOS-Sensor ohne Optik davor) bekommt man tatsächlich kein Bild.

von Wolfgang (Gast)


Lesenswert?

Josef L. schrieb:
> Du vergisst, dass die Mikrowellensensoren auch die Phase der Welle
> aufzeichnen können.

Dann dürfen es aber keine unabhängigen Empfänger sein, sondern im 
Rechner dahinter muss die "Optik" gerechnet werden, i.e. das was in der 
Optik vielleicht einem Array von vielen Fresnel-Zonenplatten für die 
Richtungsselektivität entsprechen würden. Da werden quasi alle 
Richtungen parallel empfangen und im Rechner getrennt. Auch da bestimmt 
die Größe des Arrays das Auflösungsvermögen - je weiter die "Empfänger" 
auseinander stehen, um so besser ist die Auflösung, nicht anders als bei 
einem Teleskop der Spiegeldurchmesser.
Bei einem Bildsensor mit hoher Auflösung ist es genau umgekehrt - viele 
Pixel müssen dicht beieinander stehen, um Details aufzulösen, so denn 
das reelle Bild, dass auf den Sensor geworfen wurde, scharf genug ist, 
um aus der hohen Pixeldichte einen Gewinn an Bildinformation zu ziehen.

Mit miniaturisieren Mikrowellen Empfängern hat das nichts zu tun. Es 
muss ein Empfänger mit vielen Kanälen sein, deren Phase synchronisiert 
ist. Außerdem brauchst du zusätzlich den "kleinen" Rechner-Cluster, um 
überhaupt an die Bildinformation zu kommen. Die Fouriertransformation 
findet dabei nicht durch die Optik, sondern im Rechner statt.

von Josef L. (Gast)


Lesenswert?

Wolfgang schrieb:
> Bei einem Bildsensor mit hoher Auflösung ist es genau umgekehrt

Falsch. Die Auflösung bekommt er nur durch die Optik, deren Durchmesser 
bzw. Ausdehnung ist maßgeblich. Durch die Brennweite bzw. Maß der 
Fokussierung kann man das auf ein Sensorarray abbilden, das kleiner als 
die Optik ist (oder auch größer, meist nicht so sinnvoll, oder - Beamer 
vielleicht?)

Bei VLBI spannen die Antennen den Bereich auf, in dem die Wellenfront 
abgetastet wird, bei der Optik ist es deren Öffnung.

Rest der Betrachtung OK.

von Josef L. (Gast)


Lesenswert?

@Wolfgang
Schau dir eine TV-Parabolantenne an. Eine mit 1 LNB hat 1 Pixel. Es gibt 
aber LNB mit mehreren Dipolen drin, die haben dann 2 oder mehr Pixel. 
Die Öffnung der Anordnung ist der (wirksame, da elliptisch) 
Antennendurchmesser, er bestimmt die Auflösung, d.h. das was man 
"Antennenkeule" nennt; bei 80cm und 12GHz (2.5cm) 2.5/80 rad = 2° (kann 
noch ein Faktor 2 drin sein). Das wäre die Winkelauflösung am Himmel, 
und abhängig von der Brennweite des Spiegels (25cm?) kann man dann den 
Mindestabstand der Dipole voneinander ausrechnen, liegt im Bereich der 
Wellenlänge.

von Wolfgang (Gast)


Lesenswert?

Josef L. schrieb:
> Wolfgang schrieb:
>> Bei einem Bildsensor mit hoher Auflösung ist es genau umgekehrt
>
> Falsch. Die Auflösung bekommt er nur durch die Optik, deren Durchmesser
> bzw. Ausdehnung ist maßgeblich.

Du darfst mich gerne vollständig zitieren: Dahinter kam noch "... so 
denn
das reelle Bild, dass auf den Sensor geworfen wurde, scharf genug ist,
um aus der hohen Pixeldichte einen Gewinn an Bildinformation zu 
ziehen.".

Das bestaufgelöste Bild, erzeugt durch die Optik, nützt dir überhaupt 
nichts, wenn die Abtastfrequenz im Ortsraum nicht hoch genug ist, i.e. 
wenn der Pixelabstand zu groß ist.

Josef L. schrieb:
> Schau dir eine TV-Parabolantenne an. Eine mit 1 LNB hat 1 Pixel.

Eben. Und um ein Mikrowellen-Facettenauge zu bauen, brauchst du als 
"Optik" eine Schüssel vor jedem einzelnen Mikrowellenempfänger. Alle 
Schüsseln gucken in verschiedene Richtungen.

von Gerald K. (geku)


Lesenswert?

Bauteiltöter schrieb:
> Um so geringer die Wellenlänge, desto schlechter die Auflösung.

Es ist umgekehrt. Bei Licht hat man mit blau eine bessere Auflösung als 
mit rot.

von Wolfgang (Gast)


Lesenswert?

Gerald K. schrieb:
> Es ist umgekehrt.

Schön, dass du das nach 22 Tagen auch noch mal sagst ;-)

Sven D. schrieb:
> Es ist andersrum.

von Harald W. (wilhelms)


Lesenswert?

Wolfgang schrieb:

>> Es ist umgekehrt.
>
> Schön, dass du das nach 22 Tagen auch noch mal sagst ;-)

Es ist zwar schon alles gesagt, aber noch nicht von allen...

von MeinName (Gast)


Lesenswert?

Sehr interessante Diskussion, ich werfe mal ein paar Begriffe zum suchen 
ein.
SAR, ISAR, 3D MIMO Radar, Nacktscanner.

Und was hat die Bandbreite mit der Auflösung zu tun? ;-)

von Josef L. (Gast)


Angehängte Dateien:

Lesenswert?

Wolfgang schrieb:
> Und um ein Mikrowellen-Facettenauge zu bauen, brauchst du als
> "Optik" eine Schüssel vor jedem einzelnen Mikrowellenempfänger. Alle
> Schüsseln gucken in verschiedene Richtungen.

Du hast nicht gelesen: Es reicht 1 Optik und in der Brennebene mehrere 
Empfänger (Sensoren), zB quadratisches Array. Jedes Element schaut in 
eine andere Richtung. So funktioniert ein Spiegel...

von Wolfgang (Gast)


Lesenswert?

Josef L. schrieb:
> Du hast nicht gelesen: Es reicht 1 Optik und in der Brennebene mehrere
> Empfänger (Sensoren) ...

Dann hast du aber kein Facettenauge, sondern eine Optik, die ein reelles 
Bild erzeugt und dieses Bild wird von einem Array von Einzelsensoren 
abgetastet. Bei einem Facettenauge hat jedes "Pixel" seine eigene Optik.
https://de.wikipedia.org/wiki/Facettenauge

von Josef L. (Gast)


Lesenswert?

Wolfgang schrieb:
> sondern eine Optik, die ein reelles
> Bild erzeugt und dieses Bild wird von einem Array von Einzelsensoren
> abgetastet

Ja, was denn sonst? Erzeugt ein zweidimensionales Bild mit 
Radiohelligkeiten. So ist das ja gewollt, oder nicht? Beantwortet die 
Eingangsfrage.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.