Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums dazu geeignet technisch ein Bild zu erzeugen? Kann man beispielsweise durch Mikrowellen kein visuelles Bild der Umgebung erzeugen? Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus Millionen von miniaturisieren Mikrowellen Empfängern besteht?
Hi, klar kann man die Umgebung auch mit Mikrowellen (GHz-Bereich) scannen und daraus ein Bild machen, sihehe Synthetic aperture radar: https://de.wikipedia.org/wiki/Synthetic_Aperture_Radar Um so geringer die Wellenlänge, desto schlechter die Auflösung.
Wir hatten mal ein Projekt in der Firma, das dies mit Teraherzwellen gemacht hat. Also Wellenlaengen irgendwo zw. Mikrowellen und Infrarot. Damit ging wirklich einiges und die Ergebnisse waren irgendwo zwischen beeindruckend und beaengstigend. So konnte man ueber zig Meter Entfernung den Puls und die Atmung von Lebewesen ueberwachen.
Frank001 schrieb: > Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums > dazu geeignet technisch ein Bild zu erzeugen? Das Grundproblem ist, dass je größer die Wellenlänge der verwendeten Strahlung, desto geringer die Auflösung und um so größer die Empfänger (also die einzelnen Pixel). Aber machen kann man es, wie u.a. die Radioastronomie beweist.
:
Bearbeitet durch User
andi6510 schrieb: > So konnte man ueber zig Meter > Entfernung den Puls und die Atmung von Lebewesen ueberwachen. Das konnte ich schon 1980 bei handelsüblichen Gunnoszillatoren feststellen.
Das Ganze hat der große Stanislaw Lem schon in den 50'iger Jahren vorausgesehen, in seinem Roman "Planet des Todes". :-O Was wird die Zukunft bringen? Glück füt Alle, oder Jeder gegen Jeden? mfg
Bauteiltöter schrieb: > Um so geringer die Wellenlänge, desto schlechter die Auflösung. Es ist andersrum.
Frank001 schrieb: > Kann man beispielsweise durch Mikrowellen kein visuelles Bild der > Umgebung erzeugen? Doch, Radioteleskope können das z.B. machen. https://www.e-education.psu.edu/astro801/content/l8_p6.html
andi6510 schrieb: > Wir hatten mal ein Projekt in der Firma, das dies mit Teraherzwellen > gemacht hat. Stichwort: "Nacktscanner" https://de.m.wikipedia.org/wiki/K%C3%B6rperscanner
Eine Fledermaus, packt das sogar mit Ultraschall, die können sogar "Mücken" Räumlich lokalisieren...
Frank001 schrieb: > Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums > dazu geeignet technisch ein Bild zu erzeugen? Allein schon diese Einschätzung ist maximal falsch. Unsere Augen können nur einen winzigen Teil des Spektrums erfassen und dein Gehirn macht daraus ein Bild. > Kann man beispielsweise durch Mikrowellen kein visuelles Bild der > Umgebung erzeugen? > Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus > Millionen von miniaturisieren Mikrowellen Empfängern besteht? Astronomen machen sowas seit Erfindung der Radioastronomie.
Oder schon mal ein 3D-Ultraschallbild eines Embryo studiert? Cyblord -. schrieb: > Allein schon diese Einschätzung ist maximal falsch. > Unsere Augen können nur einen winzigen Teil des Spektrums erfassen und > dein Gehirn macht daraus ein Bild. Hat das eigentlich ganz Treffend formuliert.
:
Bearbeitet durch User
Hallo, das Thema ist durchaus komplex. Die Wellenlänge und die Zahl der "Antenne" (vgl. Linsenöffnung) bestimmt die räumliche Auflösung der Objekte. Mit Wellenlängen im Meterbereich kann man halt kaum ein Objekt im cm-Bereich auflösen. Und die "Antenne" braucht auch eine gewisse Öffnung im Verhältnis zur Wellenlange, um die Winkelauflösung zu erreichen. Hier kann man sich der Formeln aus dem Bereich der Optik bedienen. https://de.wikipedia.org/wiki/Aufl%C3%B6sungsverm%C3%B6gen Dann ist nicht jedes Objekt/Material bei jeder Wellenlänge gleich Reflektiv/Transmissiv/Streuend. Damit hat man eine Frequenzabhängige und Materialabhängige Komponente bei den empfangenen Signalen. Weiterhin sollte man berücksichtigen, dass die Bandbreite, die wir mit den Augen erfassen mit dem "Fenster" der Atmosphäre zusammenhängen, in dem die Dämpfung der Wellen noch sinnvoll/nützlich ist. Und zuletzt gilt es noch die Fremdquellen zu beachten (z.B. andere Funksysteme, natürliche Strahlungsquellen). Aber ja, man kann mit elektromagnetischen Wellen bei richtigem Einsatz und mit den geeigneten Antennen durchaus einiges an Abbildung erreichen. Gruss
Hier noch der Link zum "Atmosphärischen Fenster": https://de.wikipedia.org/wiki/Atmosph%C3%A4risches_Fenste Z.B. steigt bei ca. 60GHz bedingt durch den Sauerstoff (O2) die Dämpfung der Atmosphäre stark an. Daher ist dieser Bereich eines "hohen" ISM-Bänder.
Frank001 schrieb: > Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums > dazu geeignet technisch ein Bild zu erzeugen Unsinn. Je kleiner die Wellenlänge, je schärfer wird das Bild. Und das menschliche Auge sieht halt nur einen bestimmten Frequenzbereich. Aber Infrarotkameras, Radar, Teraherzwellen, Rontgenstrahlen sind alles bekannte bildgebende Verfahren. Sogar mit Ultraschall kann man Bilder machen, Echolot.
>Eine Fledermaus, packt das sogar mit Ultraschall
Da sich Licht und Schall etwa um 1 Million unterscheiden (300m/s /
300Mm/s), entsprechen z.B. 50kHz Ultraschall der Fledermaus der
Wellenlänge von 50 GHz Mikrowellen.
Frank001 schrieb: > Kann man beispielsweise durch Mikrowellen kein visuelles Bild der > Umgebung erzeugen? Doch! Konnten die Tommies schon vor über 75 Jahren: https://de.wikipedia.org/wiki/H2S_(Navigation)
HF-Werkler schrieb: > Dann ist nicht jedes Objekt/Material bei jeder Wellenlänge gleich > Reflektiv/Transmissiv/Streuend. Damit hat man eine Frequenzabhängige und > Materialabhängige Komponente bei den empfangenen Signalen. Das ist bei für das Auge sichtbarem Licht nicht anders. Manche Stoffe/Körper sind durchsichtig. HF-Werkler schrieb: > Und zuletzt gilt es noch die Fremdquellen zu beachten (z.B. andere > Funksysteme, natürliche Strahlungsquellen). Bei sichtbarem Licht hast Du auch die verschiedensten Quellen, die Deine Szene beleuchten.
Christoph db1uq K. schrieb: > Da sich Licht und Schall etwa um 1 Million unterscheiden (300m/s / > 300Mm/s), entsprechen z.B. 50kHz Ultraschall der Fledermaus der > Wellenlänge von 50 GHz Mikrowellen. Haha, was eine witzige Aussage! Kannst du bitte diesen Zusammenhang näher beleuchten. Frank001 schrieb: > Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus > Millionen von miniaturisieren Mikrowellen Empfängern besteht? Im Gegensatz zum elektro optischen Bild erhältst du eine Entfernungsinformation. Mit einem zwei dimensionalen Array wie bei einer Kamera erhältst du beim Radar ein drei dimensionales Abbild.
Frank001 schrieb: > Kann man beispielsweise durch Mikrowellen ein visuelles Bild der > Umgebung erzeugen? Ja, sowas nennt man Radar.
Danke für die interessanten Beiträge. Harald W. schrieb: > Ja, sowas nennt man Radar. Mit "sehen" und "Bild" meine ich ein bildgebendes Verfahren dass detaillierte Bilder von Objekten generiert. Also schon etwas mehr als nur ein einfaches Echo Signal, das die Information trägt dass in Richtung x sich irgendwas befindet.
MeinName schrieb: > Im Gegensatz zum elektro optischen Bild erhältst du eine > Entfernungsinformation. Mit einem zwei dimensionalen Array wie bei einer > Kamera erhältst du beim Radar ein drei dimensionales Abbild. Interessant. Weil man bei einem Radar die Laufzeiten der einzelnen Signale misst? Man könnte sich aber auch ein 2D Array als Sensor vorstellen, das lediglich von Mikrowellen angeregt wird und dann elektrische Signale erzeugt ähnlich wie bei Fotodioden. So dass man von der unterschiedlich starken Aktivität der einzelnen "Pixel" ein Bild erhält.
Frank001 schrieb: > Mit "sehen" und "Bild" meine ich ein bildgebendes Verfahren dass > detaillierte Bilder von Objekten generiert. Also schon etwas mehr als > nur ein einfaches Echo Signal, das die Information trägt dass in > Richtung x sich irgendwas befindet. Radar kann das durchaus. z.B. https://www.nasa.gov/image-feature/nine-radar-images-of-asteroid-pa8
Das mache ich laufend im Frequenzbereich zwischen 385-789 THz.
Frank001 schrieb: > Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus > Millionen von miniaturisieren Mikrowellen Empfängern besteht? In Verbindung mit einer Linse* funktioniert das, so wie beim optischen System auch. *Dielektrische Linsen sind für Millimeterwellenantennen durchaus üblich. Funktioniert in einem kleinen Frequenzbereich genau so wie eine "optische" Linse, das Funktionsprinzip und die Berechnung sind identisch.
Was hier für ein Unsinn geschrieben wird... Das Auflösungsvermögen eines Radars wird durch eine Eigenschaft bestimmt: Phasen-Diversität. NICHT durch die Wellenlänge. Die Phasen-Diversität in Entfernungsrichtung erreicht man durch Signal-Bandbreite, nicht Wellenlänge. Je höher die Bandbreite des Sendesignals(=unterschiedliche Sendefrequenzen, welche jeweils eine eigene Phasenlage im Echo erzeugen), desto besser die Entfernungsauflösung. Für höhere Frequenzen (=kürzere Wellenlängen) wird es automatisch einfacher, mit höheren absoluten Bandbreiten zu senden und damit die Auflösung zu verbessern. Ein Radar mit synthetischen Aperturen erzeugt zusätzlich eine Phasen-Diversität im Raum. Das heißt, eine Antenne bewegt sich z.B. entlang einer Linie und wertet das Empfangssignal aus unterschiedlichen räumlichen Positionen aus. Die Modulation der Empfangsphasen entlang der Apertur erzeugt das Bild in Bewegungsrichtung (orthogonal zur Entfernungsrichtung).
Frank001 schrieb: > Wieso ist nur ein bestimmter Bereich des elektromagnetischen Spektrums > dazu geeignet technisch ein Bild zu erzeugen? > Kann man beispielsweise durch Mikrowellen kein visuelles Bild der > Umgebung erzeugen? > Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus > Millionen von miniaturisieren Mikrowellen Empfängern besteht? Bei der Fragestellung würde ich empfehlen das du dich mit elektromagnetischen Wellen etwas näher beschäftigst. Geeignete techn. Lösungen zum Detektieren gibt es über einen deutlich breiteres Spektrum als den des optisch sichtbaren Licht´s. Die Erstellung eines visuellen Bildes hat erstmal nix mit dem "empfangen" zu tun, sondern eher mit der Aufbereitung/Darstellung der Daten. Siehe Vergleich "Bild von einem schwarzen Loch".
Bildgeber schrieb: > In Verbindung mit einer Linse* funktioniert das, so wie beim optischen > System auch. ...oder in Verbindung mit einem Spiegel, was die beobachtenden Astronomen sowohl mit sichtbarem Licht als auch mit Radiowellen betreiben.
Zunächst muss man mal unterscheiden ob man mit bereits vorhandenen (natürlichen oder künstlichen) Strahlungsquellen auskommen möchte oder die zu detektierende Strahlung selbst mitbringt. Und als Gegenpart den Empfänger für die entsprechende Strahlung/Wellenlänge(n). Zum ersteren gehören Strahlungsquellen wie Sonne, Mond, Sterne, Milchstraße, ferne Quasare, aber auch Straßenlampen, Autoscheinwerfer, Vulkane, Glühwürmchen, Leuchtfische, PCs, Wandwarzen, Generatoren, Handys, TV- und Rundfunksender, Satelliten. Hier hat man alle Wellenlängen von weniger Hertz bis härteste kosmische Strahlung, und je nach Wellenlänge wird lustig reflektiert und/oder absorbiert, und die Frage ist wieviel noch beim Empfänger ankommt. Entfernungen lassen sich nicht messen, außer wenn man 2 Empfänger in gewissem Abstand zueinander benutzt über Triangulation ("3D-Sehen"). Zur 2. Kategorie gehören Taschenlampe/Handylicht, IR-Leds, Ultraschall- und Radarsender, Laser etc.; man kann selbst bestimmen wie hoch die Intensität sein muss, um trotz Absorption noch etwas reflektierte Strahlung zu bekommen - sie sollte auch möglichst wenig durch die der ersten Kategorie gestört sein - und kann zusätzlich über die Laufzeit die Entfernung bestimmen. In allen Fällen ist die Winkelauflösung (vereinfacht formuliert) durchs Verhältnis Sensorgröße zu Wellenlänge bestimmt - je größer desto besser, was aber auch bedeutet, dass die tatsächliche räumliche Auflösung mit der Entfernung abnimmt. Das gilt ähnlich auch für die Entfernungsmessung, auch beim Radar, da mit zunehmender Entfernung das Signal immer schwächer wird. Was die ürsprüngliche Fragestellung angeht: In der Astronomie werden bildgebende Verfahren für einen weiten Wellenlängenbereich genutzt, und zwar je nachdem was grade günstiger ist. Im Radiowellenbereich ist es am einfachsten, das infrage kommende Himmelsareal mim Zickzack abzuscannen, so wie früher ein Fernsehbild erzeugt wurde. Die meisten Himmelobjekte - insbesondere außerhalb des Sonnensystems - laufen einem nicht so schnell davon. Im IR-UV-Bereich nimmt man normale Optiken und einen 2-dimensionalen Sensor (CMOS-Chip o.ä.). Im Röntgenbereich (Satelitten) braucht man Spiegel mit streifendem Einfall der Strahlung, zwei hintereinander ergeben ein zweidimensionales Bild, und um die Intensität zu steigern, also mehr Röntgen"licht" einzufangen, schachtelt man mehrere Spiegel mit unterschiedlichen Durchmessern ineinander. Vor einem optischen Detektor liegt dann z.B. eine Schicht, die Röntgen- in optische Strahlung wandelt. Siehe https://de.wikipedia.org/wiki/R%C3%B6ntgenteleskop https://de.wikipedia.org/wiki/ROSAT https://de.wikipedia.org/wiki/EROSITA Gammastrahlung kommt wie Röntgenstrahlung nicht bis zur Erdoberfläche, ist aber stark genug, beim Auftreffen auf die Atmosphäre Sekundärstrahlungsschauer auszulösen, die vom Boden aus detektiert werden können. Also um die Ecke gedacht. Siehe https://de.wikipedia.org/wiki/High_Energy_Stereoscopic_System https://www.faz.net/aktuell/wissen/weltraum/magic-gammastrahlenteleskope-der-extreme-himmel-1798018.html
Bauteiltöter schrieb: > Um so geringer die Wellenlänge, desto schlechter die Auflösung. Was verstehst du unter "geringer Wellenlänge". Bisher war es immer so, dass die Auflösung steigt, wenn die Wellenlänge kleiner wird.
Josef L. schrieb: > Das gilt ähnlich auch für die > Entfernungsmessung, auch beim Radar, da mit zunehmender Entfernung das > Signal immer schwächer wird. Unsinn, was hat die Stärke des Signals mit der Auflösung bei der Laufzeitmessung zu tun. Guck dir z.B. die LIDAR Entfernungsmessungen im Apollo-Projekt an. Da kommen relativ wenige Photonen vom Mond zurück und die Entfernungswerte liegen auf einer haarscharfen Linie, deren Breite durch den Einfallswinkel auf dem Reflektorarray auf dem Mond bestimmt wird.
Frank001 schrieb: > Harald W. schrieb: >> Ja, sowas nennt man Radar. > > Mit "sehen" und "Bild" meine ich ein bildgebendes Verfahren dass > detaillierte Bilder von Objekten generiert. Also schon etwas mehr als > nur ein einfaches Echo Signal, das die Information trägt dass in > Richtung x sich irgendwas befindet. Wie bereits gesagt: Je grösser die Wellenlänge, desto schlechter die Auflösung. Deshalb sind "detaillierte Bilder von Objekten" ähnlich eines optischen Bildes mit "hochfrequenten Funkwellen" nicht möglich.
Harald W. schrieb: > Wie bereits gesagt: Je grösser die Wellenlänge, desto schlechter > die Auflösung. Deshalb sind "detaillierte Bilder von Objekten" > ähnlich eines optischen Bildes mit "hochfrequenten Funkwellen" > nicht möglich. Mit kleiner Wellenlänge geht schon was: https://www.fhr.fraunhofer.de/de/das-institut/kernkompetenzen/hochfrequenzsysteme/hochaufloesendes-240-ghz-radar-mit-sige--chip.html
Bildgeber schrieb: > In Verbindung mit einer Linse* funktioniert das, so wie beim optischen > System auch. Wenn es um Auflösung kleiner als halbe Lichtwellenläge geht, funktionieren Linsen auch im optischem Bereich nicht mehr.
Auf Wikipedia heißt es: Chemischer Film, und auch CMOS- und CCD-Sensoren sind auch in Wellenlängenbereichen sensitiv, in denen das menschliche Auge praktisch keine Empfindlichkeit besitzt, was Aufnahmen verfremden kann. https://de.wikipedia.org/wiki/Tageslichtfilter Bezieht sich dass nur auf Infrarot oder können solche Sensoren schwach auch andere Wellenlängen erfassen? Vielleicht mal die Filter von so einer Kameralinse entfernen und die Linse mit einem Material bedecken das Tageslicht reflektiert. Irgendein Kunststoff vielleicht. Welches aber noch für andere Wellenlängen durchlässig ist. Frage mich ob da wirklich etwas messbares auf dem Sensor ankommt.
Frank001 schrieb: > Bezieht sich dass nur auf Infrarot oder können solche Sensoren schwach > auch andere Wellenlängen erfassen? Ja, UV. Längerwelliges IR aber nicht. Dafür gibts spezielle, teure Wärmebildkameras.
Frank001 schrieb: > Vielleicht mal die Filter von so einer Kameralinse entfernen und die > Linse mit einem Material bedecken das Tageslicht reflektiert. Je nach Kamera ist es sogar eine recht triviale Angelegenheit, den Infrarotfilter einfach zu entfernen. Nur: besonders bei Fotokameras ist der meist direkt auf dem Sensor; das Risiko möchte man selbst bewerten. > Frage mich ob da wirklich etwas messbares auf dem > Sensor ankommt. Wenn er nichts bringen würde, wäre er nicht da.
das Militär nutzt solche passive Systeme wohl schon länger wobei "Umgebung" da etwas weiter gefasst ist z.b. https://de.wikipedia.org/wiki/Passives_Radar http://www.airpower.at/news03/0613_stealth/index.html?http&&&www.airpower.at/news03/0613_stealth/stealth4.htm https://www.spiegel.de/wissenschaft/technik/passives-radar-deutsche-technik-enttarnt-us-kampfjet-f-35-a-1289333.html https://de.wikipedia.org/wiki/Tamara_(Sensorsystem) https://de.wikipedia.org/wiki/Vera_(Sensorsystem)
Frank001 schrieb: > Vielleicht mal die Filter von so einer Kameralinse entfernen Das nahe Infrarot einer TV-Fernbedienung wird von Handycams oft noch erfasst, weshalb man die Fernbedienung damit auf Funktion testen kann: IR-Sender auf die Handycam halten und Knopf drücken.
:
Bearbeitet durch User
Stichwort Photonisches Radar: https://www.spiedigitallibrary.org/conference-proceedings-of-spie/11442/114420L/The-photonic-radar--the-situation-today-and-the-prospects/10.1117/12.2565721.full?SSO=1 Da wird mit großen Mitteln daran gearbeitet, weil es sehr viel Potential im militärischen Bereich gibt.
(prx) A. K. schrieb: > Das nahe Infrarot einer TV-Fernbedienung wird von Handycams oft noch > erfasst, weshalb man die Fernbedienung damit auf Funktion testen kann: > IR-Sender auf die Handycam halten und Knopf drücken. Cool! Das funktioniert ja wirklich. Und das trotz Infrarotfilter in der Handykamera?
Frank001 schrieb: > Und das trotz Infrarotfilter in der Handykamera? Die Filter sind nicht perfekt und Du schaust damit ja auch direkt in die Lichtquelle. Die Filter sind aber im Laufe der Zeit (letzte 10-15 Jahre) deutlich besser geworden.
Markus K. schrieb: > Die Filter sind nicht perfekt und Du schaust damit ja auch direkt in die > Lichtquelle. ...und die Lichtquelle ist ziemlich hell. Es wird mit recht hohen Strömen gepulst, um Reichweite zu erreichen...
Cyblord -. schrieb: >> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus >> Millionen von miniaturisieren Mikrowellen Empfängern besteht? > > Astronomen machen sowas seit Erfindung der Radioastronomie. Die machen ganz etwas anderes. Ohne ein abbildendes System liefern einem auch Millionen von Mikrowellen Empfängern nur die Summe über die Menge der einfallenden Strahlung. Hast du schon einmal versucht, nur mit einer Photozelle ein Bild der Umwelt zu gewinnen? Funktioniert nicht. Für niedrig auflösende Bilder in der Radioastronomie (Himmelsdurchmusterung) kann man zur Abbildung riesen Parabolantennen nehmen und damit den Himmel abrastern. Aber damit bekommt man noch lange keine hochauflösenden Bilder. Das funktioniert erst über Phasenauswertung.
Frank001 schrieb: > Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus > Millionen von miniaturisieren Mikrowellen Empfängern besteht? Rauschen.
Wolfgang schrieb: > Das funktioniert erst über Phasenauswertung. Natürlich wird das gemacht, z.B. bei https://de.wikipedia.org/wiki/UTR-2 und einer Rehe von anderen ebenen 2-dimensionalen Antennenarrays. Das müsste ebenso bei Mikrowellen funktionieren, natürlich in entsprechend verkleinertem Maßstab (und dann verringerter Empfindlichkeit wegen geringerer Fläche).
Wolfgang schrieb: > Das funktioniert erst über > Phasenauswertung. Und was genau nimmst Du als Phasenreferenz?
Bernd schrieb: > Und was genau nimmst Du als Phasenreferenz? Da reicht es die Phasen der einzelnen Antennen gegeneinander zu betrachten, Nullpunkt ist relativ, also z.B. die Phase einer der Antennen. Das Ganze funktioniert doch auch bei Sendern mit mehreren Antennen, die durch die gegenseitig verschobene Phase an den Antennen eine Richtwirkung bekommen.
Bernd schrieb: > Und was genau nimmst Du als Phasenreferenz? Die Signale der benachbarten Antenne, z.B. für VLBI https://de.wikipedia.org/wiki/Very_Long_Baseline_Interferometry
Harald W. schrieb: > Frank001 schrieb: > >> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus >> Millionen von miniaturisieren Mikrowellen Empfängern besteht? > > Rauschen. Sehr aufschlussreich :D
Frank001 schrieb: >>> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus >>> Millionen von miniaturisieren Mikrowellen Empfängern besteht? >> >> Rauschen. > > Sehr aufschlussreich :D Dir ist schon mehrfach erklärt worde, warum das so ist.
Frank001 schrieb: > Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus > Millionen von miniaturisieren Mikrowellen Empfängern besteht? Ein Facettenauge wie bei den Insekten.
>Phasen der einzelnen Antennen gegeneinander
Kann man nicht sogar die Daten eines Radioteleskops im Abstand eines
halben Jahres verrechnen, um als Basisbreite den Durchmesser der Erdbahn
zu benutzen? Aber wie setzt man dafür eine Bezugsphase fest?
Zu meinem Vergleich zwischen Schall und Licht: 30 GHz hat 10 mm
Wellenlänge, 50 GHz wären etwa 7mm. Dieselbe gilt für 50 kHz
Ultraschall, die Fledermaus kann also dicke Nachtfalter "sehen".
Christoph db1uq K. schrieb: > Kann man nicht sogar die Daten eines Radioteleskops im Abstand eines > halben Jahres verrechnen Leider nein! Das Licht durchläuft die Strecke Sonne-Erde in 499 Sekunden, also den Durchmesser der Erdbahn in einer guten Viertelstunde. In der Zeit müsste man auf der anderen Seite sein, wenn man in Vorwärtsrichtung beobachten wollte, und man müsste gleichzeitig auf der anderen Seite sein, wenn man im 90°-Winkel zur Verbindungslinie der beiden Beobachtungsorte beobachten wollte. Funktionieren würde es mit Erde und einem Satelliten auf der anderen Seite, der einem die aufgefangenen Daten sendet. Nur fängt man halt mit Antennen der 3m-Größe nicht allzu viel ein. Man hat Satelliten auf solchen Bahnen, siehe "STEREO" https://stereo.gsfc.nasa.gov/ aber die sind nicht für Radioastronomie geeignet. Die Suche nach "Radioastronomie Satellit" ist erfolglos, auch die Wikipediaartikel zu Radioastronomie und Radioteleskop bringen das Thema Satellit nicht auf.
Im Wikiartikel zu VLBI ist diese (gleichzeitige) Messung von zwei Radioteleskopen mit einem Erddurchmesser Abstand gezeigt. Für die Erdbahn als Basis bräuchte man eine hochpräzise Radioquelle im All, deren Phasenlage man sich so genau ein halbes Jahr "merken" kann, das noch Abweichungen von Bruchteilen eines Grads messbar wären. Ich sehe ein, dass das sehr ambitionierte Forderungen sind.
Christoph db1uq K. schrieb: > deren Phasenlage man sich so genau ein halbes Jahr "merken" kann Das nützt doch nichts, denn du kannst nicht Wellenfronten von jetzt mit denen in 1/2 Jahr vergleichen, auch wenn du von genau 1 Quelle bei genau 1 Frequenz die Phasenlage kennst. Alle anderen Frequenzen und alle anderen Quellen haben andere Phasenlagen. Funktionieren tut es nur immer mit derselben Wellenfront. Die kommt bei zwei Messpunkten in 300 Millionen km Abstand in maximal 1000 Sekunden Zeitdifferenz an, das muss korreliert werden. Mit späteren Wellenfronten funktioniert das nicht, vor allem nicht, wenn die im Submikrometer-Abstand aufeinanderfolgen, und du in 1/2 Jahr etwa 10 hoch 22 Wellenfronten hast. Notwendige Genauigkeit also 1 zu 10 hoch 24 mindestens, pro beobachteter Frequenz und pro Objekt. Bei Radiofrequenzen im Meterbereich verringert sich das um Faktor 1 Million, das kommt allmählich in die Reichweite der besten Atomuhren. Aber überlege wo die Strahlung herkommt - auch die Quelle ändert sich in 1/2 Jahr, die Abstände haben sich geändert - nicht nur um Wellenlängen, sondern in der Gegend 10-100 km/s, usw. - du bekommst es nicht zusammen, sondern immer nur wenn du Ausschnitte derselben Wellenfront hast. Aber ich lasse mich gern belehren, damit ich bei der nächsten Führung keinen Blödsinn erzähle. Nach Corona, spätabends. Außerdem bekommt man mit 2 Messpunkten kein vernünftiges Bild, es sollten mindestens drei sein. Also 2 Satelliten, einer 120° vor, einer 120° nach der Erde in ihrer Bahn (so war es bei STEREO auch geplant), dann kann man einigermaßen gut im 45-90° Winkel nach oben und unten beobachten.
eric schrieb: > Ein Facettenauge wie bei den Insekten. Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher Richtwirkung.
Josef L. schrieb: > Die Suche nach "Radioastronomie Satellit" ist erfolglos, auch die > Wikipediaartikel zu Radioastronomie und Radioteleskop bringen das Thema > Satellit nicht auf. Dann suche mal nach Spektr-R (Apogäum 350000 km, 10m Antenne). https://scitechdaily.com/radioastron-an-international-project-for-vlbi-observations-in-space/
Wolfgang schrieb: > Dann suche mal nach Spektr-R Mir war auch so dass es da was gibt, und ich war bisher auch der Ansicht dass Google die Suchwörter auch zumindest auf englisch übersetzt und entsprechende Ergebnisse bringt - wieso dann bei meinen Stichworten nichts kommt ist mir ein Rätsel. OK, andere Stichworte wie "VLBI from orbit" bringen auch https://www.jpl.nasa.gov/missions/space-very-long-baseline-interferometry-space-vlbi - da habe ich offenbar zu früh aufgegeben. Aber VLBI ist halt schon wieder ein Spezialbegriff gegenüber Radio...
Wolfgang schrieb: > Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher > Richtwirkung. Rechthaber, Besserwisser und Klugscheisser bringen Leben in dieses Forum.
eric schrieb: > ... Bei manchem Unsinn, der hier verbreitet wird, ist es schwierig, den unkommentiert stehen zu lassen.
Bauteiltöter schrieb: > Hi, > > klar kann man die Umgebung auch mit Mikrowellen (GHz-Bereich) scannen > und daraus ein Bild machen, sihehe Synthetic aperture radar: > https://de.wikipedia.org/wiki/Synthetic_Aperture_Radar > > Um so geringer die Wellenlänge, desto schlechter die Auflösung. ...desto BESSER die Auflösung!
Thomas U. schrieb: > Bauteiltöter schrieb: >> ... >> >> Um so geringer die Wellenlänge, desto schlechter die Auflösung. > > ...desto BESSER die Auflösung! Das kommt drauf an, was "schlechter" bzw. "besser" ist. Manchmal hat man Ortsfrequenzen, die bei hoher Auflösung störende Artefakte durch Aliasing erzeugen. Dann ist eine geringere Auflösung eindeutig besser, weil sie als Anti-Aliasing-Filter wirkt. Fest steht nur, das bei gleicher Apertur eine kürzere Wellenlänge zu einer höheren Auflösung führt.
Wolfgang schrieb: > Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher > Richtwirkung. Vereinfachen wir mal: Man nehme irgendeine Form von Richtantenne und ordne sie in einem 10x10 Matrix als Fläche an. Verbinde jede Antenne entweder mit einem separaten SDR Empfänger oder einer Schaltung die den Ausgang aller Antenne abwechselnd zu einem zentralen SDR Empfänger leitet. Man richte die Fläche mit den Antennen in Richtung eines Senders. Durch die Messung der Intensität bei jeder Antenne, sollte doch in einer 10x10 Pixel Auflösung visualisiert werden können, wo sich der Sender befindet? Wäre das dann nicht ein einfacher Bildsensor etwa für Mikrowellen? Wenn es nun möglich wäre für den gewünschten Frequenzbereich tausende kleine Richtantennen zu nehmen. Dann hätte man viel schärfere Mikrowellen Bilder. Das wäre jedenfalls die naive Idee um einen optischen Bildsensor zu imitieren.
Frank001 schrieb: > Wenn es nun möglich wäre für den gewünschten Frequenzbereich tausende > kleine Richtantennen zu nehmen. Dann hätte man viel schärfere > Mikrowellen Bilder. Was erwartest Du da für Bilder? Bilder ähnlich denen eines optischen Sensors oder unscharfes Wischiwaschi?
Stand der Technik, ist es mittlerweile auch möglich mit Wellenlängen im cm-Band Bilder aufzulösen, die einem Kamera-bild ähnlich kommen. Habe zur Zeit grad ein Projekt eines Kunden der auf dem "Walabot" basiert. Man kann damit auch auf grössere Distanzen sehr genaue Bilder enthalten. Es war früher so dass man "Glaubte" man könne nur Bilder mit einem Raster in der ½ der Wellenlänge auflösen. Und man braucht dazu auch nicht 1000ende Antennen, es geht mit viel weniger. Siehe Link. https://walabot.com/de/diy
Harald W. schrieb: > Was erwartest Du da für Bilder? Bilder ähnlich denen eines optischen > Sensors oder unscharfes Wischiwaschi? Bei allen sogenannten 'Bildsensoren', die mir einfallen, wird das Bild aus Einzelelementen in einer Signalverarbeitung (z.B. Gehirn) zusammengesetzt: das menschliche Auge das menschliche Ohr das Insektenauge die Photo-Emulsion die elektronische Kamera das Radio-Interferometer Es scheint ein Naturprinzip zu sein.
eric schrieb: > wird das Bild aus Einzelelementen in einer Signalverarbeitung > (z.B. Gehirn) zusammengesetzt: Deine Beispiele teilen sich aber auf in 3 verschiedene Prinzipien: - Das Insektenauge beruht auf Sensoren, die bereits eine Richtwirkung haben (langes Rohr mit Sensor am Ende - dann Auge, Kamera etc. die die Richtwirkung durch ein Objektiv bekommen (Beugung oder Brechung) - dann Ohr, Interferometer, wo direkt die Laufzeitunterschiede ausgewertet werden müssen So wie man eine Optik für Röntgenstrahlen hinbekommen hat, gibt es ja auch Optiken für Mikro- und Radiowellen, vornehmlich Parabolspiegel. Bis zu welcher Wellenlänge Linsen wie zB aus Germanium funktionieren können, kann man ja googeln, zB bei https://www.pleiger-laseroptik.de/germanium_linsen/ dort steht: Einsatzbereich 2-12µm
Harald W. schrieb: > Was erwartest Du da für Bilder? Bilder ähnlich denen eines optischen > Sensors oder unscharfes Wischiwaschi? Ich denke die Auflösung kommt nicht die von optischen Bildsensoren heran. Aber wäre gut genug um die Umgebung auf bestimmte Frequenzen zu überwachen. Angenommen die Mikrowellen "Kamera" wäre auf eine Landschaft ausgerichtet mit Menschen die Handys mit sich tragen, Flugzeuge am Himmel die irgendwelche Signale senden, Fahrzeuge mit Funkgeräten. Es mag nicht reichen um die Form der Objekte genau zu erkennen. Aber selbst mit groben Mustern würde man erkennen, dass sich verschiedene Objekte durch den Raum bewegen, die entweder von sich aus Signale aussenden oder von denen Signale der Umgebung reflektiert werden. Da verschieden geformte Oberflächen und Materialien unterschiedlich reflektieren müsste man da auch spezifische Muster erkennen. Vermutlich kann man man aus dem Muster an Signalen noch einiges softwaretechnisch raus holen. Es bietet sich an Künstliche Neuronale Netze anzuwenden und sie darin zu trainieren bestimmte Muster und Objekte selbst in stark verrauschten Daten zu erkennen. Ein KNN könnte die typischen Reflexionen von bestimmten Formen und Materialien erkennen und so aus den schwammigen Aufnahmen noch mehr Informationen raus holen. Gut trainierte KNNs erkennen bei der typischen Bilderkennung Formen selbst in stark verrauschten Bildern, wo Menschen nur Pixelbrei wahrnehmen. Es muss ja auch keine kleine handliche Kamera sein. Man kann es sich auch als eine mehrere m² große Sensorfläche vorstellen. Montiert auf einer Basis oder einem Fahrzeug. Ich glaube das was mir da vorschwebt ist ähnlich wie eine Phased-Array-Antenne. Wo aber jeder kleiner Empfänger selbst eine Richtantenne darstellt. Klärt mich ruhig auf, falls dass ganze so nicht funktionieren kann, wie ich es mir vorstelle.
Frank001 schrieb: > Klärt mich ruhig auf, falls dass ganze so nicht funktionieren kann, wie > ich es mir vorstelle. Das ist schon mehrfach in diesem Thread geschehen.
Frank001 schrieb: > Klärt mich ruhig auf, falls dass ganze so nicht funktionieren kann, wie > ich es mir vorstelle. Mach dich mal über Walabot schlau, Dies ist aus einem Open Source Projekt entstanden worüber mann nun einige Hack findet. Mitunter kann man bereits Mäuse in den Wänden erkennen, ja bis hin sogar das Herz des Tieres sehen. Andere Hack's gibt's auch zum aus etwas Entfernung des Herz eines Menschen schlagen zu sehen usw. Und das alles wohlverstanden mit Radiowellen die ein Vielfaches der Wellenlänge der möglichen Auflösung haben. Nein es sind nicht mal hunderte Antennen erforderlich dies zu realisieren.
Frank001 schrieb: > Wolfgang schrieb: >> Unsinn, dafür bräuchtest du "Millionen" von Antennen mit hoher >> Richtwirkung. > > Vereinfachen wir mal: Man nehme irgendeine Form von Richtantenne und > ordne sie in einem 10x10 Matrix als Fläche an. > Verbinde jede Antenne entweder mit einem separaten SDR Empfänger oder > einer Schaltung die den Ausgang aller Antenne abwechselnd zu einem > zentralen SDR Empfänger leitet. Eben - mit ausreichend richtscharfen Antennen ist das kein Problem - bei einer statischen Szene wäre es auch egal, ob parallel per Array oder sequentiell per Scanner abgetastet wird. eric behauptete aber, dass man mit Millionen von Mikrowellen Empfängern schon ein Facettenauge wie bei den Insekten hätte. Die Sensoren alleine nützen aber überhaupt nichts, wenn die bilderzeugende Optik davor fehlt.
Wolfgang schrieb: > eric behauptete aber, dass ... > ...die bilderzeugende Optik davor fehlt. Das hast Du hinein interpretiert, um Dich als Besserwisser zu präsentieren. Es gibt keine isotropen Strahler. Darum hat jeder Sensor eine gewisse Richtcharakteristik. Selbst eine Öffnung ohne Linse formt ein Bild. Das vom Gesamtsystem geschaffene Bild wird durch Anzahl, Anordnung, Ausrichtung und Auswertung der Sensoren bestimmt, egal nach welchem physikalischem Prinzip der einzelne Sensor arbeitet.
eric schrieb: > Das hast Du hinein interpretiert, > um Dich als Besserwisser zu präsentieren. Ich dachte, das hätten wir geklärt 🤔 Nimm mal den Bildsensor einer Kamera (entsprechen den Mikrowellen Empfängern) und lass den ohne Optik (entsprechend den Antennen) in die Landschaft gucken. Dann wird jeder Sensor ziemlich genau die gleiche Lichtmenge erhalten und entsprechend gleich sehen die Pixel aus, die aus dem Sensor ausgelesen werden. Nix mit Bild. Ohne reeles Bild nützt dir der schönste Bildsensor nichts. Beim Facettenauge besitzt jedes Pixel eine eigene Optik, die nur Licht aus einem kleinen Raumwinkelbereich auf das Bildelement (den Empfänger) fallen lässt. eric schrieb: > Frank001 schrieb: >> Was für Daten erhält man, wenn man ein Bildsensor hätte, dass aus >> Millionen von miniaturisieren Mikrowellen Empfängern besteht? > > Ein Facettenauge wie bei den Insekten.
Wolfgang schrieb: > Nix mit Bild. Du vergisst, dass die Mikrowellensensoren auch die Phase der Welle aufzeichnen können. Mit dieser Information von jedem Sensor kann man die tatsächliche Wellenfront rekonstruieren und damit das Bild. Sozusagen eine simulierte Optik. Das ist doch das, was auch bei VLBI benutzt wird, auch wenn man dabei nur wenige Sensoren (3-50) hat. Ohne Kenntnis der Phasen (CMOS-Sensor ohne Optik davor) bekommt man tatsächlich kein Bild.
Josef L. schrieb: > Du vergisst, dass die Mikrowellensensoren auch die Phase der Welle > aufzeichnen können. Dann dürfen es aber keine unabhängigen Empfänger sein, sondern im Rechner dahinter muss die "Optik" gerechnet werden, i.e. das was in der Optik vielleicht einem Array von vielen Fresnel-Zonenplatten für die Richtungsselektivität entsprechen würden. Da werden quasi alle Richtungen parallel empfangen und im Rechner getrennt. Auch da bestimmt die Größe des Arrays das Auflösungsvermögen - je weiter die "Empfänger" auseinander stehen, um so besser ist die Auflösung, nicht anders als bei einem Teleskop der Spiegeldurchmesser. Bei einem Bildsensor mit hoher Auflösung ist es genau umgekehrt - viele Pixel müssen dicht beieinander stehen, um Details aufzulösen, so denn das reelle Bild, dass auf den Sensor geworfen wurde, scharf genug ist, um aus der hohen Pixeldichte einen Gewinn an Bildinformation zu ziehen. Mit miniaturisieren Mikrowellen Empfängern hat das nichts zu tun. Es muss ein Empfänger mit vielen Kanälen sein, deren Phase synchronisiert ist. Außerdem brauchst du zusätzlich den "kleinen" Rechner-Cluster, um überhaupt an die Bildinformation zu kommen. Die Fouriertransformation findet dabei nicht durch die Optik, sondern im Rechner statt.
Wolfgang schrieb: > Bei einem Bildsensor mit hoher Auflösung ist es genau umgekehrt Falsch. Die Auflösung bekommt er nur durch die Optik, deren Durchmesser bzw. Ausdehnung ist maßgeblich. Durch die Brennweite bzw. Maß der Fokussierung kann man das auf ein Sensorarray abbilden, das kleiner als die Optik ist (oder auch größer, meist nicht so sinnvoll, oder - Beamer vielleicht?) Bei VLBI spannen die Antennen den Bereich auf, in dem die Wellenfront abgetastet wird, bei der Optik ist es deren Öffnung. Rest der Betrachtung OK.
@Wolfgang Schau dir eine TV-Parabolantenne an. Eine mit 1 LNB hat 1 Pixel. Es gibt aber LNB mit mehreren Dipolen drin, die haben dann 2 oder mehr Pixel. Die Öffnung der Anordnung ist der (wirksame, da elliptisch) Antennendurchmesser, er bestimmt die Auflösung, d.h. das was man "Antennenkeule" nennt; bei 80cm und 12GHz (2.5cm) 2.5/80 rad = 2° (kann noch ein Faktor 2 drin sein). Das wäre die Winkelauflösung am Himmel, und abhängig von der Brennweite des Spiegels (25cm?) kann man dann den Mindestabstand der Dipole voneinander ausrechnen, liegt im Bereich der Wellenlänge.
Josef L. schrieb: > Wolfgang schrieb: >> Bei einem Bildsensor mit hoher Auflösung ist es genau umgekehrt > > Falsch. Die Auflösung bekommt er nur durch die Optik, deren Durchmesser > bzw. Ausdehnung ist maßgeblich. Du darfst mich gerne vollständig zitieren: Dahinter kam noch "... so denn das reelle Bild, dass auf den Sensor geworfen wurde, scharf genug ist, um aus der hohen Pixeldichte einen Gewinn an Bildinformation zu ziehen.". Das bestaufgelöste Bild, erzeugt durch die Optik, nützt dir überhaupt nichts, wenn die Abtastfrequenz im Ortsraum nicht hoch genug ist, i.e. wenn der Pixelabstand zu groß ist. Josef L. schrieb: > Schau dir eine TV-Parabolantenne an. Eine mit 1 LNB hat 1 Pixel. Eben. Und um ein Mikrowellen-Facettenauge zu bauen, brauchst du als "Optik" eine Schüssel vor jedem einzelnen Mikrowellenempfänger. Alle Schüsseln gucken in verschiedene Richtungen.
Bauteiltöter schrieb: > Um so geringer die Wellenlänge, desto schlechter die Auflösung. Es ist umgekehrt. Bei Licht hat man mit blau eine bessere Auflösung als mit rot.
Gerald K. schrieb: > Es ist umgekehrt. Schön, dass du das nach 22 Tagen auch noch mal sagst ;-) Sven D. schrieb: > Es ist andersrum.
Wolfgang schrieb: >> Es ist umgekehrt. > > Schön, dass du das nach 22 Tagen auch noch mal sagst ;-) Es ist zwar schon alles gesagt, aber noch nicht von allen...
Sehr interessante Diskussion, ich werfe mal ein paar Begriffe zum suchen ein. SAR, ISAR, 3D MIMO Radar, Nacktscanner. Und was hat die Bandbreite mit der Auflösung zu tun? ;-)
Wolfgang schrieb: > Und um ein Mikrowellen-Facettenauge zu bauen, brauchst du als > "Optik" eine Schüssel vor jedem einzelnen Mikrowellenempfänger. Alle > Schüsseln gucken in verschiedene Richtungen. Du hast nicht gelesen: Es reicht 1 Optik und in der Brennebene mehrere Empfänger (Sensoren), zB quadratisches Array. Jedes Element schaut in eine andere Richtung. So funktioniert ein Spiegel...
Josef L. schrieb: > Du hast nicht gelesen: Es reicht 1 Optik und in der Brennebene mehrere > Empfänger (Sensoren) ... Dann hast du aber kein Facettenauge, sondern eine Optik, die ein reelles Bild erzeugt und dieses Bild wird von einem Array von Einzelsensoren abgetastet. Bei einem Facettenauge hat jedes "Pixel" seine eigene Optik. https://de.wikipedia.org/wiki/Facettenauge
Wolfgang schrieb: > sondern eine Optik, die ein reelles > Bild erzeugt und dieses Bild wird von einem Array von Einzelsensoren > abgetastet Ja, was denn sonst? Erzeugt ein zweidimensionales Bild mit Radiohelligkeiten. So ist das ja gewollt, oder nicht? Beantwortet die Eingangsfrage.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.