Wie hält der Curiosity Rover seine Kameralinsen sauber?

Apr 30 2021

Antworten

EdwardStreet Sep 17 2018 at 21:20

Dies ist eine ziemlich alte Frage, dennoch scheint es immer noch viele Follower zu geben.

Der MAHLI (Mars Hand Lens Imager) verfügt über eine Staubschutzhülle, die geöffnet und geschlossen werden kann. Das erste Bild von MALHI mit geöffnetem Objektivdeckel entstand am Sol 33 (8. September 2012). Unten ist ein Bild des MAHLI, das von der linken Mastcam aufgenommen wurde:

Beachten Sie die Staubschutzhülle in der Mitte des Bildes. Als nächstes das allererste Bild, das durch die Staubschutzhülle aufgenommen wurde

Das erste Bild, das NACH dem Öffnen der Staubschutzhülle aufgenommen wurde

Ein genauerer Blick auf die offene Baugruppe zeigt Staubansammlungen

Die Mastcams verfügen nicht über ein solches System. Sie verlassen sich vielmehr auf ein äußeres Saphirfenster für jede Linse, das Schutz vor Staub bietet. Mastcam-Detektoren weisen gelegentlich eine kleine feste Anzahl toter und grauer Pixel pro Kamera und eine variable Anzahl heißer Pixel auf, die von der Belichtungszeit der Bilder und den Launen des Sonnenzyklus und der Flussaktivität der kosmischen Strahlung abhängt. Das übliche Mittel ist das Flatfielding der grauen Pixel, allerdings sind diese nicht konsistent und neigen dazu, zu kommen und zu gehen.

Die Navcams sind nach unten gerichtet, um zu verhindern, dass sich bei Nichtgebrauch Staub auf den Kameralinsen ablagert. Die Hazcams verfügen über keinen besonderen Schutz.

Dadurch erhalten Sie eine Referenz auf alle Kamerastandorte

MarioGravina May 31 2017 at 22:23

Das ist eine wirklich gute Frage.

Die Marsrover wurden mit einer Reihe von Kameras zum Roten Planeten geschickt.

Tatsächlich befanden sich allein an Bord der Curiosity nicht weniger als 17 Kameras!… (Viel zu sehen, Krater zu besichtigen, Röte zum Fotografieren)

Der Hauptgrund dafür, dass Bilder „verschwommen“ oder „manipuliert“ zu sein scheinen, liegt in der Art und Weise, wie diese Kameras konstruiert wurden, und in dem Zweck, dem sie dienen.

Bei einem rollenden Rover, der aus großer Entfernung ferngesteuert arbeitet, ist jedes Gramm und jedes Gramm Gewicht kostbar. Deshalb muss jede Mutter und Schraube, jedes einzelne Bauteil möglichst vielen Zwecken dienen.

Dies ist der Fall bei den Mastcams (befindet sich am Mast des Rovers). Stellen Sie sich diese Kameras im Wesentlichen als Weitwinkelkamera und Zoomkamera (oder Telekamera) vor.

Nun, diese Kameras sind nicht ganz so wie die, die Sie oder ich verwenden würden. Tatsächlich liefern sie ohne einen gewissen Arbeitsaufwand (oder, wie Sie es ausdrücken, Manipulation) nicht genau die gleichen Ergebnisse wie unsere Kameras.

Und genau wie die Kameras nicht gleich sind, ist auch die Marsatmosphäre nicht gleich. Aus diesem Grund (und weil Licht nicht nur das ist, was wir sehen, sondern auch viel mehr, was wir nicht sehen können, wie zum Beispiel Infrarot) müssen in diese Kameras spezielle Filter oder Konfigurationen eingebaut werden, damit sie ordnungsgemäß funktionieren bei ihrem maximalen Potenzial.

So haben es Experten ausgedrückt:

„Die Farbkameras auf dem Marsrover Curiosity der NASA, einschließlich des Paares, aus dem das Mastkamera-Instrument (Mastcam) des Rovers besteht, verwenden denselben Typ von Bayer-Muster-RGB-Filter, wie er in typischen kommerziellen Farbkameras zu finden ist.“ Bayer-Filterung bedeutet, dass das ladungsgekoppelte Gerät (CCD), das jedes Pixel des Bildes erkennt, mit einem Raster aus Grün-, Rot- und Blaufiltern abgedeckt wird, sodass die Kamera die drei Farbkomponenten der gesamten Szene in einer einzigen Aufnahme erhält. Die Elektronik in der Kamera kann dann die einzelnen Farbpixelsätze zu einem einzigen Vollfarbbild zusammenführen.

Neben dem fest angebrachten Rot-Grün-Blau-Filtergitter verfügen die Mastcam-Kameras außerdem jeweils über ein Filterrad mit acht Positionen und speziellen wissenschaftlichen Filtern zwischen der Kameraoptik und dem CCD. Das Rad kann gedreht werden, um einen dieser Schmalbandfilter im sichtbaren Licht- oder Infrarotbereich des Spektrums oder gar keinen Filter auszuwählen. Das Filterrad jeder Kamera enthält sechs wissenschaftliche Filter, die zusammen mit beiden Kameras Bilder in neun einzigartigen Wellenlängen vom tiefen Blau (445 Nanometer) bis zum kurzwelligen Nahinfrarot (1012 Nanometer) liefern können. Ein zusätzlicher wissenschaftlicher Filter in jedem Rad ist speziell dafür konzipiert, eine direkte Abbildung der Sonne zu ermöglichen.“ [Quelle: NASA/JPL-Caltech/MSSS/ASU]

Dies bedeutet, dass das Bild je nach verwendetem Filter zunächst möglicherweise nicht wie erwartet aussieht.

Oben sehen Sie die M-100-Kamera, die zwei Fotos vom selben Ort aufnimmt – zum Testen –, eines jedoch mit dem RGB-Filter im Bayer-Stil (den normale Kameras verwenden) und einer IR-Aufnahme (oder Infrarotspektrum). Während bei einer Nachtaufnahme das Bild auf der linken Seite pechschwarz gewesen wäre, wäre das Bild auf der rechten Seite mehr oder weniger dasselbe gewesen. Es ist wichtig, dies als Konzept zu verstehen, denn wenn wir bestimmte Weltraumfotos betrachten, bei denen kein sichtbares Licht verfügbar ist, sehen wir möglicherweise rekonstruierte – oder angepasste – Versionen von Bildern wie das rechts. (Wieso? Sie färben es basierend auf den verfügbaren Wellenlängeninformationen ein, ähnlich wie sie es mit alten Schwarzweißfilmen machen, nur dass sie etwas präziser sind.)

Ein weiterer – und für diese Antwort letzter – Aspekt der Manipulation oder Unschärfe tritt auf, wenn Bilder aufgenommen werden, um sie als Mosaike zu verwenden oder einfach umzuformen, um darzustellen, was unsere Augen sehen würden, wenn wir mit dem Rover dort stünden.

Im Bild oben sehen wir ein Mosaik von Bildern, die von Curiositys ungeschickter Mastcam-Bewegung (verzeihen Sie, JPL Gods!! /Wink) aufgenommen wurden, um eine Reihe von Bildern so anzupassen, dass ein einziges Weitwinkelbild aussehen würde. Und basierend auf anderen Informationen, die zusammen mit diesen Bildern empfangen werden, könnte eine kolorierte Version erstellt werden, anstatt dass die Kamera 10 Bilder von jedem Ort aufnimmt, eines mit jedem Filter.

Eine weitere Frage, die sich stellen könnte, ist: „Warum nicht den dunklen Bereich in der unteren rechten Ecke des Bildes fotografieren?“ Die Antwort wäre, dass sie entweder erfasst und nicht in dieses Mosaik einbezogen wurden, oder dass es sich nur um das Wesentliche handelte Bilder wurden aufgenommen.

Denken Sie daran, dass jedes erfasste Bild Strom vom Rover verbraucht. Anschließend muss es komprimiert und per Downlink übertragen werden, um von JPL dekomprimiert und dekodiert zu werden. Weit davon entfernt, dort oben einen Teenager mit Selfie-Stick und unbegrenztem Akku zu haben. Ein weiterer Grund für die Verwendung von Filtern und die anschließende zusätzliche Verarbeitung hier auf der Erde, anstatt den gesamten „Kodak-Moment“ von der Marsoberfläche aus erzeugen zu lassen.

Um ein Beispiel zu veranschaulichen: Curiosity hat 2014 am Standort Kimberley Bilder aufgenommen, die koloriert und zu einem Mosaik verarbeitet wurden:

Zusammenfassend lässt sich sagen, dass es sich lohnt, dies im Hinterkopf zu behalten. Glauben Sie nicht unbedingt, dass alles, was Sie sehen, genau so ist, wie das Auge es sehen würde. Es ist ziemlich schwierig, es mithilfe der verfügbaren Technologie aus anderen Welten zu übertragen. Wir haben einige Bilder, die RGB-gefiltert wurden und uns das zeigen, was wir sehen würden, wenn wir an der Seite der Marsrover stünden. Die Wahrheit ist, dass Sie außerhalb des letzten Jahrzehnts und außerhalb des Mondes oder des Mars kaum Bilder finden werden, die nicht gefiltert, koloriert und an unser alltägliches Verständnis angepasst wurden.

Ich hoffe, das hilft bei der Beantwortung Ihrer Frage.

Alles Gute,

PS: Das Verständnis der Geschichte der Bildverarbeitung ist eine weitere Möglichkeit, den Ursprung dieser Technologie und Praktiken zu erkennen. Hier ist ein großartiges Kapitel, das die Grundlagen der Bildverarbeitung in den 1960er Jahren von Billingsley und Brandt erklärt. KLICKEN SIE HIER