Zum Inhalt springen

Astrophotographie/ Foto1

Aus Wikibooks


Funktionsprinzip eines Digitalen Lichtsensors

[Bearbeiten]

Ein Pixel ist der kleinste Teil eines Lichtsensors. So ein Lichtsensor speichert einfallendes Licht (die Photonen) als Ladungen. Das kann sich der Laie als viele Wassereimer in einer Matrix (10×10) angeordnet vorstellen. Wenn ein Wassertropfen einem Photon entspricht, wird mit einem Wasserschlauch das Bild erzeugt, indem der Schlauch über diese Eimer gehalten wird. Anschließend wird in jedem Eimer gezählt, wie viele Tropfen hineingefallen sind. Der Eimer mit den meissten Tropfen hat das hellste Pixel des Bildes.

Ähnlich wie bei den Wassereimern kann auch ein tatsächliches Pixel nur eine bestimmte Menge an Licht aufnehmen, bevor es überläuft. Ein solches Überlaufen bei Überbelichtung wird blooming genannt. Benachbarte Pixel werden dann mit den Ladungen des übervollen Pixels überschwemmt.

Auch die Wassereimer sind nicht perfekt, denn manche sind kleiner als die anderen und einige haben ein Loch im Boden, so dass das Wasser heraustropft. Übersetzt heißt das, das einige Pixel sehr schnell voll geladen sind und andere Pixel sind bei gleichem Licht weniger geladen als die anderen. Diese Eigenschaft muss bei den Aufnahmen natürlich berücksichtigt werden, wenn ein genaues Ergebnis erwartet wird. Also ist ein Lichtsensor wie das CCD oder CMOS-Element schon nach der Herstellung nicht vollkommen gleichmäßig empfindlich auf allen Pixeln.

< Aufbau, Material, Ladungsspeicherung, Photon, Empfindlichkeit, Ladungstransport.>

Eigenschaften eines CCD-Sensors

[Bearbeiten]

< Dunkelstrom, Gleichspannungsoverhead, Unterschiedliche Empfindlichkeit der Pixel, Temperaturabhängigkeit des Dunkelstromes, Möglichkeiten aufzeigen diese schlechten Eigenschaften zu vermindern. Hotpixel. >

Dunkelbild und durchschnittliches Dunkelbild /Darkframe

[Bearbeiten]

Eine Dunkelbildaufnahme wird angefertigt, um sehen zu können, wie viel Ladungen die Pixel des Lichtempfängers (CCD oder CMOS) bei absoluter Dunkelheit aufnehmen. Dazu wird bei gleicher (Chip-)Temperatur und gleicher Belichtungszeit mit der später die richtigen Aufnahmen angefertigt werden sollen, bei abgedeckten Sensor oder geschlossenen Verschluss eine Aufnahme gemacht und gespeichert.

Bei Betrachtung dieser Dunkelbildaufnahme ist zu sehen, dass es große Bereiche gibt, die nicht absolut dunkel und sogar einige wenige Pixel sehr hell sind. die wenigen sehr hellen Pixel werden Hotpixel genannt und sind defekte auf dem Sensor-Element, die beim Herstellungsprozess auftreten können und trotzdem nicht aussortiert werden, weil die Lichtsensoren sehr teuer sind. Die Bereiche die ein wenig hell sind, obwohl kein Licht darauf gefallen ist, sind besonders Wärmeempfindlich und haben die Umgebungswärme als Elektronenladung wahrgenommen und sind deshalb belichtet worden. Das ist eine völlig normale Eigenschaft von Halbleiterwerkstoffen, Wärme in Ladungen umzuwandeln. Je nach Reinheit des Materials und dessen Dotierung ist dies unterschiedlich stark für jedes Pixel zu beobachten.

Die Chiptemperatur ist bei der Aufnahme des Dunkelbildes deshalb so wichtig, weil der Rauschanteil mit steigender Temperatur stark zunimmt. Die Kurve des Rauschens ist nicht linear. Im Vergleich zu einer Aufnahme bei 20°Celsius ist eine Aufnahme mit gleicher Belichtungszeit bei 0° Celsius um ein vielfaches weniger verrauscht. Der Temperaturbereich unter dem Gefrierpunkt verbessert zwar immernoch das Rauschverhalten, bewirkt aber keine wesentliche Verbesserung mehr. Zu beachten ist dabei, dass nicht jeder Lichtsensor unter minus 10°Celsius heruntergekühlt werden darf, weil der Hersteller ihn dafür nicht ausgelegt hat. Bei dem Herunterkühlen unter den Gefrierpunkt kann es außerdem zur Eisbildung auf dem Lichtsensor kommen.

Wenn durch die Dunkelbildaufnahme die Defekte und Ungleichmäßigkeiten für jedes Pixel bekannt sind, ist es später möglich die tatsächliche Aufnahme damit zu verrechnen, um ein genaueres Ergebnis zu bekommen oder zum Beispiel besonders schlechte (defekte)Bereiche in einen unwichtigen Bildauschnitt zu verlegen.


Hellbild/Flatfield

[Bearbeiten]

Bei dem Hellbild ist es notwendig eine gleichmäßige diffuse Beleuchtung hinzubekommen. Diese Aufnahme wird erst angefertigt, wenn die Kamera schon fest mit dem Teleskop verbunden ist. Sie ist dazu geeignet, Ungleichmäßigkeiten des Bildsensors und Staub im Lichtweg(dem Teleskop) sichtbar zu machen. Bei angenommener absolut sauberer Optik, wird dadurch jede noch so kleine Abweichung der Lichtempfindlichkeit jedes Pixels offenbart. Theoretisch sollte ja jedes Pixel bei gleicher Anzahl Photonen(Lichteinheiten) auch die gleiche elektrische Ladung annehmen. In der Praxis ist das natürlich nicht der Fall, da es schon im Herstellungsprozess geringe Schwankungen gibt, die sich nicht vermeiden lassen. Mit dem Hellbild wird es möglich, diese Schwankungen rechnerisch an der Aufnahme auszugleichen. Es wird angefertigt, in dem das Teleskop auf eine weiße Fläche innerhalb der Kuppel gerichtet wird und dann diese Fläche mit diffusem Licht angestrahlt und abfotografiert wird.

Binning

[Bearbeiten]

Jedes Pixel auf dem Sensor hat eine bestimmte Größe. Einige moderne Pixel sind nur 7 micrometer Hoch und Breit. Ältere und teure Moderne Pixel haben eine Kantenlänge von 20 und mehr micrometern. Je mehr Fläche ein Pixel hat, desto mehr Licht kann es in der gleichen Zeitspanne wie ein kleineres Pixel sammeln. Um die Lichtempfindlichkeit zu steigern können mehrere nebeneinanderliegende Pixel rechnerisch zusammengefasst werden. Dabei verringert sich allerdings auch die gesammte Auflösung um den gleichen Faktor. Als Beispiel nehmen wir hier das 2×2-Binning. Dabei werden vier Pixel zu einem Pixel zusammengezogen. Alles Licht, das auf diesen gespeichert wurde, wird zusammenaddiert. Wenn der Sensor eine Größe von 200×200 Pixel hat, dann wird daraus nach dem Binning ein Bild mit den Abmessungen 100×100 Pixel. Das hat nicht nur den Vorteil der höheren Lichtausbeute, sondern auch den Vorteil eines geringeren Rauschens, da sich bei dem Zusammenaddieren auch die vollkommen zufälligen Rauschanteile relativieren.

Dynamikumfang

[Bearbeiten]

Der Dynamikumfang bei Digitalfotos ist abhängig vom Aufnahmegerät und vom Zielformat, in das das Foto gespeichert werden soll. Es beschreibt die Anzahl der möglichen Spannungspegel bei der Quantisierung der Lichtteilchen, die auf das Sensorelement (zum Beispiel das CCD der Kamera) auftreffen. Je größer die Anzahl dieser Stufen, desto feiner können winzige Unterschiede in der Helligkeit wahrgenommen werden. Ausserdem fällt bei höherer Dynamik das Rauschen weniger ins Gewicht. Das Rauschen des Sensors verringert den nutzbaren Dynamikbereich und verschlechtert das Bild dadurch, dass die Stellen die normalerweise absolut Schwarz wären, etwas Grau sind. Mit der Bildbearbeitung kann aber dieser Makel leicht beseitigt werden, so das der Betrachter nicht negativ beeinflußt wird.

Moderne Monitore sind nicht in der Lage Bilder darzustellen, die eine höhere Dynamik als 16 Bit aufweisen. Unser Auge kann auch nicht mehr Unterschiede als 14 Bit auflösen. Also selbst wenn ein Bild mit echten 24 Bit Quantisiert wurde, können wir keinen Unterschied zwischen einem 16 Bit-Bild feststellen (Ohne die Helligkeit des Monitors zu verstellen). Einige Bildformate erlauben nur eine maximal mögliche Dynamik von 8 Bit. Zum Beispiel das populäre GIF-Format, da es nur für Internetbilder und geringe Speichergröße gedacht war. PNG-Grafiken und FITS-Dateien können Bilder mit 16 Bit Dynamik speichern.


Bei den Lichtsensoren ist üblicherweise im Datenblatt angegeben, wieviele Photonen nötig sind, um eine Bestimmte Spannung zu erzeugen, die dann vom AD-Wandler der Kamera in digitale Messwerte übersetzt wird. Wenn dieser AD-Wandler nur mit 8 Bit Quantisiert, hat das Bild nur 256 verschiedene Helligkeitswerte (Bei Farbsensoren für jede Farbe 256 Werte). Bei 16 Bit sind es immerhin schon über 65.000 mögliche Werte. Anhand des Datenblattes und der Helligkeit kann dann errechnet werden, wieviele Photonen das Pixel getroffen haben. Dies kann für die wissenschaftliche Auswertung von Wichtigkeit sein.

2 Beispielbilder zum Dynamikumfang. Kennlinie des Dynamikbereiches.

Bilddatenformate

[Bearbeiten]
  • FITS: Das FITS Bilddatenformat ist ein speziell für die Astronomie von der NASA entwickelt worden, um die gewonnenen Daten möglichst verlustlos zu speichern und gleichzeitig wichtige Zusatzinformationen wie Belichtungszeit, verwendete Filter, Datum, Belichtungszeit, Sternenkoordinaten und vieles mehr darin mit unterzubringen. (Als dieses Format entwickelt wurde, gab es noch keine Exif-Informationen)
  • Tiff: Dies ist ein Rasterbitmapformat, mit dem es möglich ist, Bilddaten Verlustfrei zu speichern. Also jedes einzelne Pixel hat die volle Informationsdichte über die Helligkeit und Farbe.
  • Jpg: Dies ist ein verlustbehaftetes Bilddatenformat das benutzt wird, um Bilder so zu speichern, dass sie nur wenig Speicherplatz verbrauchen. Die Kompression kann dabei vor dem Speichern so gewählt werden, dass in dem Endergebnis genügend Details zu sehen sind und dabei die Datenmenge um ein Vielfaches verkleinert wird.