Astronomie

Algorithmus zum Stapeln astronomischer Bilder

Algorithmus zum Stapeln astronomischer Bilder


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich suche einen einfachen Algorithmus, um astronomische Bilder (der gleichen Himmelsregion) miteinander zu vergleichen, ihre Bewegung und Rotation zu berechnen, um sie schließlich zu stapeln.

Im Moment habe ich bereits einen mehr oder weniger funktionierenden Algorithmus. Zuerst extrahiere ich alle Sterne aus einem Bild (einschließlich Informationen wie Helligkeit und FWHM), und gehe dann durch alle resultierenden "Punkte" und erstelle Dreiecke aus dem aktuellen Punkt und den beiden anderen Sternen, die die kürzeste Entfernung zu diesem haben have Star.

Diese Liste von Dreiecken wird für jedes Bild erstellt. Danach nehme ich ein Bild als Referenz und gehe dann durch die Liste der Dreiecke im Referenzbild, um im anderen Bild ein Dreieck mit der gleichen Länge jeder Seite des Dreiecks zu finden (ich "erlaube" auch eine gewisse Toleranz aufgrund von minimalem relative Unterschiede der Sternpositionen in jedem Bild). Für diese Übereinstimmungen berechne ich Bewegung und Drehung relativ zum Referenzbild. Der letzte Schritt besteht darin, die übereinstimmenden Dreiecke zu finden, die die gleiche relative Bewegung und Drehung wie die anderen Übereinstimmungen haben. Dies geschieht durch Berechnen der Standardabweichung, Aussortieren von Dreiecken, die nicht innerhalb von 1 oder 2 Sigma liegen, und wiederholen diesen Vorgang, bis ich eine sehr kleine Standardabweichung habe.

Der letzte Teil, "gültige" Dreiecke mit derselben Bewegung / Drehung zu finden, funktioniert gut. Das Problem ist, dass ich manchmal nur 2 oder 3 "gültige" Dreiecke von 300 anfänglichen Dreiecken habe. Alle anderen Dreiecke haben andere Seitenlängen als das Referenzbild.

Ich gehe also davon aus, dass die Art und Weise, wie ich meine anfänglichen Dreiecke erzeuge, das Problem verursacht. Das Sortieren von Sternen nach ihrer Helligkeit und die Verwendung dieser Daten zum Generieren der Dreiecke funktioniert ebenfalls nicht. Gibt es also eine bessere Möglichkeit, die Anfangsdreiecke in allen Bildern zu erstellen?


Diese Seite über ein kommerzielles Produkt geht ins Detail auf ihren Algorithmus. Es führt den von Ihnen beschriebenen Dreiecksabgleich durch, mit etwas wie simuliertem Glühen, um eine optimalere Lösung zu erhalten.

Die akzeptierte Antwort auf diese eng verwandte Frage empfiehlt die Panoramasoftware Hugin; Es ist Open Source, daher sollten Sie in der Lage sein, die verwendeten Algorithmen nachzuvollziehen.


Schauen Sie sich SCAMP für Astrometrie und SWarp für Stacking an. Wie die in der anderen Antwort erwähnte Software sind beide Open Source, sodass Sie überprüfen können, welche Algorithmen sie verwenden.

Die SCAMP-Dokumentation ist hier, mit einer Erklärung des Algorithmus in Kapitel 6.7 (Seite 25). Es gibt auch ein kurzes Papier, aber das Handbuch scheint gründlicher zu sein.

Beachten Sie, dass die Software für Weitfeld-Multi-CCD-Mosaik-Detektoren geschrieben wurde.


Stapeln von Astronomiebildern mit Python

Ich dachte, das würde einfacher werden, aber nach einer Weile gebe ich es endlich auf, zumindest für ein paar Stunden.

Ich wollte dies als Trailing Stars-Bild aus einem Zeitraffer-Satz von Bildern reproduzieren. Davon inspiriert:

Der ursprüngliche Autor verwendete Videoframes mit niedriger Auflösung, die mit VirtualDub aufgenommen und mit imageJ kombiniert wurden. Ich stellte mir vor, dass ich diesen Prozess leicht reproduzieren könnte, aber mit einem speicherbewussteren Ansatz mit Python, sodass ich die hochauflösenden Originalbilder für eine bessere Ausgabe verwenden könnte.

Die Idee meines Algorithmus ist einfach, zwei Bilder gleichzeitig zusammenzuführen und dann zu iterieren, indem das resultierende Bild mit dem nächsten Bild zusammengeführt wird. Dies wurde einige hundert Mal durchgeführt und richtig gewogen, damit jedes Bild den gleichen Beitrag zum Endergebnis hat.

Ich bin ziemlich neu in Python (und ich bin kein professioneller Programmierer, das wird klar), aber wenn ich mich umschaue, scheint mir die Python Imaging Library sehr Standard zu sein, also habe ich mich entschieden, sie zu verwenden (korrigiere mich, wenn du denkst etwas anderes wäre besser).

Dies tut, was es soll, aber das resultierende Bild ist dunkel, und wenn ich einfach versuche, es zu verbessern, ist es offensichtlich, dass Informationen aufgrund mangelnder Tiefe der Pixelwerte verloren gegangen sind. (Ich bin mir nicht sicher, was der richtige Begriff hier ist, Farbtiefe, Farbpräzision, Pixelgröße). Hier ist das Endergebnis mit Bildern mit niedriger Auflösung:

oder eine, die ich mit der vollen 4k x 2k-Auflösung ausprobiert habe (von einem anderen Fotosatz):


Algorithmus zum Stapeln astronomischer Bilder - Astronomie

Image Stacking verbessert das Signal-Rausch-Verhältnis, aber nicht alle Stacking-Methoden sind so effektiv. Dieser Artikel zeigt einige Unterschiede und welche davon am besten sind und das zu verwendende Datenformat.

  • 001) ETHIK in der Nachtfotografie
  • 002) Beginn der Astrofotografie: Sternenpfade zur Nachtlandschaftsfotografie
  • 1a) Nachtaufnahmen mit Digitalkameras
  • 1b) Planung der Nachtlandschaftsfotografie
  • 1c) Eigenschaften der besten Digitalkameras und Objektive für Nachtlandschaften und Astrofotografie
  • 1d) Empfohlene Digitalkameras und Objektive für Nachtaufnahmen und Astrofotografie
  • 1e) Nachtaufnahmen im Feld-Setup
  • 1f) Ein sehr tragbares Setup für Astrofotografie, Landschafts- und Tierfotografie
  • 2a) Die Farbe des Nachthimmels
  • 2b) Die Farbe der Sterne
  • 2c) Die Farbe von Nebeln und interstellarem Staub am Nachthimmel
  • 2d1) Überprüfen der natürlichen Farbe in Nachthimmelbildern und Verstehen von guter und schlechter Nachbearbeitung
  • 2d2) Farb-Astrofotografie und Kritiker
  • 2e) Überprüfung des Arbeitsablaufs der Bildverarbeitung in der Astrofotografie mit natürlicher Farbe bei Lichtverschmutzung
  • 2f) Echtfarben des Trapezes in M42, Der Große Nebel im Orion
  • 2g) Die wahre Farbe des Plejadennebels
  • 3a1) Nachtlandschaft und Astrofotografie Bildverarbeitung Grundlegender Arbeitsablauf
  • 3a2) Nachtfotografie Bildbearbeitung, beste Einstellungen und Tipps
  • 3a3) Astrofotografie Nachbearbeitung mit RawTherapee
  • 3b) Astrofotografie Bildverarbeitung
  • 3c) Astrofotografie Bildverarbeitung mit Lichtverschmutzung
  • 3d) Bildverarbeitung: Nullen sind gültige Bilddaten
  • 3e) Bildbearbeitung: Stacking-Methoden im Vergleich (DU BIST HIER)
  • 3f1) Erweiterte Bilddehnung mit dem rnc-color-stretch-Algorithmus
  • 3f2) Messier 8 und 20 Bilddehnung mit dem rnc-color-stretch-Algorithmus
  • 3f3) Messier 22 + Interstellar Dust Image Stretching mit dem rnc-color-stretch-Algorithmus
  • 3f4) Erweitertes Bildstrecken mit hoher Lichtverschmutzung und Farbverläufen mit dem rnc-color-stretch-Algorithmus
  • 4a) Astrofotografie und Brennweite
  • 4b1) Astrofotografie und Belichtung
  • 4b2) Belichtungszeit, Blendenverhältnis, Blendenbereich, Sensorgröße, Quanteneffizienz: Was steuert die Lichtsammlung? Außerdem kalibrieren Sie Ihre Kamera
  • 4c) Aurora-Fotografie
  • 4d) Meteorfotografie
  • 4e) Benötigen Sie eine modifizierte Kamera für die Astrofotografie?
  • 4f) So fotografieren Sie die Sonne: Sonnenaufgang, Sonnenuntergang, Finsternisse
  • 5) Nachtaufnahmen mit einer Scheunentor-Tracking-Halterung
  • 6a) Beleuchtung und Schutz Ihrer Nachtsicht
  • 6b) Farbsehen bei Nacht
  • 7a) Nacht- und Low-Light-Fotografie mit Digitalkameras (Technik)
  • 7b) Technologie zur Dunkelstromunterdrückung auf dem Sensor
  • 7c) Technologische Fortschritte bei der Langzeitbelichtung bei schwachem Licht
  • 8a) Software für Nachtsicht- und Astrofotografen

Einführung
Die Testdaten
Ergebnisse
Beispiel für ein Bild aus der realen Welt
Abtasten in der Kamera
Schlussfolgerungen
Referenzen und weiterführende Literatur
Fragen und Antworten

Wenn Sie die Informationen auf dieser Seite nützlich finden, unterstützen Sie Clarkvision und spenden Sie (Link unten).

Einführung

Stapeln ist ein Begriff für das Zusammenfügen/Mitteln mehrerer Bilder, um das scheinbare Rauschen des kombinierten Bildes zu reduzieren (das Signal-Rausch-Verhältnis zu verbessern). Das Signal-Rausch-Verhältnis (S/N) erhöht sich um die Quadratwurzel der Anzahl der Bilder im Stapel, wenn keine Nebenwirkungen auftreten. In der Praxis gibt es jedoch Nebenwirkungen, und diese Nebenwirkungen können bei gestapelten Bildern zu sichtbaren Problemen führen und die extrahierten Informationen einschränken. Welche Methode(n) funktionieren am besten mit den wenigsten Artefakten?

Grundsätzlich gibt es 2 Methoden:

1) eine Form des Addierens/Durchschnitts, einschließlich abgestufter Durchschnitte, Sigma-Clip-Durchschnitt, min/max-ausgeschlossener Durchschnitt usw.

2) Median einschließlich abgeschnittenem Median, Min/Max-Ausschluss usw.

Die Effektivität des Stapelns hängt von den Daten ab, die der Stapelsoftware zugeführt werden. Die Rohausgabe der meisten Digitalkameras beträgt 14 Bit pro Pixel. Ein Raw-Konverter kann Folgendes erstellen:

a) lineare 14-Bit-Daten von der DSLR, unskaliert,
b) lineare 16-Bit-Daten, skaliert um das 4x aus den 14-Bit-DSLR-Daten, und
c) Tonkurve 16-Bit-Daten.

Um die Wirksamkeit von zwei verschiedenen Stapelmethoden zu untersuchen, einem beschnittenen Durchschnitt mit Standardabweichung (genannt Sigma Clipped Average) und einer Medianberechnung, wurde das Stapeln mit verschiedenen Datentypen getestet: linear 14-Bit, linear 16-Bit und Tone Mapping 16-Bit Daten.

Die Testdaten

Um die Effektivität des Stapelns zu testen, habe ich ein Bild mit eingebetteten Zahlen erstellt (Abbildung 1). Dann habe ich die Zahlen in eine Intensitätssequenz skaliert (Abbildung 2). Mit wissenschaftlicher Bildverarbeitungssoftware (Davinci von der Arizona State University, http://davinci.asu.edu/) habe ich Bilder von zufälligem Gauß-Rauschen berechnet. Dem Bild in Abbildung 2 habe ich einen Offset hinzugefügt, der für Canon DSLRs typisch ist, um zu verhindern, dass Signal und Rauschen in den Integer-Bilddateien bei Null abgeschnitten werden. Ich habe zufälliges Rauschen mit einem Pegel berechnet, der das S/N = 1,0 auf der Zahl 10 im Bild machte. Das bedeutet, dass die Zahl 1 einen S/N = 0,1 und 25 einen S/N = 2,5 in einer einzelnen Bilddatei hat. Ein Beispiel für ein Einzelbild mit Rauschen ist in Abbildung 3 dargestellt.

Einhundert Bilder wie in Abbildung 3, jedes mit unterschiedlichem Zufallsrauschen, wurden für Stapeltests berechnet. Der erste Satz von 100 Bildern simuliert die Ausgabe einer DSLR mit 14 Bit pro Pixel. Ein zweiter Satz von 100 wurde wie von einer DSLR mit linearen 14-Bits pro Pixel berechnet und dann um das 4x skaliert, um die 14-Bits auf 16 Bits zu skalieren, wie bei einigen Rohkonvertern. Ein dritter Satz von 100 Bildern wurde wie in einer Tonkurvenausgabe von einem Rohkonverter berechnet und skaliert. Da der Test für die schwächsten Teile eines Bildes gilt, skaliert die Tonwertkurve die Daten um den Faktor 10, aber die Reaktion ist immer noch linear (weitere Informationen zur Tonwertkurvenfunktion finden Sie in Teil 3b). Die 16-Bit-Daten und Tonkurvendaten werden immer noch mit 14 Bit quantisiert, aber die Skalierung erhöht möglicherweise die Genauigkeit des Stapels, und wir werden die Auswirkungen der Skalierung auf die endgültige Ausgabe sehen.

Das Stacking wurde in ImagesPlus durchgeführt, wobei zwei Methoden ausgewählt wurden: Median und Sigma Clipped Average. Das Clipping wurde auf 2,45 Standardabweichungen eingestellt. Durch das Ausschneiden eines echten Bildstapels des Nachthimmels werden die meisten Signaturen von vorbeifliegenden Flugzeugen und Satelliten entfernt. Im Datentest hier gibt es im Wesentlichen keinen Unterschied zwischen einem einfachen Durchschnitt und einem beschnittenen Durchschnitt.


Abbildung 1. Das Zahlenfolgebild.


Abbildung 2. Das Rampensequenzbild.


Abbildung 3. Einzelbild mit Rauschen. Das Rauschprofil wurde entwickelt, um die Bedingung zu simulieren, bei der Sensorleserauschen + Photonenrauschen ein S/N = 1 für die Zahl 10 ergibt.

Ergebnisse

Die Ergebnisse der linearen 14-Bit-Ausgabe sind für einen Median-Stack in 4a und einen Sigma Clipped Average-Stack in 4b gezeigt. Das Clipping wurde auf 2,45 Standardabweichungen eingestellt. Der Sigma Clipped Average liefert eindeutig ein besseres Ergebnis. Der Median wird auf 14 Bit verschoben, und es wäre unmöglich, schwache Signale herauszuziehen. Aber selbst die linearen 14-Bit-Daten werden verschoben und es könnten begrenzte Informationen extrahiert werden (die Zahlen unter 10).


Abbildung 4a. 100-Bild-Median-Kombination auf 14-Bit-Daten.


Abbildung 4b. 100 Bilder Sigma-Clipped Average Combine auf 14-Bit-Daten.

Die Ergebnisse der linearen 16-Bit-Ausgabe sind für einen Median-Stack in 5a und einen Sigma Clipped Average-Stack in 5b gezeigt. Das Clipping wurde auf 2,45 Standardabweichungen eingestellt. Auch hier liefert der Sigma Clipped Average ein besseres Ergebnis. Der Median wird auf 14 Bit quantisiert. Der Medianstapel zeigt die Zahlen kleiner als 10, aber jede Zahl hat ein konstantes Intensitätsniveau und der Hintergrund hat ein anderes konstantes Intensitätsniveau. Der Sigma Clipped Average erzeugt ein glatteres Ergebnis mit abnehmender Intensität der Zahlen, wie erwartet, und einem geringeren Hintergrundrauschen. Der Sigma Clipped Average zeigt auch eine bessere Trennung der Zahlen vom Hintergrund. Das bedeutet, dass in einem Astrofoto lichtschwächere Sterne, Nebel und Galaxien erkannt werden können.


Abbildung 5a. 100-Bild-Median-Kombination auf 16-Bit-Daten.


Abbildung 5b. 100 Bild Sigma-Clipped Average Combine auf 16-Bit-Daten.

Die Ergebnisse der Tonkurvenausgabe sind für einen Median-Stack in Fig. 6a und einen Sigma Clipped Average-Stack in Fig. 6b gezeigt. Das Clipping wurde auf 2,45 Standardabweichungen eingestellt. Auch hier liefert der Sigma Clipped Average ein besseres Ergebnis. Der Median ist auf 14 Bit quantisiert und erscheint ähnlich dem in Fig. 5a, jedoch etwas weniger verrauscht. Der Medianstapel zeigt die Zahlen kleiner als 10, aber jede Zahl hat ein konstantes Intensitätsniveau und der Hintergrund hat ein etwas anderes konstantes Intensitätsniveau. Der Sigma Clipped Average erzeugt ein glatteres Ergebnis mit abnehmender Intensität der Zahlen und einem geringeren Hintergrundrauschen. Das Rauschen im Ergebnis des Sigma Clipped Average (Abbildung 6b) ist geringer als das im linearen 16-Bit-Stack (Abbildung 5b).


Abbildung 6a. 100-Bild-Median-Kombination auf Tone-mapped-Daten.


Abbildung 6b. 100 Bilder Sigma-Clipped Average Combine auf Tone-Mapping-Daten.

In Abbildung 7 vergleiche ich die drei Methoden für den Median-Stack. Von diesen drei Ergebnissen sind die Tonwertkurvenergebnisse die besten, aber alle Medianergebnisse sind den Sigma Clipped Average-Ergebnissen unterlegen.




Abbildung 7.
Oben: 100-Bild-Median-Kombination auf 14-Bit-Daten.
Mitte: 100-Bild-Median-Kombination bei 16-Bit-Daten.
Unten: 100-Bild-Median-Kombination auf Tone-Mapping-Daten.

In Abbildung 8 vergleiche ich die drei Methoden für den Sigma Clipped Average-Stack zusammen mit einem vollständigen 32-Bit-Gleitkomma-Stack. Von den ersten drei sind die Tonkurvenergebnisse die besten und optisch nicht von den 32-Bit-Gleitkommaergebnissen zu unterscheiden.





Abbildung 8.
Oben: 100 Bilder Sigma-Clipped Average Combine auf 14-Bit-Lineardaten (Eingabe und Ausgabe).
Obere Mitte: 100 Bilder Sigma-Clipped Average Combine auf 16-Bit-Lineardaten.
Untere Mitte: 100 Bilder Sigma-Clipped Average Combine auf Tone-Mapping-Daten.
Unten: 100 Bilder Sigma-Clipped Average Combine auf 32-Bit-Gleitkomma-Ausgangsdaten (14-Bit-Lineareingang).

Beispiel für ein Bild aus der realen Welt


Abbildung 9.
a) Rohkonvertierung in lineares 14-Bit unskaliertes TIF (gleiche Ebenen wie Rohdatei). Kalibrierung mit Flatfields, Dark und Bias Frames in ImagesPlus. Ausrichtung von Frames und Median kombinieren in ImagesPlus, dann wird eine 32-Bit-Gleitkomma-FITS-Datei geschrieben. Signifikante Dehnung beim 32-Bit-Gleitkomma-Ergebnis in ImagesPlus. Verfeinerung in Photoshop auf 16-Bit-Daten. (Die 16-Bit-Tiff-Daten sind hier (1,4 MByte Crop): Versuchen Sie, das Rauschen auf Panel c zu reduzieren.
b) Rohkonvertierung in skaliertes lineares 16-Bit-TIF in ImagesPlus. Kalibrierung mit Flatfields, Dark und Bias Frames in ImagesPlus. Ausrichtung von Frames und Sigma-Clip-Durchschnitt werden in ImagesPlus kombiniert, dann wird eine 32-Bit-Gleitkomma-FITS-Datei geschrieben. Das Sigma-Clipping wurde auf 2,45 Standardabweichungen eingestellt. Signifikante Dehnung beim 32-Bit-Gleitkomma-Ergebnis in ImagesPlus. Verfeinerung in Photoshop auf 16-Bit-Daten.
c) Raw-Konvertierung in Photoshop ACR unter Verwendung von Linsenprofilen wie hier beschrieben. Ausrichtung von Frames und Sigma-Clip-Durchschnitt kombinieren in ImagesPlus, dann wird eine 16-Bit-tif-Datei geschrieben. Dehnen mit Kurven in Photoshop.
d) Wie in (c) mit etwas Schärfen. In diesem Fall milde Richardson-Lucy-Dekonvolution in ImagesPlus, 7x7 Gaussian, 5 Iterationen und auf die helleren Regionen angewendet. Das geringere Rauschen von Methode (c) ermöglicht ein stärkeres Schärfen und Extrahieren von schwächeren und subtileren Details.
Beachten Sie, dass der Unterschied in der Farbbalance kleine Unterschiede in der Verarbeitung darstellt und ignoriert werden sollte. Wichtig ist das scheinbare Rauschen, sowohl Luminanz- als auch Farbrauschen, scheinbare Details und subtile Tonabstufungen.

Abtasten in der Kamera

Um die kleinsten Signale in einem gestapelten Belichtungssatz zu erkennen, sollte die Abtastung in der Kamera hoch genug sein, um diese winzigen Signale zu digitalisieren. Abbildung 10 zeigt Sampling-Effekte durch den Kamera-A/D in einer Situation mit geringem Rauschen (niedriges Kamerarauschen).

Es zeigt, dass es bei der Erfassung von Photonen mit der Subphotonen-pro-Belichtungsrate einen Vorteil gibt, eine höhere Verstärkung als Eins (höheres ISO) zu erreichen (höhere Verstärkung ist kleiner e/DN). (DN = Datennummer in der Bilddatei). Bei der Nachthimmelfotografie werden die Vorteile verringert, wenn das Rauschen durch das Himmelsglühen zunimmt. Man sieht auch aus dem Diagramm, dass die Erkennung schwacher Objekte nicht viel zunimmt, wenn man von 0,3 auf 0,2 e/DN geht (das wäre eine 50%ige Erhöhung der ISO), aber ein ziemlicher Sprung bei den feinsten digitalisierten Details, wenn man von der Verstärkung eins ausgeht bis 1/3 e/DN. Die Bilddaten werden so normiert, dass die Zahl 25 gleich hell erscheint.

Im Stapel von 100 Bildern sind durch Digitalisierung mit 0,3 e/DN gerade noch 20 Photonen nachweisbar, oder im Durchschnitt eine Rate von 1 Photon pro 5 Bilder. Bei Einheitsverstärkung ist es etwa 4-mal schlimmer. Bei realen Kameras mit einigen Bandings sind die Unterschiede zwischen den Verstärkungen größer. Dies impliziert über einen Unterschied bei der Detektion der stellaren Magnitude in der Astrofotografie.


Abbildung 10. Bei einer Kameraabtastung in einer Situation mit geringem Rauschen zeigt, dass zur Erkennung schwacher Signale, etwa weniger als ein Photon pro Aufnahme, die Abtastung durch den A/D-Wandler in der Kamera kleiner als 1 Elektron pro Analog-Digital-Wandlereinheit sein sollte (Datennummer, DN). Bei Kameras mit etwa 5 bis 6 Mikrometer Pixeln liegt diese Verstärkung normalerweise bei ISO 1600.

Das Modell, das zur Erstellung der Daten in Abbildung 10 verwendet wurde, verwendete eine Poisson-Verteilung für das Photonenrauschen, eine Gaußsche Verteilung für das Lese- und Dunkelstromrauschen und einen +/- 1 DN-Fehler bei der A/D-Wandlung und skalierte dann die Ausgabebilder auf die gleiches Niveau zum Vergleich. Der A/D-Fehler ist wichtig. Angenommen, Sie hatten bei jeder Belichtung 1 Photon in einem Pixel, der A/D hat einige ohne Photonen und einige mit 2, wodurch der Fehler erhöht wird. Natürlich modulieren die anderen Rauschquellen das, aber die Einbeziehung des A/D-Wandlungsrauschens ist wichtig, um den Trend aufzuzeigen. Wenn andere Rauschquellen zunehmen, wird der A/D-Effekt geringer und es ist weniger wichtig, mit höheren ISOs zu arbeiten, es sei denn, man muss auch Banding-Probleme überwinden (was oft der Fall ist).

Der Schlüssel zur Astrofotografie bei der Erkennung kleinster Details sind:

1) Der dunkelste Himmel, den Sie erreichen können.

2) Objektiv/Teleskop mit der größten Blendenöffnungsqualität, das Sie sich leisten können, mit dem schnellsten f/Verhältnis. Ein schnelles Blendenverhältnis und eine große Blende sind der Schlüssel, da Sie in kürzester Zeit das meiste Licht sammeln.

Kamerabetrieb: ISO wobei a) ISO wo Streifenbildung klein genug ist, um kein Faktor zu sein, b) Verstärkung (ISO) ungefähr 1/3 e/DN. Wenn Streifenbildung bei ISO 1/3 e/DN immer noch ein Problem darstellt, gehen Sie zu einem höheren ISO-Wert.

Bei der Auswahl einer Digitalkamera für Astrofotografie:

1) Neuere Modelle der letzten Jahre (diese Modelle, alle Hersteller) haben eine bessere Dunkelstromunterdrückung und ein geringeres Banding sowie eine gute Quanteneffizienz.

3) Modelle ohne rohe verlustbehaftete Kompression oder rohe Star-Essen-Filterung und minimale rohe Filterung (mindestens 2, vielleicht mehr Hersteller sind in diesem Bereich großartig).

Wenn das Leserauschen in der Größenordnung von etwa 2 oder 3 Elektronen (oder weniger) bei einer ISO-Verstärkung von 1/3 e/DN und geringer Streifenbildung bei diesem DN liegt, zeigt ein geringeres Leserauschen keinen Unterschied in der Langzeitbelichtungs-Astrofotografie, wo Sie können you Nehmen Sie bei jeder Aufnahme etwas Himmelsglühen auf. Nur wenn Sie versuchen, Astrofotografie mit einigen Sekundenbelichtungen mit schmalbandigen Filtern oder sehr langsamen Objektiven/Teleskopen zu machen, wird das Leserauschen zu einem Problem.

Wo eine Kamera "ISOless" wird, ist in der Astrofotografie weitgehend irrelevant, da es bei ISOless um geringes Leserauschen geht und das Leserauschen von anderen Rauschquellen überlagert wird. Auch hier ist es gut, bei einer ISO-Verstärkung von etwa 1/3 e/DN ein einigermaßen geringes Leserauschen (dh 2 bis 3 oder so) zu haben. Natürlich ist es in Ordnung, niedriger zu sein, aber es macht keinen Unterschied, wenn Sie den Himmel einem Histogramm von 1/4 bis 1/3 aussetzen und dann Rauschen durch Dunkelstrom hinzufügen. Diese Rauschquellen begrenzen den Dynamikbereich und schwächen die Erkennung von Objekten, lesen KEIN Rauschen und unabhängig davon, ob Sie sich auf einem ISOless-Pegel oder einer Verstärkung von Eins befinden oder nicht.

Schlussfolgerungen

Bit-Präzision und -Methode sind beim Stapeln wichtig. Die Mittelungsmethoden sind dem Median-Combine überlegen. Wenn Digitalkameras besser werden, mit geringerem Systemrauschen, einschließlich Leserauschen und Rauschen von Dunkelstrom, und je mehr Bilder gestapelt werden, muss die Ausgabepräzision des Stapels in der Lage sein, den Anstieg des Signal-Rausch-Verhältnisses zu bewältigen. Einfache 14-Bit-Präzision ist unzureichend, ebenso wie 14-Bit auf 16-Bit skaliert (nur eine 4-fache Verbesserung der Genauigkeit) beim Stapeln von mehr als etwa 10 Bildern. Beim Stapeln einer großen Anzahl von Bildern kann die Erhöhung der Genauigkeit nur durch Mittelung in 32-Bit-Integer, 32-Bit-Gleitkomma oder Tone-Mapping erreicht werden, wenn 16-Bit-Bilddateien verwendet werden.

Wenn Sie mit einer großen Anzahl von Bildern in einem Stapel arbeiten und mit einer linearen Intensitätsantwort arbeiten möchten, verwenden Sie am besten einen Bildeditor, der mit 32-Bit-Gleitkomma arbeiten kann, einschließlich der Speicherung des gestapelten Bildes in einem 32-Bit-Format. Bit-Integer- oder Gleitkomma-Format.

Tone Mapping bietet eine etwa 40-fache Verbesserung der Intensitätspräzision für die schwächsten Teile eines Bildes bei der Arbeit mit 16-Bit-Dateien im Vergleich zu einer linearen 14-Bit-Digitalkamera-Rohausgabe. Somit ermöglicht das Tone Mapping, schwächere Details zu extrahieren, wenn mit 16-Bit/Kanal-Bildbearbeitungsprogrammen und 16-Bit/Kanal-Format-Bilddateien gearbeitet wird. Wenn wir von einer 1-Bit-Präzision ausgehen, wäre die 40-fache Skalierung der schwächsten Tone-Mapping-Daten gut für eine 20-fache Verbesserung des S/N, was bedeutet, dass das Stapeln von bis zu 20 quadrierten oder 400 Bildern immer noch mit ausreichender Präzision funktionieren sollte.

Das Auftreten dieser Effekte hängt natürlich auch vom Rauschpegel in Ihrer Bildgebungssituation ab, einschließlich Rauschen durch das Kamerasystem und Rauschen durch Luftglühen und Lichtverschmutzung. Wenn das Rauschen zunimmt, werden diese Nebenwirkungen verborgen (buchstäblich im Rauschen verloren).

Wenn gestapelte Bilder in einer linearen 14- oder 16-Bit-Ausgabe erstellt werden, kann es zu einer Posterisierung kommen, die sich als "Fleckigkeit" zeigt und was ich einen pastösen Look in Bildern nenne, wenn sie gedehnt werden. Ich sehe viele dieser Artefakte in online veröffentlichten Astrofotos, was für mich darauf hindeutet, dass wahrscheinlich eine Posterisierung beim Stapeln auftritt.

Der Zeitpunkt, an dem ein Schwimmer benötigt wird, hängt vom Geräuschpegel ab (einschließlich Leserauschen plus Rauschen durch Dunkelströmung und Rauschen durch Luftglühen und Lichtverschmutzung). Eine Möglichkeit, dies zu überprüfen, besteht darin, einige Statistiken über eine einzelne Belichtung in einem dunklen Bereich ohne Sterne oder Nebel zu erstellen. Nehmen wir an, Sie tun dies und finden eine Standardabweichung von 6,5. Wenn Sie dann mehr als 6,5*6,5 = 42 Frames stapeln, wird das Ergebnis ganzzahlig quantisiert und das Extrahieren des schwächsten Details wird durch ganzzahlige Mathematik begrenzt. Dann wäre es besser, das Ergebnis des Stapels als 32-Bit-Float-Format zu speichern und die Ergebnisse aus den 32-Bit-Float-Daten zu strecken. In ImagesPlus können Sie das Standardformat bei 16-Bit beibehalten und dann am Ende des Stapels eine Kopie des Bildes speichern, Anpassungen auswählen und dann das 32-Bit-Float-Format auswählen.

Fragen und Antworten

Warum ist das Median-Stapelbild in Abbildung 4a flach mit einem einzelnen Wert für den Hintergrund?

Antworten. Wenn die Eingabedaten quantisiert werden, wird auch die Mediankombination quantisiert. Selbst wenn die Eingabedaten auf Gleitkommawerte skaliert werden, werden sie immer noch quantisiert (z. B. mit 1,23 multipliziert und als Gleitkomma übertragen, es gibt immer noch diskrete Werte, die gerade durch 1,23) getrennt sind. Die Mediankombination wählt einen dieser quantisierten Werte als Median aus. Durch Stapeln vieler Bilder wird der Median auf einen einzigen Wert quantisiert, wenn das Rauschen im Stapel auf einen Bruchteil des Quantisierungsschritts reduziert wird. Technisch tritt dies auf, wenn die Standardabweichung des Medians kleiner als das Quantisierungsintervall ist, und wird signifikant posterisiert, wenn die Standardabweichung des Medians etwa 1/4 des Quantisierungsintervalls beträgt. Wie viele Bilder dazu mit realen Daten kombiniert werden müssen, hängt vom Quantisierungsintervall und dem Systemrauschen ab. Sobald die Posterisierung jedoch beginnt, beschleunigt das Hinzufügen weiterer Frames den Kollaps (Abbildung 11) und man kann kein schwächeres Signal aus den Daten extrahieren. Es zeigt wiederum, dass eine Mediankombination beim Stapeln von Bilddaten vermieden werden sollte.


Abbildung 11. Beispielhafte Quantisierungseffekte, wenn mehr Frames im Median kombiniert werden. Die Standardabweichung des Medians beträgt 0,21 nach 10 Bildern, die eine signifikante Posterisierung zeigen. Bei 20 Frames hat die Quantisierung die Standardabweichung des Medians auf 0,02 reduziert, was zu einem weitgehend einheitlichen Hintergrund führt. Die Sequenz fährt damit fort, alle Werte mit einem Signal-Rausch-Verhältnis von weniger als 1 in einem Frame zu einem einzigen Ausgabewert im Median-Stack zusammenzufassen.

Die nächste Frage ist, ist das erzeugte Rauschen wirklich gaußförmig? Abbildung 12 zeigt lineare und logarithmische Darstellungen des Rauschprofils (Kreuze) und des Gauss-Profils (Linie). Die Daten sind innerhalb der Zählstatistiken gaußförmig (+/- 1). Die Online-Beiträge haben die Daten berechnet, sind nicht Gaussian, sondern verwechseln Gaussian Profil mit Sampling-Intervall.

Abbildung 12. Statistik des in den Modellen verwendeten Rauschens (Kreuze) im Vergleich zum mathematischen Gauß-Profil (Linien). Oben: lineares Diagramm. Unten: Log-Plot. Der eine Hochpunkt bei x=1006 ist die Rundung der endlichen Zählstatistik: Der Höchstwert ist 2 +/- 1.

Warum der mittlere Mähdrescher in Abbildung 9a lauter ist:
„Außerdem neigen Photonen speziell für Licht dazu, in Bündeln oder Wellen anzukommen, was manchmal zu einer Störung der erwarteten Poisson-Verteilung führt. Und das ist etwas, das nicht ignoriert werden sollte. Das Ergebnis dieser Klumpen von zusätzlichen Photonen oder Perioden ohne Photonen ist a mögliche Störung des Medianwerts, indem er höher oder niedriger verschoben wird, als er hätte sein sollen. Ich denke, dies führt nicht nur zu einem überdurchschnittlichen Ergebnis, sondern auch zu einer geringeren Quantisierung genau *weil* es *mehr* Rauschen gibt. Auch hier Ihre Abbildung 9 Die Kombination des Medians mit realen Daten zeigt dies. Es gibt einen stärkeren Median als der Durchschnitt, wie von der statistischen Mathematik erwartet.“

Antworten. Erstens sind die Eingabedaten (Rohdateien) für alle Methoden in Abbildung 9 genau gleich. Wenn Rauschen durch Photonenverklumpung ein Faktor wäre, würden wir feststellen, dass die gleichen Pixel in den Bildern, die mit anderen Methoden erstellt wurden, auch verrauschter erscheinen. Wir nicht. Zweitens siehe The Present Status of the Quantum Theory of Light, herausgegeben von Jeffers, Roy, Vigier und Hunter, Springer Science, 1997, Seite 25, wo die Verklumpung als von astronomischen Objekten auf einer Skala von wenigen Metern beobachtet beschrieben wird. Bei Lichtgeschwindigkeit gilt das im Bereich von wenigen Nanosekunden, verglichen mit den 4260 Sekunden Belichtungszeit des fraglichen Horsehead-Bildes. Die Idee der Photonenverklumpung ist um etwa 12 Größenordnungen falsch. Die Daten in 9a sind eine reine Folge der Medianquantisierung.

Warum das Rauschen zwischen den Bildern unterschiedlich ist "Das Rauschen ist schlimmer als 25 %, weil Sie mehrere Operationen durchgeführt haben, von denen jede ihren eigenen Fehler hinzufügt. Das Anwenden von dunklen und flachen Farben fügt auch Rauschen hinzu. Das 80 % S/N ist nur für 1 einfachen Median. Ehrlich gesagt, Wenn Sie nicht erkannt haben, dass es einen zusätzlichen Fehler geben sollte, weiß ich nicht, was ich sagen soll."

Antworten. Alle Bildkombinationsstapel wurden in ImagesPlus ausgeführt, das 32-Bit-Gleitkomma verwendet. Die Eingangsdaten einer DSLR werden natürlich quantisiert und bleiben es auch nach der Umwandlung in 32-Bit-Gleitkomma. Die 32-Bit-Gleitkommaberechnungen stellen sicher, dass durch die Stapeloperationen keine signifikanten Fehler hinzugefügt werden. Außerdem wurden sowohl für den Median als auch für den Durchschnitt exakt die gleichen Master-Dark-Frames, Flat-Field- und Bias-Frames verwendet. Wenn die Fehler auf diese Daten zurückzuführen wären, würden sie also sowohl im Median- als auch im Durchschnittsstapel angezeigt. Offensichtlich nicht.

Wenn Sie die Informationen auf dieser Seite nützlich finden, unterstützen Sie Clarkvision und spenden Sie (Link unten).

Referenzen und weiterführende Literatur

Die Open-Source-Community ist im Bereich Objektivprofile ziemlich aktiv. Sehen:

Lensfun-Objektivprofile: http://lensfun.sourceforge.net/ Alle Benutzer können Daten liefern.

Technischer Hinweis: Kombinieren von Bildern mit Integer- und Real-Type-Pixeln. Diese Site zeigt auch, dass die Median-Kombination keine so guten Ergebnisse liefert wie die Mittelwertmethoden: http://www.mirametrics.com/tech_note_intreal_combining.htm.

DN ist "Datennummer". Das ist die Zahl in der Datei für jedes Pixel. Es ist eine Zahl von 0 bis 255 in einer 8-Bit-Bilddatei, 0 bis 65535 in einer 16-Bit-TIF-Datei ohne Vorzeichen.

16-Bit-Ganzzahl mit Vorzeichen: -32768 bis +32767

16-Bit-Ganzzahl ohne Vorzeichen: 0 bis 65535

Photoshop verwendet ganze Zahlen mit Vorzeichen, aber das 16-Bit-Tiff ist eine ganze Zahl ohne Vorzeichen (von ImagesPlus richtig gelesen).


Astrofotografie Image Stacking – Astro Stacking

Hoffentlich waren Sie unterwegs und haben das, was Sie über Astrofotografie gelernt haben, angewendet. Für die meisten gibt es eine ziemlich große Lernkurve mit Astrofotografie. Ich war immer ziemlich gut mit dem Computer, der Elektronik und der mechanischen Hardware, aber das Erlernen der Verarbeitung der Bilder war eine große Herausforderung. Ich hoffe, ich kann das Gelernte weitergeben, um Ihren Lernprozess zu beschleunigen.

Es gibt viel zu lernen, wenn es darum geht, die Bilder von der Kamera zu nehmen, um ein endgültiges Bild für die Anzeige zu erstellen. Sie werden feststellen, dass 99% der von Ihnen aufgenommenen Deep-Sky-Bilder eine Nachbearbeitung erfordern. Aber bevor wir überhaupt über die Verarbeitung sprechen, lassen Sie uns besprechen, wie die Szene am besten aufgenommen wird.

In den vorherigen Blogs habe ich auf eine Technik hingewiesen, mit der Sie das Beste aus Ihren Astrobildern herausholen können. Das Schießen sehr schwacher beweglicher Ziele kann eine ziemliche Herausforderung sein. Es braucht eine ziemlich anständige Ausrüstung, um die wirklich schwachen Sachen zu bekommen, aber darüber hinaus ist es wichtig, die Motive richtig zu fotografieren. Es gibt eine wertvolle Technik, die bei der Verarbeitung enorm hilft und das Beste aus Ihren Daten macht. Diese Technik ist Stapeln.

Schauen wir uns das Stapeln in sehr grundlegenden Begriffen an. Das Schießen von schwachen Zielen führt zu allgemein verrauschten Bildern. Dies gilt sowohl für die Astrofotografie als auch für die normale Fotografie. Dadurch wirken die Fotos körnig und es fehlt der seidenweiche Übergang. Bei Astrofotos stört Rauschen den Übergang vom Zielobjekt zu den dunklen Bereichen. Wenn Sie jedoch viele Fotos desselben Motivs aufnehmen und diese übereinander stapeln, ist das Ergebnis weitaus besser als das eines einzelnen Bildes. Das Rauschen und die Körnigkeit werden ausgefüllt und das Bild erscheint viel glatter und vollständiger. Wenn ich nach der besten Bildqualität suchte, nahm ich im Allgemeinen zwischen 10 und 20 Stunden offene Verschlusszeit auf. Aber auch hier waren dies meine besten Deep-Sky-Bilder auf professionellem Equipment. Für mich bedeutete das, über viele Nächte hinweg zu fotografieren und alle Daten im endgültigen Bild zu stapeln. Ich habe Aufnahmen gemacht, die eine halbe Stunde lang waren, oder ich brauchte weniger Bilder. Aber das Endergebnis waren viele Daten, die zusammengebaut zu sehr guten Datensätzen führten.

Wenn Sie gerade erst anfangen, müssen Sie nicht so viel fotografieren. Aber im Allgemeinen, je mehr Sie schießen, desto besser. Es gibt einen großen Unterschied, der sofort im endgültigen Bild zu sehen ist. Es gibt einen Punkt, an dem die Erträge sinken, aber die meisten Astrofotografen werden diese Grenze nie annähernd erreichen. Wenn Sie also mit ein paar Stunden Aufnahme beginnen können, werden Sie am Ende ziemlich anständige Daten haben. Aber selbst das Aufnehmen und Stapeln von 10 Bildern ist besser als ein einzelner Rahmen. Je besser die Daten, desto einfacher lässt sie sich zum endgültigen Bild verarbeiten.

Wie fangen wir an…? Sobald Sie Ihre Montierung ausgerichtet haben (siehe meine vorherigen Blogs), das Ziel eingerahmt und das Objektiv oder das Teleskop fokussiert haben, können Sie mit der Aufnahme Ihrer Bilder beginnen. Nehmen Sie immer wieder das gleiche Motiv auf. Ich benutze normalerweise einen Computer oder ein Intervallometer, um die Arbeit daraus zu nehmen. Dies ermöglicht mir die Möglichkeit, wegzugehen und die Kamera fotografieren zu lassen, bis sie fertig ist. Beachten Sie jedoch, dass Sie möglicherweise mehrere Batterien oder ein Netzteil für Ihre Kamera benötigen. Dies gilt insbesondere bei Kälte. Versuchen Sie bei Ihrem ersten Ausflug, mindestens eine Stunde mit offener Verschlusszeit zu fotografieren. Das heißt, wenn Sie 5-Minuten-Aufnahmen machen, möchten Sie, dass 12 davon eine Stunde machen. Im Allgemeinen ist es am besten, mit einer möglichst langen Belichtungszeit zu fotografieren, aber nicht so lange, dass das Bild mit leichtem Nebel gesättigt wird oder Sie beginnen, Sternspuren zu bekommen. Ich habe im Allgemeinen versucht, zu fotografieren, bis ich im Histogramm der Kamera etwa 25-75% erreicht hatte. Aber das hängt vom Ziel ab und von wo ich schieße (und wie viel Lichtverschmutzung vorhanden ist). Denken Sie daran, dass 1 Stunde keine magische Zahl ist. Schießen Sie mehr, wenn Sie Zeit und Geduld haben. Dadurch wird die Nachbearbeitung nach dem Stapeln einfacher und das endgültige Bild noch glatter.

Wenn Sie den Stack haben, was kommt als nächstes? Sie müssen alle diese Bilder zu einem einzigen Bild verarbeiten. Dies ist in Photoshop möglich und es gibt einige wirklich tolle Videos und Informationen zum Thema. Also überlasse ich diesen Lernprozess denen, die daran interessiert sind, das Stapeln auf diese Weise durchzuführen.

Der eigentliche Vorteil besteht darin, das Stacking in einem Programm durchzuführen, das für die Verarbeitung von Astrofotos gedacht ist. Dafür stehen viele Programme zur Verfügung, manche sogar kostenlos. Ich habe ein Programm namens MaximDL verwendet, das ein High-End-Stück einer professionellen Astrofotografie-Verarbeitungssoftware ist. Neben der Verarbeitung übernimmt es auch die Kamerasteuerung, die Filterradsteuerung, die Fokussierung, das Guiding und viele andere Aspekte der Aufnahme von Deep-Sky-Bildern. In einem komplexen Setup ist es sehr vorteilhaft, die Kontrolle über alles in einer einzigen Software zu haben. Wenn Sie jedoch gerade erst anfangen, sollten Sie sich Deep Sky Stacker (DSS) besorgen. Es ist ein ausgezeichnetes Stapelprogramm und ist kostenlos erhältlich. Auf diese Weise können Sie das Aufnehmen und Bearbeiten von Bildern üben, ohne viel zusätzliches Geld in Software zu investieren.

Schauen Sie sich unbedingt die hervorragenden Anleitungen auf der DSS-Website und online an. Es ist ziemlich leistungsstark und in der Lage, schöne Bilder zu produzieren. Es ermöglicht auch das Hinzufügen von Kalibrierungsrahmen (siehe unten), was eine weitere sehr leistungsstarke Funktion zur Rauschunterdrückung ist. Ich fand im Allgemeinen, dass ich das Stacking in DSS und den Rest der Verarbeitung in Photoshop oder einem ähnlichen Bildbearbeitungsprogramm mochte. Aber das ist ganz meine Vorliebe. Jeder Fotograf sollte den besten Workflow und die beste Kombination von Programmen ermitteln, um das endgültige Bild zu erstellen.

Ein wirklich großartiges Feature von DSS ist die Komet-Stacking-Routine. Die Verarbeitung von Kometen ist noch komplizierter, da sich der Komet typischerweise in jedem Frame an einer anderen Position befindet. Manche bewegen sich langsam genug, um sich keine Sorgen machen zu müssen. Andere können jedoch in jedem Frame erhebliche Beträge verschieben. Dies erfordert normalerweise einige geschickte Verarbeitung, um ein anständiges Bild zu erhalten. DSS nimmt ihm viel Arbeit ab. Dieses Bild wurde in DSS und Photoshop verarbeitet.

Kleiderbügel Asterism (CR399) und Comet Garradd

Zu Beginn des Stapelprozesses müssen die Bilder zuerst nach Qualität sortiert und dann zuerst ausgerichtet (oder registriert) werden. Die Qualitätssortierung kann in DSS automatisch erfolgen, aber im Allgemeinen mochte ich es, durch die Bilder zu stöbern und diejenigen auszuwählen, die durch Bewegung verschwommen waren oder Wolken oder Flugzeuge hatten. Die Registrierung oder Ausrichtung passt die Bilder nach oben und unten sowie in Rotation an, um alle Bilder perfekt auszurichten und sie dann in einer von mehreren Stapelmethoden zusammenzustapeln. Ich bevorzuge im Allgemeinen eine der Median-Stacking-Methoden.

Viele meiner Astrofotos, einschließlich des Kometenfotos oben, wurden mit professioneller Ausrüstung aufgenommen. Diese Ausrüstung kostete ungefähr die Hälfte von dem, was mein erstes Haus kostete. Um fair zu sein, wollte ich zeigen, was mit einem DSR und einem Objektiv (oder einem kleinen Teleskop) gemacht werden kann, also habe ich einige meiner frühesten Bilder in DSS nachbearbeitet, da ich weiß, was ich jetzt weiß. Diese wurden mit einer Astro-modifizierten Canon 300D (Digital Rebel) mit 6,3 MP aufgenommen. Dies ist eine der frühesten DSLRs. Es war laut und lieferte im Allgemeinen keine sehr sauberen Astrobilder. Aber selbst mit dieser alten Kamera waren die Daten sehr brauchbar und lieferten einige recht ordentliche Bilder. Wir werden uns unten einige davon ansehen:

Meine erste modifizierte DSLR für Astrofotografie

Stapelbeispiele

Hier sind einige Beispiele für Bilder direkt aus der Kamera und auch einige bearbeitete Bilder. Das erste ist ein Einzelbild, das den Herz- und Seelennebel (IC1805, IC1871, NGC 869 und NGC 884) sowie den Doppelsternhaufen zeigt. Die Oberseite ist aus der Kamera, die nächste ist nach dem Stapeln und Bearbeiten.

Unbearbeitet, direkt aus der Kamera

Gestapelt und nachbearbeitet

Der Unterschied in diesen ist drastisch. Fairerweise muss man sagen, dass das Einzelbild durch starke Lichtverschmutzung verschleiert war. Dies ist jedoch ein Problem, das die Mehrheit der Astrofotografen plagen wird. Die einzige Möglichkeit, dies zu bekämpfen, besteht darin, von dunklen Orten abseits der Lichter der Stadt zu schießen.

Dieses nächste Beispiel ist nicht so drastisch. Die Oberseite ist aus der Kamera, die Unterseite ist gestapelt und bearbeitet. Ebenfalls enthalten sind Ausschnitte eines einzelnen Frames sowie gestapelte und verarbeitete Bilder.

Einzelbild und Ausschnitt des Rosettennebels (NGC 2237)

Beachten Sie die fehlenden Details im Ausschnitt dieses Bildes.

Stapeln/nachbearbeitetes Bild und Zuschneiden des Rosettennebels

Das gestapelte Bild ist viel sauberer und viele der fehlenden Daten wurden ergänzt. Beachten Sie auch die besseren Details, die im Ausschnitt der Rosette sichtbar sind. Dies ist der eigentliche Vorteil der Stapelmethode. Eine Sache, die Sie bei der Verarbeitung von Astrofotos beachten müssen, ist, dass es sich um einen inkrementellen Prozess handelt. Kein einziger Schritt wird aus Schrott ein magisches Bild machen. Jeder Schritt führt zu einer winzigen Verbesserung, und mit genügend kleinen Schritten erhalten Sie ein sehr angenehmes Bild. Wenn Sie viele Fotos stapeln, brauchen die meisten Stacking-Softwares eine ganze Weile, wenn Ihr Computer der Aufgabe nicht gewachsen ist (wie meiner). Seien Sie also geduldig und lassen Sie es einfach laufen, bis die Registrierungs- und Stapelprozesse abgeschlossen sind.

Hier ist ein weiteres Beispiel für einen einzelnen Frame im Vergleich zu einem Stapel. Dieser ist vom Pferdekopfnebel (B33) im Orion.

Einzelbild und Zuschneiden

Bilder stapeln/nachbearbeitet und zuschneiden

Es ist ziemlich einfach, den Vorteil des Stapelns bei der Aufnahme von Astrofotos zu erkennen. Eine fortgeschrittene Technik, die dazu beiträgt, das Rauschen in Ihren Stacks zu reduzieren, wird Dithering genannt. Im Grunde bewegt dies die Kamera nach jedem Frame um ein paar Pixel in eine zufällige Richtung. Bei Verwendung einer Median-Stacking-Methode werden Objekte an einer anderen Position in jedem Frame eliminiert.Wenn Sie also die Sterne als Ausrichtungsreferenz verwenden, bleiben die Galaxien, Nebel oder andere Objekte am selben Ort. Hotpixel, Satelliten, Flugzeuge, Rauschen und andere zufällige Effekte befinden sich jedoch in Bezug auf die Sterne an einer anderen Stelle, sodass diese beim Stapeln eliminiert werden. Es gibt viele Guiding- oder Tracking-Programme, die automatisch Dithering durchführen. Aber auch bei einem manuellen Auslöser kann es enorm helfen, wenn man die Montierung zwischen den Aufnahmen manuell bewegt. Es scheint mühsam zu sein, aber das Dithering wird eine ziemlich signifikante Verbesserung bewirken. Keines der obigen Bilder (außer dem Kometenbild) verwendete Dithering.

Eine weitere hilfreiche Ergänzung ist das Hinzufügen von Kalibrierungsrahmen. Diese dienen dazu, zusätzliches Rauschen und andere Artefakte aus den Bildern zu entfernen. Dunkle Frames helfen dabei, heiße Pixel zu entfernen, Bias-Frames reduzieren das Leserauschen und flache Frames helfen dabei, Staubflecken oder andere Spezifikationen zu beseitigen, die durch den Blick durch das Objektiv oder das Teleskop verursacht werden. Hier im FAQ-Bereich gibt es eine hervorragende Beschreibung dazu. Die neueren, moderneren Kameras bieten in der Regel eine bessere Rausch- und Hot-Pixel-Steuerung, sodass eine Kalibrierung möglicherweise nicht erforderlich ist. Aber zumindest sollten flache Rahmen verwendet werden, um sicherzustellen, dass Artefakte, die durch eine verschmutzte Linse oder einen verschmutzten Sensor verursacht werden, entfernt werden. Es wird auch dazu beitragen, die in den Bildern auftretende Vignettierung zu reduzieren. Denken Sie daran: inkrementelle Verbesserungen.

In der letzten Folge dieser Astrofotografie-Serie werden wir einige Details besprechen, um von einem grob gestapelten Bild zum endgültigen Bild zu gelangen. Hier passiert viel Magie, also hoffe ich, dass Sie dran bleiben. In der Zwischenzeit raus und schießen. Bis bald.


Bildverarbeitung mit CCDStack 2

Von: Die Redaktion von Sky & Telescope 31. August 2015 0

Erhalten Sie Artikel wie diesen in Ihren Posteingang

Verbessern Sie Ihre Deep-Sky-Bilder mit diesem innovativen Programm.
Von Bob Fera im Ausgabe Juni 2013 von Sky & Teleskop

Von den unzähligen Programmen, die heute zur Verarbeitung von CCD-Bildern verfügbar sind, CCD-Stapel 2 ist aufgrund seiner intuitiven Benutzeroberfläche und verschiedenen innovativen „Live“-Funktionen die Wahl vieler erfahrener Imager. Der erfahrene Astrofotograf Bob Fera demonstriert seinen routinemäßigen Arbeitsablauf mit der Software, um seine Bilder zu kalibrieren, auszurichten, zu stapeln und zu dehnen, um farbenfrohe Porträts von Himmelszielen wie das tiefe Foto des Kegelnebels oben zu erstellen.

Jeder erfahrene Astrofotograf wird Ihnen sagen, dass es keine leichte Aufgabe ist, eine Reihe von geräuschvollen Unteraufnahmen in ein farbenfrohes Kunstwerk zu verwandeln. Der Prozess umfasst viele Schritte unter Verwendung einer Vielzahl von Softwarepaketen, von denen jedes seine eigene Lernkurve hat. Für viele Imager geschieht die „Kunst“ in Adobe Photoshop. Aber bevor Sie ein Tool wie Photoshop Um einem Bild Ihre persönliche Note zu verleihen, müssen Ihre Daten zunächst eine Reihe von entschieden weniger sexy Schritten durchlaufen – Kalibrierung, Ausrichtung und Kombination. Und obwohl diese Schritte nur begrenzten kreativen Input erfordern, sind sie dennoch entscheidend für das endgültige Aussehen Ihres Bildes.

Unter den zahlreichen Programmen zur Verarbeitung von CCD-Daten bevorzuge ich CCDWare CCD-Stapel 2 (www.ccdware.com) für PCs zum Kalibrieren, Ausrichten, Stapeln und Strecken meiner Bilder in 16-Bit-TIFF-Dateien, die für die letzten Optimierungen bereit sind Photoshop. Die Stärke des Programms liegt in seiner intuitiven Benutzeroberfläche sowie einigen „Live“-Stretching-Funktionen. CCD-Stapel 2 hat für mich über die Jahre gut funktioniert und soll Ihnen eine solide Grundlage für die Entwicklung eigener Methoden bieten.

Bildkalibrierung

Beginnen wir mit der Vorbereitung unserer Kalibrierungsdateien. Ich nehme immer mehrere Dunkel-, Bias- und Flat-Field-Bilder auf und kombiniere diese zu „Master“-Kalibrierungsframes, um sicherzustellen, dass mein Endergebnis so sauber wie möglich ist. Dies reduziert alle störenden Artefakte in meinen Kalibrierungsrahmen aufgrund von kosmischen Strahlen oder anderen unerwünschten Signalen.

Öffnen Sie zunächst das Programm und wählen Sie Process/Create Calibration Master/make master Bias. Das Programm öffnet sofort den zuletzt verwendeten Ordner in CCD-Stapel 2, daher müssen Sie möglicherweise zum Ordner mit den Kalibrierungsdateien navigieren. Wählen Sie dort alle Bias-Frames aus, die der Temperatur Ihrer Light-Frames entsprechen. Das Fenster „Einstellungen kombinieren“ wird dann geöffnet und bietet Ihnen verschiedene Möglichkeiten, Ihre Bias zu einem „Master“-Bias-Frame zu kombinieren. Ich bevorzuge es, die Sigma-Reject-Mean-Methode zu verwenden und den Sigma-Multiplikator auf 2 und eine Iterationsgrenze von 2 zu ändern.

In wenigen Augenblicken wird Ihr Master-Bias-Frame angezeigt. Speichern Sie das Ergebnis einfach als 16-Bit-FITS-Datei und wiederholen Sie den gleichen Vorgang, um Ihre Darkframes zu kombinieren, indem Sie Prozess/Kalibrierungsmaster erstellen/Master dunkel machen auswählen.

CCD-Stapel 2 ist das einzige Bildverarbeitungsprogramm für Amateure, das genau anzeigt, welche Pixel in jedem Bild es beim Kombinieren von Teilbelichtungen mit sigma-basierten Datenzurückweisungsalgorithmen ignoriert. Die roten Punkte im obigen Bild sind in einem Stapel von 10 Bildern als abgelehnt gekennzeichnet.
Bob Fera

Das Generieren Ihres Master-Flat-Field-Bildes ist ebenfalls ähnlich, obwohl das Programm Sie zuerst fragt, ob Sie jedes Flat-Frame subtrahieren möchten. Wenn dies der Fall ist, wählen Sie den gerade erstellten Master-Bias-Frame und den Dark-Frame-Master, der Ihrem flach abgelegten Bild entspricht. Wenn Sie das Dialogfeld Methode kombinieren erreichen, wählen Sie erneut den Sigma-Ablehnungs-Mittelwert mit einem Multiplikator von 2 und einem Iterationswert von 2. Stellen Sie sicher, dass Sie diese Routine für alle Ihre Flats wiederholen, die durch verschiedene Filter geschossen wurden. Nachdem wir nun unsere Kalibrierungsrahmen fertig haben, gehen wir unsere Rohdaten an.

Öffnen Sie alle Ihre Einzelaufnahmen, die durch einen Ihrer Filter aufgenommen wurden (wenn Sie eine Monochromkamera mit Farbfiltern verwenden). Wählen Sie als Nächstes das Pulldown-Menü Prozess/Kalibrieren. Das Fenster Calibration Manager wird geöffnet, das automatisch Ihre Master-Dark-, Bias- und Flat-Frames findet, wenn sie in demselben Ordner gespeichert wurden, in dem Sie zuvor gearbeitet haben. Wenn nicht, klicken Sie auf die Schaltfläche „Dark Manager“ und navigieren Sie zu Ihren Masterframes. Sobald alle Ihre Master-Frames ausgewählt sind, klicken Sie einfach unten links auf die Schaltfläche „Auf alle anwenden“ und in etwa einer Minute werden alle Ihre Bilder in dieser Gruppe kalibriert. Speichern Sie jedes dieser kalibrierten Bilder, indem Sie im Pulldown-Menü Datei/Daten speichern/Enthalten auswählen. Es öffnet sich ein neues Fenster, in dem Sie Ihrem Dateititel ein Suffix hinzufügen können, um ein Überschreiben Ihrer Rohdaten zu vermeiden. Wählen Sie die 32-Bit-FIT-Float-Dateioption. Jetzt können Sie die gleichen Schritte für jede Ihrer anderen gefilterten Bildgruppen wiederholen.

Nun, da alle unsere Bilder kalibriert sind, richten wir jeden Frame aus. Wenn Sie viel RAM auf Ihrem Computer und einen schnellen Prozessor haben, können Sie alle Ihre kalibrierten Aufnahmen öffnen und auf einmal ausrichten. Wenn Sie nur über begrenzten Speicher verfügen, können Sie Ihre Ausrichtung in Gruppen durchführen. Denken Sie jedoch daran, ein Bild als „Basisbild“ auszuwählen, an dem alle anderen ausgerichtet werden. Stellen Sie sicher, dass Ihr Ausrichtungsrahmen das sichtbare Bild ist, wählen Sie dann das Pulldown-Menü Stapeln/Registrieren und das Registrierungsfenster wird geöffnet. CCD-Stapel 2 erkennt automatisch mehrere Sterne in Ihren Bildern oder ermöglicht es Ihnen, Ihre eigenen Punkte zur Registrierung auszuwählen, wenn Sie dies wünschen. Nachdem Sie die Ausrichtungspunkte ausgewählt haben, klicken Sie unten links auf die Schaltfläche „Alle ausrichten“ und in wenigen Augenblicken sollte jede Ihrer Unterbelichtungen richtig ausgerichtet sein. Bevor Sie die Ausrichtung dauerhaft anwenden, schwenken Sie jedes Ihrer Bilder, um sicherzustellen, dass jedes richtig funktioniert. Klicken Sie in diesem Fall oben rechts auf die Registerkarte Übernehmen. Das Programm bietet einige Resampling-Optionen, um die Subpixel-Verschiebung jedes Frames auszugleichen. Ich bevorzuge bikubischen B-Spline, aber Sie können experimentieren, um zu sehen, was für Ihre Bilder am besten funktioniert. Nachdem die Ausrichtung angewendet wurde, speichern Sie die Ergebnisse mit einem neuen Suffix.

Nach der Kalibrierung ist das Ausrichten Ihrer Teilbelichtungen einfach in CCD-Stapel 2. Öffnen Sie einfach alle auszurichtenden Bilder, wählen Sie Stapeln/Registrieren, und das Programm wählt automatisch mehrere Sterne aus, die als Registrierungspunkte verwendet werden sollen. Es zeigt auch eine Art „Unterschied“ zwischen dem Basisfoto und jedem nachfolgenden Bild an, das es leicht macht zu erkennen, wenn zwei Bilder nicht ausgerichtet (links) und ausgerichtet (rechts) sind.
Bob Fera

Datenablehnung

An diesem Punkt haben wir alle unsere Bilder kalibriert, ausgerichtet und bereit zum Stapeln. Durch die richtige Kombination Ihrer Subframes wird das Signal-Rausch-Verhältnis Ihres endgültigen Bildes dramatisch erhöht, während unerwünschte Flugzeug- und Satellitenspuren und andere zufällige Artefakte eliminiert werden. Im CCD-Stapel 2 Dies umfasst drei Schritte: Normalisieren, Daten ablehnen und Kombinieren.

Durch die Normalisierung Ihrer Daten werden Variationen des Himmelshintergrunds und der Transparenz mathematisch kompensiert, indem alle Ihre offenen Unterbelichtungen auf ähnliche Helligkeitswerte für die entsprechenden Pixel skaliert werden. Dieser Schritt ist notwendig, um das beste Stapelergebnis zu erzielen.

Öffnen Sie zuerst alle Bilder, die mit einem einzigen Filter aufgenommen wurden, und wählen Sie Stapel/Normalisieren/Steuerung/Beide. Es öffnet sich ein kleines Fenster, in dem Sie aufgefordert werden, den Himmelsbereich im Hintergrund zu identifizieren. Klicken Sie einfach mit der Maus und ziehen Sie eine winzige rechteckige Auswahl um einen Bereich, der ein „neutraler“ Hintergrundhimmel ohne helle Nebel, Galaxien oder Sterne in Ihrer Auswahl ist. Versuchen Sie bei Bildern, bei denen Nebel das gesamte Bild durchdringt, eine Region mit der schwächsten Nebelbildung oder einen dunklen Nebel als Hintergrundauswahl zu finden. Nachdem Sie Ihre Auswahl getroffen und auf OK geklickt haben, fordert Sie das Programm auf, einen Markierungsbereich auszuwählen. Dies wird höchstwahrscheinlich Ihr Hauptmotiv sein, sei es eine Galaxie, ein Nebel, ein Sternhaufen oder ein Komet. Treffen Sie eine Auswahl um den hellsten Bereich und klicken Sie auf OK. Das Informationsfenster erscheint und zeigt den berechneten Offset für jedes Ihrer geöffneten Bilder an.

Als nächstes müssen wir auswählen, welche Methode der Datenzurückweisung verwendet werden soll. Die Datenzurückweisung identifiziert und entfernt unerwünschte Artefakte in jedem Ihrer einzelnen Bilder und ersetzt die störenden Bereiche in Ihrem endgültigen gestapelten Ergebnis durch die entsprechende Region aus mehreren nicht betroffenen Teilbildern.

Wählen Sie Stack/Data Reject/Procedures und ein weiteres neues Befehlsfenster wird geöffnet. Hier wählen wir den Datenzurückweisungsalgorithmus aus der Pulldown-Liste aus. Ich bevorzuge die Verwendung der STD-Sigma-Ablehnung, aber Sie können erneut experimentieren, um herauszufinden, was für Ihre Bilder am besten funktioniert. Aktivieren Sie das Kontrollkästchen "oberes Bild %", setzen Sie den Wert auf 2 und klicken Sie dann auf die Schaltfläche "Auf alle anwenden". Dies kann einige Augenblicke dauern, aber nach Abschluss zeigt das Programm alle abgelehnten Pixel in jeder Ihrer Teilbelichtungen in leuchtendem Rot an. Schließen Sie nun einfach das Fenster und fahren Sie mit dem nächsten Schritt fort.

Jetzt können wir unsere Bilder zu den endgültigen Stapeln kombinieren. Auch hierfür bietet das Programm eine Reihe von Möglichkeiten. Sehen Sie in der internen Hilfedatei nach, um herauszufinden, welche am besten zu Ihren Bildern passt. Ich bevorzuge gemeines Kombinieren, also wähle ich Stapel/Kombinieren/Mittel aus dem oberen Pulldown-Menü. Die Software berechnet dann den Mittelwert für jedes Pixel im Stapel von Unterbelichtungen, wobei die zurückgewiesenen Pixel ausgeschlossen werden. Dadurch erhalten Sie das maximale Signal-Rausch-Verhältnis in Ihrem endgültigen Bild. Wenn Sie fertig sind, speichern Sie das resultierende Bild (Datei/Daten speichern/Dies) und wählen Sie erneut 32-Bit-FITS-Integer-Dateien. Schließen Sie alle Dateien (Datei/Alle Bilder entfernen) und wiederholen Sie die gleichen Schritte für alle gleich gefilterten Dateien.

Bob Fera

Jetzt haben wir Master-FITS-Dateien, die zu einem Farbbild kombiniert werden können. Ich bevorzuge es, Luminanzbilder separat zu verarbeiten und sie dann dem Farbergebnis hinzuzufügen in Photoshop. Bevor Sie einen der Stapel kombinieren, überprüfen Sie ihn sorgfältig und gehen Sie auf alle Gradienten ein, die sich auf die einzelnen Stapel auswirken können. CCD-Stapel 2 verfügt über einen Algorithmus zum Entfernen von Farbverläufen, der im Pulldown-Menü Prozess/Hintergrund abflachen zu finden ist, bei dem Sie auf Bereiche in Ihrem Bild klicken müssen, bis sie gleichmäßig beleuchtet erscheinen.

Stretching und Dekonvolution

Lassen Sie uns nun unsere Luminanzdatei mit der Funktion Digital Development Process (DDP) dehnen. Eine der wichtigsten Funktionen der Software ist die Möglichkeit, eine „live“ DDP mit der angezeigten Version Ihrer Datei durchzuführen. Öffnen Sie zuerst Ihr Master-Luminanzbild und wählen Sie Fenster/Anzeige anpassen, wodurch ein Fenster geöffnet wird, in dem Schieberegler angezeigt werden, um Hintergrund, Maximum, Gamma und DDP des angezeigten Bildes anzupassen. Sie können nun einfach jeden der Schieberegler anpassen, bis Sie mit dem angezeigten Ergebnis zufrieden sind. Je niedriger der DDP-Wert ist (beim Verschieben des Schiebereglers nach links), desto heller wird das Bild. Ich schlage vor, das Bild etwas dunkler erscheinen zu lassen, als es letztendlich aussehen soll. Dies führt den Großteil der erforderlichen Dehnung durch, lässt aber noch Raum für letzte Optimierungen in Photoshop. Sobald das Bild wie gewünscht aussieht, verringern Sie den Hintergrundwert um etwa 50 Punkte, um ein Abschneiden des Schwarzwerts in Ihrem endgültigen Bild zu vermeiden. Wenden Sie die Anzeigeeinstellungen mit der Pulldown-Option Datei/Skalierte Daten speichern/Dies auf Ihr Bild an und wählen Sie TIFF 16 Bit.

Zu den innovativsten Funktionen des Programms gehört die Möglichkeit, beim Strecken eines Bildes „Live“-Feedback anzuzeigen, um sowohl die schwächsten Bereiche als auch die hellsten Bereiche gleichzeitig anzuzeigen. Bewegen Sie im Steuerfenster „Anzeige anpassen“ einfach den DDP-Schieberegler nach links und rechts, um Ihr Bild anzupassen, oder ändern Sie den Hintergrund und die Anzeige des maximalen Pegels. Keine dieser Aktionen wird dauerhaft angewendet, bis Ihr Bild gespeichert ist.
Bob Fera

Sie können Ihr Bild auch mit Dekonvolution schärfen, um die Sterne zu schärfen und kleine Merkmale zu schärfen. CCD-Stapel 2 hat eine ausgezeichnete Dekonvolutionsroutine namens Positive Constraint, die bei mäßiger Anwendung hervorragende Arbeit leistet, ohne unerwünschte Artefakte wie dunkle Halos um Sterne herum einzuführen. Wählen Sie Verarbeiten/Entfalten. Es öffnet sich ein neues Fenster und eine Reihe von Sternen mit gelben + Symbolen darüber. Dies sind Sterne, die das Programm ausgewählt hat, um ihre Point-Spread-Funktion (PSF) zu messen, um die Stärke des Dekonvolutionsalgorithmus zu bestimmen. Sie können auch auf beliebige Sterne doppelklicken, die das Programm in seine Berechnungen einbeziehen soll. Wählen Sie Sterne, die nicht gesättigt und gut definiert sind (d. h. nicht in Nebel eingebettet oder in eine sichtbare Galaxie eingebettet sind). Wählen Sie als Nächstes Positive Constraint am unteren Rand des Fensters und legen Sie die Anzahl der Iterationen fest, die ich oft verwende 30 bis 50. Klicken Sie nun auf die Schaltfläche „Deconvolve“ und in wenigen Minuten ist der Vorgang abgeschlossen, speichern Sie die resultierende FITS-Datei. Sie können die gleichen DDP-Einstellungen auf das entfaltete Bild anwenden wie auf das Original, indem Sie zur unbearbeiteten Version wechseln und im Fenster "Display Manager" auf "Auf alle anwenden" klicken. Speichern Sie die entfaltete Version als skaliertes 16-Bit-TIFF, um sie später mit dem Farbbild zu kombinieren Photoshop.

Farbkombination

Lassen Sie uns schließlich unsere roten, grünen und blauen Dateien zu einem RGB-Bild kombinieren. Um dies am besten zu erreichen, müssen Sie zunächst die richtigen RGB-Verhältnisse für Ihre spezielle CCD-Kamera, Filter und Himmelsbedingungen bei der Aufnahme der Bilder kennen. Obwohl es mehrere Möglichkeiten gibt, diese Werte für Ihr System einmal zu messen, müssen bei jedem Datensatz auch Anpassungen für die atmosphärische Extinktion vorgenommen werden, die durch die Höhe des Ziels verursacht wird, wenn jede Serie von Farbunterbelichtungen aufgenommen wurde. Ich bevorzuge die kostenlose Software eXkalibrator (http://bf-astro.com/excalibrator/excalibrator.htm) zur Bestimmung einer genauen Farbbalance (siehe www.skypub.com/excalibrator). Eine einfache Methode für den Einstieg in die ungefähre Farbbalance in CCD-Stapel 2 besteht darin, Ihre roten, grünen und blauen Dateien aufeinander zu normalisieren und dann die Bilder im Verhältnis 1:1:1 zu kombinieren. Wählen Sie wie zuvor beschrieben einen neutralen Hintergrundbereich und dann die Lichter aus. Wählen Sie nach der Normalisierung Farbe/Erstellen aus dem Pulldown-Menü. Es öffnet sich das Fenster Farbbild erstellen, in dem Sie Ihre gefilterten Bilder den jeweiligen Kanälen zuordnen können. Sie können hier bei Bedarf auch Ihr Master-Luminanzbild einbinden, achten Sie jedoch darauf, das gestreckte Luminanzbild nicht einzubeziehen. Klicken Sie auf die Schaltfläche „Erstellen“ und in Kürze erscheint Ihr kombiniertes Farbbild.

Sofort erscheint ein kleines Fenster mit dem Namen Set Background mit Ihrer Farbdatei. Wenn Ihr Bild eine zusätzliche Farbanpassung erfordert, ziehen Sie einfach einen Rahmen um einen neutralen Hintergrundbereich und klicken Sie auf „OK“. Mit dem Befehl Farbe/Anpassen im Pulldown-Menü können Sie zusätzliche Hintergrund- und Glanzlichtkorrekturen vornehmen.

Subtile Farbvariationen und feine Details in Zielen wie den Reflexions-/Emissionsnebeln NGC 1973, 1976 und 1977 lassen sich mit den Werkzeugen in . leicht erhalten und verbessern CCD-Stapel 2.
Bob Fera

Wenn Sie mit dem Gesamtfarbbild zufrieden sind, können Sie das Ergebnis mit dem DDP-Schieberegler strecken und das Ergebnis für weitere Anpassungen in speichern Photoshop, und schließen Sie das gestreckte Luminanzbild ein.

Die korrekte Ausführung dieser Schritte bietet eine solide Grundlage, auf der Sie aufbauen und ändern können, sobald Sie sich mit allen verfügbaren Tools vertraut gemacht haben CCD-Stapel 2. Die Verwendung der Sigma-basierten Datenzurückweisungsalgorithmen der Software, Live-DDP und eine milde Anwendung von Positive Constraint Dekonvolution verschafft Ihnen einen Vorsprung auf dem Weg zur Produktion von Bildern, die eines Tages in Sky & Teleskop.

Bob Fera fotografiert den Nachthimmel von seinem Hinterhof-Observatorium unter dem dunklen Himmel Nordkaliforniens.


So funktioniert Image Stacking

Bildstapelung ist eine beliebte Methode der Bildverarbeitung bei Astrofotografen, obwohl die exakt gleiche Technik auf jede Situation angewendet werden kann, in der identische Bilder über einen bestimmten Zeitraum aufgenommen werden können, d. h. in Situationen, in denen sich die Szene aufgrund von Bewegung nicht ändert oder variierendes Licht und Schatten. Die Astrofotografie ist auf diese Weise perfekt geeignet, da astronomische Objekte für eine angemessene Zeitdauer effektiv statisch sind. Bei Deep-Sky-Objekten sind die Objekte praktisch permanent. Bei Planetenbildern ändern sie sich so langsam, dass eine mindestens einige Minuten lange Bilderserie ohne beobachtbare Bewegung aufgenommen werden kann.

Als ich zum ersten Mal Zeuge der Auswirkungen von Image Stacking wurde, war ich vom Ergebnis völlig überwältigt. Es scheint fast magisch, dass aus solch schrecklichen Originalbildern so viele echte Informationen gewonnen werden können. Aber die eigentliche Erklärung ist natürlich recht einfach zu verstehen.

Image Stacking macht zwei sehr unterschiedliche Dinge gleichzeitig. Es erhöht das Signal-Rausch-Verhältnis und erhöht den Dynamikbereich. Ich werde jedes davon separat besprechen.

Ein Punkt der Verwirrung, der frühzeitig gelöst werden sollte, ist, ob es einen Unterschied zwischen Mittelwertbildung und Summierung gibt. Da dies nach wie vor umstritten ist, kann ich nur behaupten, dass meine Erklärung Sinn macht. Wenn man meiner Erklärung nicht folgt, kann man mir widersprechen. Die kurze Antwort ist, dass sie identisch sind. Es macht keinen Unterschied, ob Sie zu einer Summe oder einem Durchschnitt stapeln. Diese Behauptung geht jedoch davon aus, dass ein Durchschnitt mit Gleitkommawerten dargestellt wird. Wenn Sie in ganzzahlige Werte mitteln, haben Sie viele Detailinformationen weggeworfen. Genauer gesagt behaupte ich, dass es einen kontinuierlichen Bereich von Darstellungen eines Stapels gibt, der zwischen einer Summe und einem Durchschnitt variiert, die einfach darin bestehen, die Summe durch eine beliebige Zahl zwischen eins und der Anzahl der gestapelten Bilder zu teilen.Auf diese Weise ist es offensichtlich, dass Summieren und Mittelwertbildung identisch sind und die gleichen grundlegenden Informationen enthalten.

Um nun tatsächlich einen Stapel anzuzeigen, müssen die Werte irgendwie in ganzzahlige Komponenten der Helligkeit eines Bildes bei jedem Pixel umgewandelt werden. Dies ist mit einer Summe oder einem Stapel nicht einfacher oder schwieriger zu bewerkstelligen, da beide nicht den notwendigen Anforderungen von Standardbilddarstellungen gerecht werden. Die Summe enthält Werte, die weit über dem maximal möglichen darstellbaren Wert liegen, und der Durchschnitt enthält Gleitkommawerte, die ohne vorherige Umwandlung in ganze Zahlen nicht sofort als Bildpixel interpretiert werden können. Die Lösung in beiden Fällen ist die exakt gleiche mathematische Operation. Finden Sie einfach den notwendigen Divisor, um das hellste Pixel im Stapel ohne Sättigung darzustellen, und teilen Sie dann alle Pixel im Bild durch diesen Divisor und konvertieren Sie die geteilten Werte in ganze Zahlen. Da die Transformation in beiden Fällen identisch ist, enthalten beide Formulare eindeutig die gleichen Informationen.

Der einzige Grund, warum ich so viel darauf spreche, ist, dass es richtig verstanden werden muss, bevor man wirklich verstehen kann, was Stapeln macht, was eigentlich extrem einfach ist, wenn man sich damit befasst.

Die klassische Anwendung des Image Stacking ist die Erhöhung des Signal-Rausch-Verhältnisses (snr). Das klingt zunächst technisch und verwirrend, ist aber ganz einfach zu verstehen. Schauen wir uns das in Teilen an und sehen dann, wie das Ganze funktioniert.

Das erste, was Sie wissen müssen, ist, dass dies eine Pixel-für-Pixel-Operation ist. Jedes Pixel wird völlig unabhängig von allen anderen Pixeln bearbeitet. Aus diesem Grund ist es am einfachsten, sich vorzustellen, dass Ihr Bild nur ein einziges Pixel breit und hoch ist. Mir ist klar, dass das seltsam ist, aber ertrage es mit mir. Ihr Bild ist also ein einzelnes Pixel. Was ist das für ein Pixel in jedem deiner Raw-Frames? Es ist das "Signal", echte Photonen, die in das Teleskop eingetreten sind und sich im CCD-Sensor der Kamera angesammelt haben, plus das thermische Rauschen des CCD und die Vorspannung zusammen mit allen Flatfield-Effekten. plus ein paar zufällige Geräusche, die für ein gutes Maß eingeworfen werden. Es ist dieses letzte Geräuschelement, mit dem wir uns beschäftigen. Die anderen Faktoren lassen sich am besten durch Operationen wie Darkframe-Subtraktion und Flatfield-Division behandeln. Es ist jedoch offensichtlich, dass wir nach der Durchführung solcher Operationen an einem Raw immer noch kein schönes Bild haben, zumindest im Vergleich zu dem, was durch Stapeln erzeugt werden kann. Warum ist das?

Das Problem ist das letzte Element des Zufallsrauschens. Stellen Sie sich das folgende Experiment vor: Wählen Sie Zufallszahlen (positiv und negativ) aus einer bei Null zentrierten Gaußschen Verteilung aus. Da die Verteilung gaußförmig ist, ist der wahrscheinlichste Wert genau Null, aber bei jedem Versuch (eine Zahl ausgewählt) werden Sie praktisch nie eine tatsächliche Null erhalten. Was passiert jedoch, wenn Sie eine ganze Reihe von Zufallszahlen nehmen und sie mitteln. Offensichtlich nähert sich der Durchschnitt Ihrer Zahlen immer mehr der Null, je mehr Zahlen Sie auswählen, oder? Dies geschieht aus zwei Gründen. Erstens, da die Gauß-Funktion symmetrisch ist und bei Null zentriert ist, haben Sie bei jedem Versuch eine Änderung von eins zu zwei, indem Sie eine positive oder negative Zahl auswählen. Darüber hinaus haben Sie aufgrund der Form der Gauß-Funktion eine größere Chance, Zahlen mit einem niedrigen absoluten Wert zu wählen. Zusammengenommen zeigen diese beiden Gründe deutlich, dass der Durchschnitt einer Reihe zufällig ausgewählter Zahlen (aus dieser Verteilung) asymptotisch gegen Null konvergiert (natürlich ohne dass jede wirklich Null erreicht).

Stellen Sie sich nun vor, dass diese Gaußsche Verteilung von Zufallszahlen das Rauschen in Ihrem Pixelmuster darstellt. Wenn Sie gleichzeitig mit dem Rauschen auch echtes Licht sammeln, ist das Zentrum der Gauß-Funktion nicht Null. Es ist der wahre Wert des Objekts, das Sie abbilden. Mit anderen Worten, der Wert, den Sie mit dem CCD in einem einzelnen Bild aufzeichnen, entspricht dem wahren gewünschten Wert plus einem zufällig gewählten Gauß-Wert, wodurch der aufgezeichnete Wert kleiner als der wahre Wert oder größer als dieser Wert sein kann.

. aber wir haben gerade festgestellt, dass wiederholte Abtastungen des Rauschens gegen Null gehen. Was Stacking also wirklich macht, ist, den fraglichen Wert wiederholt abzutasten. Der wirkliche wahre Wert ändert sich nie wirklich, da die Anzahl der vom Objekt eintreffenden Photonen von einem Bild zum nächsten relativ konstant ist. Währenddessen konvergiert die Rauschkomponente gegen Null, wodurch sich der gestapelte Wert über eine Reihe von gestapelten Abtastwerten dem wahren Wert annähern kann.

Das war's, was das snr-Problem angeht. Es ist ziemlich einfach, nicht wahr.

Eine weitere Aufgabe des Stackings, die in der Literatur nicht allzu hoch beschrieben wird, aber für Deep-Sky-Astrofotografen von großer Bedeutung ist, ist die Erhöhung des Dynamikumfangs des Bildes. Dies kann natürlich nur verstanden werden, wenn Sie bereits verstehen, was Dynamikumfang überhaupt ist. Einfach ausgedrückt, stellt der Dynamikbereich die Differenz zwischen dem hellsten möglichen Aufnahmewert und dem dunkelsten möglichen Aufnahmewert dar. Werte, die größer als der hellstmögliche Wert sind, sättigen (und werden daher als hellstmöglicher erfassbarer Wert anstelle ihres tatsächlichen Werts begrenzt), während Werte, die unter dem hellstmöglichen Wert dimmbar sind, einfach nach unten fallen und als 0 aufgezeichnet werden.

Verstehen Sie zuerst, wie dies in einem einzelnen Rohbild funktioniert, das mit einem CCD-Sensor aufgenommen wurde. CCDs haben eine inhärente Empfindlichkeit. Licht, das für ihre Empfindlichkeit zu schwach ist, wird einfach nicht aufgezeichnet. Dies ist die untere Grenze, der dunkelste mögliche Wert, der aufgezeichnet werden kann. Die einfachste Lösung für dieses Problem besteht darin, über einen längeren Zeitraum zu belichten, um den Lichtwert über dem dunkelsten aufnahmefähigen Wert zu erreichen, damit er tatsächlich aufgezeichnet wird.

Wenn jedoch die Belichtungszeit erhöht wird, erhöht sich der Wert der hellsten Teile eines Bildes zusammen mit dem Wert der dunkelsten Teile des Bildes. An dem Punkt, an dem Teile des Bildes gesättigt sind und als hellstmöglicher Wert anstelle ihres wahren (helleren) Wertes aufgezeichnet werden, wird die Aufnahme übersteuert und wichtige Informationen gehen verloren.

Jetzt können Sie verstehen, was Dynamikumfang in einem CCD-Sensor und einem einzelnen Bild bedeutet. Bestimmte Objekte haben einen Helligkeitsbereich, der den Helligkeitsbereich überschreitet, der von der CCD aufgezeichnet werden kann. Der Helligkeitsbereich des Objekts ist sein tatsächlicher Dynamikbereich, während der Bereich der aufnehmbaren Helligkeit im CCD der aufzeichenbare Dynamikbereich des CCD ist.

Die folgende Abbildung zeigt die oben beschriebenen Konzepte. Beachten Sie, dass es keine perfekte Belichtungszeit für ein Objekt gibt. Es hängt davon ab, ob Sie bereit sind, die dunklen Teile zu verlieren, um die Sättigung der hellen Teile zu verhindern, oder ob Sie die hellen Teile sättigen, um die dunklen Teile zu erhalten. Das Stapeln hilft diesem Problem nur in begrenztem Maße, wie unten beschrieben. Sind diesbezüglich die Grenzen des Stapelns erreicht, müssen kompliziertere Ansätze verwendet werden, wie zum Beispiel das Mosaikieren, bei dem ein kurzer Belichtungsstapel mit einem langen Belichtungsstapel gemischt wird, sodass jeder Stapel nur die Bereiche des Bildes beisteuert, in denen er hat nützliche Informationen.

CCDs sind analoge Geräte (oder digital in der Größenordnung von Photonen in den CCD-Wells und Elektronen in den Drähten, die elektrische Signale vom CCD zum Computer senden). Analoge Geräte senden ihre Signale jedoch über Analog/Digital-Wandler (A/D-Wandler), bevor sie die digitalen Informationen an den Computer senden. Dies ist praktisch für Computer, führt jedoch einen willkürlichen Punkt der Einschränkung des Dynamikbereichs in das Bildgebungsgerät ein, der theoretisch nicht vorhanden sein muss. Ein analoges Gerät hätte theoretisch einen großen Dynamikbereich, leidet aber unter ernsthaften Rauschproblemen (deshalb klingen digitale Ferngespräche und Mobiltelefone besser als analoge). Die Frage ist, wie sich der A/D-Wandler auf den Dynamikbereich auswirkt, oder anders gesagt, da wir uns nur um das Endprodukt kümmern, was genau ist der Dynamikumfang des Bildes, das aus dem A/D-Wandler kommt. Die Antwort ist, dass verschiedene Kameras eine unterschiedliche Anzahl von digitalen Bits produzieren. Webcams produzieren normalerweise 8 Bit, während professionelle Kameras normalerweise zwölf bis sechzehn Bit produzieren.

Dies bedeutet, dass professionelle Kameras im Vergleich zu einer Webcam sechzehn bis 256 Mal mehr digitalisierte Werte haben, um Helligkeiten darzustellen. Das bedeutet, dass Sie mehr Platz haben, wenn Sie die Belichtungszeit erhöhen, um die dunklen Teile eines Objekts in den Aufnahmebereich zu bringen links oben in Ihrem Bereich, um die hellsten Teile des Objekts aufzunehmen, bevor sie gesättigt werden.

Was also bewirkt das Stapeln? Die kurze Antwort lautet, dass die Anzahl der möglichen digitalisierten Werte linear mit der Anzahl der gestapelten Bilder erhöht wird. Sie nehmen also eine Reihe von Bildern auf, die sorgfältig belichtet werden, um die hellsten Teile nicht zu sättigen. Dies bedeutet, dass Sie ehrlich riskieren, die dunkelsten Teile zu verlieren. Wenn Sie jedoch den Stapel ausführen, akkumulieren die dunkelsten Teile zu höheren Werten, die dem Boden des Dynamikbereichs entgehen, während gleichzeitig der Dynamikbereich erhöht wird, da die hellsten Teile heller und heller werden, wenn mehr Bilder zum Stapel hinzugefügt werden. Es ist, als ob der maximal mögliche hellste Wert gerade genug ansteigt, um der zunehmenden Helligkeit der gestapelten Werte der hellsten Pixel voraus zu sein, wenn dies sinnvoll ist.

Auf diese Weise enthält das gestapelte Bild sowohl dunkle als auch helle Teile eines Bildes, ohne dass die dunklen Teile unten oder die hellen Teile oben verloren gehen.

Nun sollte sofort klar sein, dass hier etwas nicht stimmt. Wenn die Rohframes mit einer ausreichend kurzen Zeitspanne belichtet wurden, um die dunklen Teile überhaupt nicht zu sammeln, weil die dunklen Teile auf Null geschossen waren, wie wurden sie dann im Stapel akkumuliert? Wenn der Wert in einem bestimmten Raw auf Null fällt, trägt es in Wahrheit nichts zum Stack bei. Stellen Sie sich jedoch vor, dass der wahre Wert eines schwachen Pixels irgendwo zwischen null und eins liegt. Die Digitalisierung des A/D-Wandlers macht aus diesem Wert eine Null, oder? Nicht unbedingt. Denken Sie daran, es gibt Lärm, mit dem Sie kämpfen müssen. Das Rauschen ist hier hilfreich, da der aufgezeichnete Wert eines solchen Pixels manchmal Null, manchmal Eins und gelegentlich sogar zwei oder drei beträgt. Dies gilt natürlich für ein wirklich schwarzes Pixel ohne echtes Licht, aber im Fall eines schwachen Pixels liegt der Durchschnitt der Gaußschen Funktion zwischen null und eins, nicht wirklich null. Wenn Sie eine Reihe von Samples dieses Pixels stapeln, wird tatsächlich ein Signal akkumuliert, und der Wert wird über den Grundwert des gestapelten Bildes ansteigen, was natürlich nur einer ist.

Interessanterweise ist es leicht zu erkennen, welche Teile eines Bildes einen wahren Wert haben, der in jedem Rohbild niedriger als eins ist. Wenn der Summenwert eines Pixels kleiner ist als die Anzahl der Bilder im Stapel, oder wenn der Durchschnittswert des Pixels ein Gleitkommawert unter eins ist, dann muss der wahre Wert in den Rohbildern eindeutig unter eins liegen, da einige von die Rohbilder müssen eine Null zum Stapel beigetragen haben, damit der gestapelte Wert kleiner ist als die Anzahl der gestapelten Bilder, nachdem eine Summe erzeugt wurde. (Dies berücksichtigt nicht, dass hier natürlich auch etwas Rauschen im Spiel ist, was bedeutet, dass ein Pixel mit einem wahren Wert von 1,5 möglicherweise von einigen Rohbildern eine Null bekommt, aber der gestapelte Wert sollte theoretisch größer sein als einer im gemittelten Stapel natürlich).

Auch hier spielt ein weiterer Faktor eine Rolle. Die Gaußsche Verteilung hat ungefähr die gleiche Form (Varianz oder Standardabweichung) unabhängig von der Helligkeit des tatsächlichen Pixels, was bedeutet, dass die Rauschkomponente eines Pixels bei schwachen Pixeln viel stärker ist als bei hellen Pixeln. Daher ermöglicht Ihnen das Stapeln, den Wert dunkler Pixel in einen Bereich aufzuhellen, in dem sie nicht vom Rauschen übertönt werden. während gleichzeitig das Rauschen sowieso verringert wird, wie in der Beschreibung in der ersten Hälfte dieses Artikels beschrieben. Dies ist ein weiterer entscheidender Aspekt dafür, wie durch Stapeln dunkle Teile eines Bildes sichtbar werden. Aus dem gleichen Grund sind in jedem Rohbild die hellen Teile, obwohl verrauscht, in ihrer Grundstruktur gut erkennbar, während die dunklen Teile praktisch unverständlich erscheinen können.


Deep-Sky-Stacking-Programme für digitale Spiegelreflexkameras

Ein gängiger Ansatz in der Astrofotografie ist die Verwendung von digitalen SLR-Kameras (DSLR). Diese sind relativ billig, können für Astronomie und gewöhnliche terrestrische Fotografie verwendet werden und produzieren überraschend gute Astronomiebilder, so dass sie ziemlich beliebt geworden sind.

Für den Einstieg in die DSLR-Astrofotografie sind einige grundlegende Schritte erforderlich. Ich würde sie zusammenfassen als:
1. Kaufen Sie eine Kamera
2. Kaufen Sie ein Stativ, Teleskop oder eine andere Tracking-Plattform
3. Erwerben Sie eine Software, mit der Sie Fotos mit Langzeitbelichtung aufnehmen können
4. Erwerben Sie eine Software, um die von Ihnen aufgenommenen Fotos zu verarbeiten (einschließlich Stapeln).

Aus dem oben Gesagten ergibt sich oft die Frage, welche Software zum Stapeln und Verarbeiten der resultierenden Bilder verwendet werden soll, die Sie mit Ihrer Kamera aufnehmen. Oder es ist auch oft der Fall, dass die Leute nicht erkennen, dass es Software gibt, die dies einfach macht. Deshalb werde ich hier ein paar Optionen auflisten, die es hoffentlich für jeden einfacher machen, der diese Seite findet.

Falls Sie Programme kennen, die für die DSLR-Astrofotografie-Bildverarbeitung geeignet sind, die nicht auf dieser Liste stehen, lassen Sie es mich bitte wissen, auch wenn Informationen hier aktualisiert werden müssen. Vielen Dank.

Geeignete Software zum Stapeln und/oder Verarbeiten von DSLR-Bildern von Astrofotografie:

Deep-Sky-Stapler

Dies ist eine kostenlose und sehr leistungsfähige Software zum Ausrichten, Kombinieren und Nachbearbeiten von Astrofotografien von digitalen Spiegelreflexkameras. Das Beste an dieser Software ist, dass sie kostenlos ist und erstaunlich fähig für etwas ist, das kostenlos ist.

Diese Software liest eine Vielzahl von Dateiformaten, einschließlich des Canon RAW-Formats, und verarbeitet sie. Ich hatte einige Probleme mit der Verarbeitung von Canon-RAW-Dateien in Bezug auf eine gute Farbbalance nach dem Stapeln, daher entscheide ich mich oft, die RAW-Dateien vor der Verarbeitung zuerst in TIF zu konvertieren. Dies kann einfach an meiner mangelnden Erfahrung liegen, da ich diese Software nicht oft verwende.

Die Registrierungsfähigkeiten von Deep Sky Stacker sind sehr gut, entsprechen aber nicht den Fähigkeiten von RegiStar oder PixInsight, wenn es darum geht, eine gute Ausrichtung der Frames zu erhalten. Es gibt oft Fälle, in denen DSS Frames nicht richtig ausrichtet, wie es RegiStar und PixInsight tun.

Ich mag die Nachbearbeitungsfunktionen von Deep Sky Stacker nicht, also beende ich meine Verwendung von DSS an dem Punkt, an dem es die “Autosave.tif” gestapelt hat, und bringe diese Datei von dort in PhotoShop, um die Nachbearbeitung durchzuführen -wird bearbeitet.

Der größte Vorteil von Deep Sky Stacker ist wahrscheinlich seine Benutzerfreundlichkeit (sehr intuitive und benutzerfreundliche Oberfläche) und seine Flexibilität, da es alle wichtigen Dateiformate unterstützt und verschiedene Szenarien abdeckt, die die meisten Astrofotografie-Anforderungen abdecken.

Sternenhimmel-Landschaftsstapler

Dies ist ein Apple/Mac-Programm und eine großartige Option für diejenigen, die kein Windows verwenden. Es ist effektiv eine gute Alternative zu Deep Sky Stacker für diejenigen, die Apple PCs verwenden.

PixInsight ist eine fortschrittliche Software zur Bildverarbeitung für Astrofotografie. Ich habe jetzt einige Erfahrung mit PixInsight für die Verarbeitung von CCD-Bildern von einer SBIG ST8-XME-Kamera und RAW CR2-Dateien von einer Canon 6D-DSLR und kann das Potenzial der Software sicherlich erkennen.

Wenn Sie einen One-Stop-Shop für Astrofotografie-Bildverarbeitung haben und gerne die 250 US-Dollar für PixInsight ausgeben, besteht eine sehr gute Chance, dass Sie keine der anderen auf dieser Seite aufgeführten Softwarekomponenten benötigen. Abgesehen davon werden Sie eine steile Lernkurve vor sich haben.

PixInsight funktioniert ganz anders als andere Software. Sie scheinen sogar Schaltflächen in Dialogfeldern zu platzieren, um den Benutzer zu verwirren. Der Unterschied in der Verarbeitung und der Benutzeroberfläche in PixInsight macht die Lernkurve zunächst sehr steil und beunruhigend. Es gibt online Video-Tutorials, die fast unerlässlich sind, um zu verstehen, wie man die Software verwendet, bevor Sie Ihre Haare verlieren, aber wenn Sie sich Sorgen machen, erweist sie sich als sehr leistungsfähig. Es dauerte einige Monate, bis ich zu PixInsight zurückkehrte, bevor ich mich damit vertraut machte und aufhörte, gegen Ziegelwände zu stoßen, um FIT- und DSLR-Bilder mit einiger Sicherheit verarbeiten zu können.

Funktionen wie das Anwenden einer LinearFit auf LRGB-Frames und die Funktion Dynamic Background Extraction auf jedes Bild zum Abflachen von Bildhintergründen sind besonders nützlich und relativ einfach zu verwenden, wenn Sie die Grundlagen der PixInsight-Benutzeroberfläche verstehen.

Wo andere Verarbeitungssoftware kein gutes Ergebnis von DSLR-Bildern lieferte (Software wie DSS, RegiStar und Photoshop), hat sich PixInsight hervorgetan und mehr Details in Bildern herausgebracht, als ich in den Rohdaten erkannt hatte.

Es besteht meines Wissens kein Zweifel, dass PixInsight die fortschrittlichste Software zum Stapeln von Deep-Sky-Bildern aus der Astrofotografie ist. Die Reihe von Prozessen und Plugins ist sowohl umfangreich als auch leistungsstark. Der Haken liegt nur in der Benutzerfreundlichkeit und wie geduldig Sie sein müssen, um durch die steile Lernkurve zu arbeiten, um gute Ergebnisse zu erzielen.

Wenn Sie PixInsight verwenden möchten, würde ich vorschlagen, mit DSS zu beginnen und die Grundlagen der Astrofotografie-Bildverarbeitung zu verstehen, bevor Sie mit dem entmutigenden Prozess beginnen, die Verwendung von PixInsight zu verstehen. Wenn Sie Bilder in guter Qualität einfach ausrichten können, erhalten Sie mit DSS wahrscheinlich in einem viel schnelleren Zeitrahmen ein sehr gutes Ergebnis als mit PixInsight, wodurch Sie mehr Schritte ausführen müssen.

Wenn Sie DSLR-Bilder mit PixInsight bearbeiten möchten, benötigen Sie eine bullige Maschine, auf der es ausgeführt werden kann. Es wird problemlos alle meine 16 Gigabyte RAM auf meinem Core i7 64-Bit-Windows-Computer verbrauchen, wenn ein Stapel von 20 DSLR-Bildern verarbeitet wird. Programme wie RegiStar arbeiten auf deutlich kleinerem Footprint.

PixInsight ist als 45-tägige kostenlose Testversion verfügbar.

StarStaX ist eine plattformübergreifende Image-Stacking-Software. Von ihrer Website: https://www.markus-enzweiler.de/StarStaX/StarStaX.html

StarStaX ist eine schnelle Multi-Plattform-Software zum Stapeln und Mischen von Bildern, die es ermöglicht, eine Reihe von Fotos mit verschiedenen Mischmodi zu einem einzigen Bild zusammenzuführen. Es ist in erster Linie entwickelt für

Sternenspurfotografie, bei der die relative Bewegung der Sterne in aufeinanderfolgenden Bildern Strukturen erzeugt, die wie Sternenspuren aussehen. Neben Sternenspuren kann es bei allgemeineren Bildüberblendungsaufgaben wie der Rauschreduzierung oder der synthetischen Belichtungsvergrößerung von großem Nutzen sein.

StarStaX verfügt über erweiterte Funktionen wie interaktives Lückenfüllen und kann eine Bildsequenz des Mischprozesses erstellen, die leicht in großartig aussehende Zeitraffervideos umgewandelt werden kann.

StarStaX befindet sich derzeit in der Entwicklung. Die aktuelle Version 0.70 wurde am 16. Dezember 2014 veröffentlicht. StarStaX steht als kostenloser Download für Mac OS X, Windows und Linux zur Verfügung.

StarStaX finden Sie hier: https://www.markus-enzweiler.de/StarStaX/StarStaX.html

CCDStack gehört zu einer Reihe von Produkten von CCDWare, die auf den fortgeschrittenen Einsatz von Teleskopen ausgerichtet sind.

Ich habe CCDStack jetzt in angemessener Menge für die Verarbeitung von Bildern meiner ST8-XME-Astronomiekamera verwendet und finde es sehr brauchbar und relativ leistungsstark. Ich mag Funktionen wie die Möglichkeit, zu sehen, welche Daten von einer Sigma-Funktion bei Lightframes abgelehnt werden, und dies sehr schnell und einfach im Vergleich zu PixInsight, bei dem keine Vorschau angezeigt wird, bevor der gesamte Stapel verarbeitet wird. Dies macht es sehr einfach, die Stacking-Parameter für ein gutes Ergebnis zu optimieren und unterschiedliche Filter auf einzelne Frames anzuwenden (z. B. wenn ein Satellit einen Frame passiert und diesen Frame stärker ausschließt).

CCDStack wird Ihre Frames leicht in nur wenigen Schritten registrieren, Frames normalisieren (gewichten), Frames Daten zurückweisen und Frames zu einem Stack kombinieren, wobei die Gewichtung durch die Normalisierung bestimmt wird.

Ich fand CCDStack eine gute und logische Weiterentwicklung von CCDSoft. Es ist benutzerfreundlich und verfügt über intuitive und nützliche Funktionen. Das Programm scheint auch relativ leicht zu sein und arbeitet effizient mit einer großen Anzahl von Dateien.

Ich habe CCDStack für DSLR-Bilder nicht ausprobiert. Es öffnet anscheinend CR2-RAW-Dateien (neben anderen Formaten), aber in meinem schnellen Versuch wurden CR2-Dateien von meiner Canon 6D nicht geöffnet (ich bin mir nicht sicher, warum).

Astro Pixel Prozessor

Astro Pixel Processor ist ein komplettes Bildverarbeitungs-Softwarepaket: https://www.astropixelprocessor.com/

Details noch ausstehend – Ich teste das noch!

Ich verwende MaximDL hauptsächlich zur Bildverkleinerung, da der Bildverkleinerungsprozess sehr schmerzlos ist. Versehen Sie es mit einem Verzeichnis aller Ihrer Reduktions-.FIT-Dateien und es wird sie in eine Datenbank mit Reduktionsgruppen einsortieren, die auf jedes Bild angewendet werden, das Sie öffnen. Öffnen Sie die .FIT, die kalibriert/reduziert werden muss, und es werden die entsprechenden Reduzierungsframes angewendet, ohne dass Sie Reduzierungsdateien mit der richtigen Temperatur, dem Binning usw. auswählen müssen. Dies ist erheblich einfacher als jedes der anderen Pakete, bei denen Sie alle mehr manuell tun müssen mit Verkleinerungsrahmen arbeiten. Die Vorteile der Verkleinerungs-Frame-Handhabung von MaximDL für .FIT-Dateien können auf die Verwendung von DSLR-Rohdateien übertragen werden oder nicht. – Ich habe die Reduzierung von DSLR-Bildern in Maxim nicht versucht.

Das Stapeln von MaximDL’ scheint fair zu sein, aber ich musste es nicht zum Ausrichten und Stapeln verwenden. Ich habe MaximDL auch nicht für große Bilder wie DSLR ausprobiert, wobei die größten, die ich normalerweise in Maxim verwende, die von meinem SBIG ST8-XME sind.

Dies ist eine fantastische Software zum Ausrichten und Kombinieren einzelner Astrofotografien von digitalen Spiegelreflexkameras. Es arbeitet sehr effizient mit großen Dateien, ist erstaunlich gut in der Lage, Fotos auszurichten und hat als Bonus ziemlich gute Stapelalgorithmen eingebaut.

Diese Software ist in erster Linie dafür gedacht, Rahmen einfach so zu registrieren (auszurichten), dass sie kombiniert werden können. Diese Software ist so gut, dass Sie alte Filmbilder mit neuen Digitalbildern oder Digitalbilder von verschiedenen Kameras mit unterschiedlichen Brennweiten und allen möglichen Arten kombinieren können. Es wird auch problemlos Felddrehungen (feststehende Stativaufnahmen sind OK) und so ziemlich jede andere Verzerrung verarbeiten.

Die Probleme, die ich mit dieser Software habe, sind, dass sie keine Canon RAW-Dateien liest, so dass zuerst eine Konvertierung in ein anderes Format wie TIF erforderlich ist, dass sie die Verkleinerung der Bilder nicht handhabt, sodass Sie eine andere Software benötigen (wie PhotoShop .). ), dies zuerst manuell zu tun, und dass beim Kombinieren von Frames zu einem Stack keine Gewichtung von Frames oder Sigma-Ausschluss von Rauschen in Frames bereitgestellt wird, so dass diese Software hauptsächlich zum Registrieren von Frames und zum Speichern dieser registrierten Frames nützlich ist, anstatt sie zu stapeln .

Die hervorragende Leistung von RegiStar bei der Registrierung von Frames hat ihren Preis, und in diesem Fall sind das etwa 159 US-Dollar.

Die mir bekannte Version von RegiStar ist 1.0 und wurde seit einiger Zeit (2004) nicht mehr aktualisiert. Dies bedeutet, dass es mit aktuellen Dateitypen (RAW) nicht auf dem neuesten Stand ist, aber die hervorragende Fähigkeit zum Ausrichten von TIF-Bildern nicht beeinträchtigt. Da die Zeit immer weiter vergeht und keine weiteren Updates veröffentlicht werden, ist es ratsam, eine alternative Software in Betracht zu ziehen, die regelmäßiger aktualisiert wird, wie z. B. PixInsight.

Zu ImagePlus kann ich nicht viel sagen, da ich es noch nicht für die DSLR-Bildbearbeitung verwendet habe. Viele Leute tun es jedoch und es ist sehr zu empfehlen. Sie können im Internet viele Informationen darüber finden.


Was ist Stacking in der Astrofotografie?

Unerwünschtes Rauschen in einem typischen Bild neigt dazu, bei verschiedenen Belichtungen zufällig zu sein, während das gewünschte Signal konsistent ist.

Beim Stapeln eines Satzes von Bildern werden die einzelnen Bildwerte gemittelt, was bedeutet, dass das zufällige Rauschen insgesamt geringer wird, das Signal jedoch konstant bleibt.

Dies bedeutet, dass das Verhältnis des Signals zum Rauschen zunimmt, was zu einem viel saubereren, detaillierteren Bild mit einem glatteren Hintergrund führt.

Was ist Dynamikumfang?

Neben dem Bestreben, das SNR ihrer Bilder zu erhöhen, streben Astro-Imager auch einen großen Dynamikbereich an.

Der dynamische Bereich ist die Streuung der Helligkeitsstufen vom dunkelsten aufgezeichneten Lichtwert, der erfasst werden kann, bis kurz vor der Sättigung der Pixel.

Zu den Objekten mit einem großen Dynamikbereich gehören die Andromeda-Galaxie und der Orion-Nebel mit ihren intensiv hellen Kernen und viel schwächeren äußeren Regionen.

Ein einzelnes Bild davon könnte in den hellsten Bereichen leicht die Sättigung erreichen, bevor sich die dunkleren Details überhaupt registriert haben.

Wenn Sie jedoch mehrere ungesättigte Bilder stapeln, summieren sich die Dimmerwerte zu höheren Werten, wodurch lichtschwächere Objekte über die untere Grenze des Dynamikbereichs gebracht werden (mit anderen Worten, Sie können sie sehen), während gleichzeitig die helleren Werte steigen auch.

Gestapelte Bilder weisen daher einen breiteren Dynamikbereich auf.

Um von diesem scheinbaren Win-Win-Prozess zu profitieren, müssen einige zusätzliche Schritte durchgeführt werden.

Rauschen ist nicht auf die Qualität des vom Sensor empfangenen Signals beschränkt.

Es gibt unerwünschte Signale, die durch das thermische Rauschen des Sensors der Kamera selbst erzeugt werden, wenn sich der Sensor während langer Belichtungszeiten erwärmt. Variationen der Pixel-zu-Pixel-Empfindlichkeit Schatten durch Staubpartikel und Vignettierung des Lichtkegels.

Diese zusätzliche Verschlechterung des Bildes wird durch einen Prozess namens Kalibrierung angegangen, bei dem zusätzliche Einzelbilder erfasst werden, die in den Stapelprozess aufgenommen werden, um das Rauschen zu „subtrahieren“.

Ein nützlicher Jargon an dieser Stelle ist, dass alle Einzelaufnahmen Ihres Zielbildes bei der Kalibrierung als Lichtrahmen bezeichnet werden.

Nachdem die Bilder kalibriert wurden, müssen sie vor dem Stapeln aufeinander ausgerichtet werden.

Die Kalibrierungs-, Ausrichtungs- und Endstapelprozesse können einfach mit einer speziellen astronomiebasierten Bildverarbeitungssoftware durchgeführt werden.

DeepSkyStacker ist ein ausgezeichnetes kostenloses Programm, aber andere kommerzielle Bildprozessoren wie Astroart, Astro Pixel Processor, MaxIm DL, Nebulosity und PixInsight sind eine Überlegung wert.

Wie immer ist es am besten, klein anzufangen, mit ein paar Frames an einfachen Objekten zu experimentieren und von dort aus weiterzuarbeiten. Denn das Beherrschen des Stackings ist eine Schlüsselkompetenz, wenn es um wirklich großartige Deep-Sky-Bilder geht.


Nachdem Sie nun eine allgemeine Vorstellung davon haben, was der Visualisierungsprozess beinhaltet, lernen Sie die technischen Details jeder Phase dieses Prozesses kennen.

Visualisierungsstufen - Technische Hinweise

Stufe 1: Die Strecke:

Software Bemerkungen
IDL Dies kostet Geld und Sie müssen Ihre eigene Codierung durchführen.
RGBSUN in IRAF Erfordert Versuch und Irrtum für die Schwellenwerte und Sie können nur 3 Filter kombinieren.
kvis Kostenlos in der Karma-Suite. http://www.atnf.csiro.au/computing/software/karma/. Auf diese Weise können Sie Schwellenwerte in Echtzeit über Histogramme auswählen. Neben linearer und logarithmischer Skalierung funktioniert auch die Quadratwurzel, was gut für Nebel ist. Es hat zusätzliche Algorithmen in seiner Pseudo-Farboption (am besten ist Graustufen3). Außerdem exportiert es Ihr skaliertes Bild in das Portable Pixel Map-Format, das von allen vielen Paketen akzeptiert wird.

In Karma können Sie mit kvis ein Bild verkleinern, indem Sie eine Anpassungsdatei mit aktivierter Filteroption laden. Wählen Sie die Anzahl der Pixel aus, die "übersprungen" werden sollen (was eigentlich "zusammenzählen" bedeutet). Passen Sie Ihr Bild an und exportieren Sie es dann in ein neues ppm-Bild. Wenn Sie ein anderes Paket zum Dehnen der Intensitäten verwenden, dann ist ein gutes Format zum Speichern der Datei im tiff-Format, wenn es verfügbar ist.

Original Bild Gestrecktes Bild

Stufe 2: Schichten und Farben zuweisen:

  • Mit Ebenen kann man einem Bild eine beliebige Farbe zuweisen, nicht nur eine Primärfarbe. (Siehe ein Beispiel unter http://www.ras.ucalgary.ca/CGPS/press/shell/)
  • Um alle Bilder in Ihrem Ebenenstapel zu sehen, ist "Bildschirm" ein guter Algorithmus. Dieser Modus wird über ein Menü im Layer-Dialogfeld für jeden einzelnen Layer eingestellt. Eine Ebene mit diesem Modus ist wie eine Transparenz oder ein positives Dia, das Licht aus dem darunter liegenden Bild durchscheinen lässt.
  • Jede Ebene wird individuell angepasst, sodass ein verrauschtes Bild, beispielsweise aus dem Datensatz eines Filters, unterdrückt werden kann, ohne die anderen Bilder zu beeinträchtigen. Um Rauschen zu unterdrücken, können Sie die Pixel mit einem Gaußschen Filter glätten.
  • Klicken Sie mit der rechten Maustaste in das Bildfenster, um auf die Aufgabenmenüs zuzugreifen.
  1. Öffnen Sie in Gimp ein Bild.
  2. Öffnen Sie dann ein neues Bild mit auf Schwarz eingestelltem Hintergrund, indem Sie den Vorder- oder Hintergrund entsprechend auswählen. Stellen Sie sicher, dass das Dialogfeld Ebenen, Kanäle, Pfade geöffnet ist.
  3. Klicken Sie mit der rechten Maustaste auf Ihr Originalbild, um die Menüoptionen aufzurufen, und suchen Sie nach Bearbeiten --> Kopieren sichtbar. Auf dem neuen Bild Bearbeiten --> Einfügen. Dadurch wird das Schwarzweißbild in eine Ebene gelegt.
  4. Klicken Sie im Dialogfeld "Ebenen" auf die Wörter "schwebender Abschnitt" und geben Sie der Ebene einen Namen. Dadurch wird auch die Ebene in etwas geändert, das Sie bearbeiten können.
  5. Stellen Sie den Modusalgorithmus im Dialogfeld Ebenen, Kanäle, Pfade ein. WICHTIG: Um jede der Ebenen zu sehen, nicht nur die oberste, müssen Sie einen entsprechenden Modus auswählen. "screen" ist ein guter Algorithmus zum Kombinieren von Bildern, auf die er eingestellt ist jeder der Ebenen (oder Sie sehen die darunterliegende nicht).
  6. Wiederholen Sie dies für andere Bilder.
  7. Speichern Sie dieses Bild mit Ebenen als Datei im Format ".xcf".
  1. Klicken Sie im Dialogfeld Ebenen, Kanäle, Pfade auf den Namen einer Ebene, so dass dieser blau ist, was aktiv bedeutet.
  2. Holen Sie sich das Level-Tool. [Bild --> Farben --> Ebenenwerkzeug]
  3. Ändern Sie das obere Menü im Level-Tool von einem Wert zu einer Farbe und passen Sie die OUTPUT-Level an, um Ihre gewünschte Farbe zu erhalten. (Wenn Sie beispielsweise möchten, dass Ihre Ebene grün ist, ändern Sie das Menü auf Rot und ziehen Sie den rechten Schieberegler in den Ausgabestufen auf Null. Wiederholen Sie dies für Blau. Ihre Ebene sollte jetzt Grün sein).
  4. Wiederholen Sie für jede Schicht.
  5. Speichern Sie diese als Datei im .xcf-Format.
  6. Passen Sie Werte und Farben an, bis Sie mit den Ergebnissen zufrieden sind. Wenn beispielsweise ein Filterbild besonders verrauscht (texturiert) ist, kann dies reduziert werden, indem auf diese Ebene ein Gauß-Filter mit der Breite des Rauschens (z. B. einige Pixel) angewendet wird.
  7. Speichern Sie die Änderungen als Datei im .xcf-Format.

Einige Ratschläge: Erstellen Sie Kopien Ihrer Schwarzweiß-Ebenen und bearbeiten Sie diese, damit Sie keine Bilder erneut einfügen müssen. Schalten Sie manchmal die anderen Ebenen aus (indem Sie auf das Augensymbol klicken), um Ihre Farben zu überprüfen.

Dies ist sehr iterativ. Genießen!

Andere Optionen: Einige Bildmacher arbeiten an einem RGB-Bild (d. h. 3 Filtern) und schichten dann in dieser Phase andere Filter ein. Als Beispiel finden Sie unter http://heritage.stsci.edu/public/apr1/h301filt.html ein RGB-Bild aus 3 Filtern mit anderen darüber geschichteten Filtern.

Filter Schwarz-Weiß-Stretch-Bild Dem Bild zugewiesene Farbe
Ultraviolett
Blau
Visuell
Infrarot

Stufe 3: Kombinieren Sie die Ebenen

Nachdem Sie im Allgemeinen mit Ihrer Farbauswahl zufrieden sind und sie als .xcf-Datei gespeichert haben, reduzieren Sie das Bild mithilfe der Optionen des Dialogfelds „Ebenen“ in eine einzelne TIFF-Datei mit einem anderen Namen im tif-Format.

Noch besser, öffnen Sie ein neues Bild (mit schwarzem Hintergrund), Bearbeiten --> Kopieren Sichtbar die Anzeige Ihrer .xcf-Datei und dann Bearbeiten --> Einfügen in das neue Bild. Stellen Sie den Modus ein, um das neue Bild zu screenen und zu glätten und als einzelne TIFF-Datei zu speichern. Zum Abflachen verwenden Sie die Untermenüs unter Ebenen. Ebenen --> Sichtbare zusammenführen und dann Ebenen --> Abflachen.

Stufe 4: Entfernen Sie die kosmetischen Mängel.

Verwenden Sie die Optionen des Bildbearbeitungswerkzeugs (wie Ebenen) für die endgültigen Farb- und Kontrastanpassungen. Verwenden Sie das Klonwerkzeug, um Chipnähte und kosmische Strahlen zu entfernen. Wählen Sie Ihre Ausrichtung.

Speichern Sie diese Datei als TIFF (keine Komprimierung) oder zur Not als JPEG in 100%iger Qualität.


Fallstudie 2 - M63 Bildverarbeitung in MIPAV

M63, auch bekannt als Sonnenblumengalaxie, wurde am 14. Juni 1779 von Pierre Méchain entdeckt. Die Galaxie (damals Nebel genannt) wurde dann von Charles Messier als Objekt 63 in seinem Katalog aufgeführt. Später im 19. Jahrhundert identifizierte William Parsons, 3. Earl of Rosse, spiralförmige Strukturen innerhalb der Galaxie, was die Sonnenblumengalaxie zu einer der ersten Galaxien mit identifizierter Spiralstruktur machte. 1971 erschien eine Supernova mit einer Magnitude von 11,8 in einem der Arme von M63.

Bildverarbeitungsprotokoll für M63

Für die M63-Datenreduktion habe ich den gleichen Satz von 11 Schritten verwendet, den ich für M51 verwendet habe.

Lärmminderung

Für einen gegebenen Datensatz habe ich die folgenden Rauschunterdrückungsalgorithmen angewendet: 1. Zuerst habe ich die Unscharf-Maske mit den folgenden Parametern auf alle M63-Science-Bilder R, V und B angewendet: Gaussian-Skala - x dim - 0.5, y-dim - 0.5, Gewicht des verschwommenen Bildes = 0.75. 2. Dann habe ich den nichtlinearen Rauschunterdrückungsfilter verwendet und ihn mit den folgenden Parametern auf alle wissenschaftlichen Bilder angewendet, die aus dem vorherigen Schritt stammen:

  • Für R-Bilder - Brightness_threshold kleiner als 0,172237074375152 (Bild min) und Gaussian_std_dev float 0,5
  • Für V-Bilder - Brightness_threshold double kleiner als 0.4902107357978821 (Bild min) und Gaussian_std_dev float 0.5
  • Für B-Bilder - Brightness_threshold double weniger als 0,13539797365665437 (Bild min) und Gaussian_std_dev float 0,5.

Ich habe die nichtlineare Rauschunterdrückung verwendet, da dieser Algorithmus nichtlineare Filter verwendet, um das Rauschen in einem Bild zu reduzieren, während sowohl die zugrunde liegende Struktur als auch die Kanten und Ecken erhalten bleiben. Ich fand es sehr gut geeignet, um die schöne Spiralstruktur von M63 zu erhalten. Weiterlesen .


Schau das Video: Skládání snímků (November 2022).