Im letzten Fotoschnack haben wir Euch gezeigt, wie ihr mit einer DSLR selbst in Deutschland tolle Astro Aufnahmen von Sternen-Nebeln, der Andromeda Galaxie und anderen sog. «Deep Sky» Objekten machen könnt. Im heutigen Video zeige ich Euch, wie ihr sie bearbeitet.
Hier noch einmal der Link zum Fotoschnack, in dem wir die Aufnahme-Technik zeigen und besprechen:
Fotoschnack 20 – Planeten, Sterne und Deep Sky fotografieren
Nach dem Mond in der letzten Folge, haben Paddy und ich uns noch einige kleinere, lichtschwächere aber nicht minder interessante Himmel-Objekte mit der Kamera vorgenommen: den Jupiter mit seinen Monden, den Orion Nebel und unsere Nachbar-Galaxie Andromeda. All diese Aufnahmen machen wir mit einer Spiegelreflex-Kamera (ich hatte die Nikon D600 dabei) und einer Spiegellosen (Paddy […]
Im folgenden Video zeige ich Euch nun, wie ihr die Aufnahmen bearbeitet:
Zusammenfassung
Für die Aufnahme benötigt ihr eine möglichst lange Belichtungszeit. Da eine einzelne Langzeitbelichtung die Sterne zu Strichen werden lassen würde, nimmt man mehrere Bilder auf, und legt diese später übereinander. Im Falle der 200mm, die ich im Beispiel verwendet habe, ist eine Belichtungszeit von 2 Sekunden schon die Grenze, ab der die Sterne leicht zu Strichen werden. 100 Aufnahmen zu 2 Sekunden würden dann zu einer Gesamt-Belichtungszeit von 3 Minuten.
Korrektur: Im Video spreche ich von «Flat-Frames», die Bezeichnung ist in dem Zusammenhang nicht ganz richtig. Die Aufnahmen, die mit der kürzesten Belichtungszeit und geschlossenem Objektiv aufgenommen werden, heißen «Offset- oder Biasframes» und sollten auch mit der entsprechenden Funktion in DeepSkyStacker geladen werden. Flat-Frames werden verwendet, um ggf. Vignettierungen herauszurechnen, diese verwende ich in der Regel nicht.
Eine spezielle Software verschiebt alle Einzelbilder beim sogenannten «Stacking» dann so, dass diese exakt übereinander passen und so eine deutlich längere Belichtungszeit simuliert wird. Im Beispiel setze ich das kostenlose Programm DeepSkyStacker ein. Das Programm ist für Windows, hier habe ich eine Anleitung gefunden, wie ihr es auf dem Mac ggf. zum Laufen bekommt, getestet habe ich es nicht. Es gibt natürlich noch andere Programme, bekannt ist z.B. auch Nebulosity, dieses gibt es auch für den Mac – allerdings ist es nicht kostenlos und bei meinen Tests fand ich es auch deutlich komplexer. Sollte jemand von Euch Erfahrungen mit dem Stacken von Deep Sky Aufnahmen auf dem Mac haben, freue ich mich (und sicher auch die Mac User) über Tipps in den Kommentaren!
Eine hervorragende, im Video nicht besprochene, Möglichkeit, die Einzelbilder mit längeren Zeiten aufzunehmen, und dadurch auch niedrigere ISO-Werte nutzen zu können, bietet eine sogenannte «Nachführ-Einheit». Auf diese montiert man die Kamera und sie gleicht motorisch die Erdrotation aus. Dadurch kann man längere Belichtungszeiten erreichen. Beim Astromaster auf La Palma haben wir hierfür die hervorragende und vor allem sehr kompakte aber doch stabile Polarie von der Firma Vixen eingesetzt. Damit könnt ihr Belichtugszeiten von bis 30 Sekunden am Stück machen und somit von vornherein mit niedrigeren ISO-Werten arbeiten, um weniger Rauschen aufzunehmen. Die im Video gezeigte Technik des Stackens wird dann im Anschluss genauso angewendet, aber Eure Bilder bekommen noch mehr Details und weniger Rauschen, ihr könnt schwächere Objekte aufnehmen und die Nachbearbeitung erfolgt schneller, da nicht so viele Bilder entstehen. Last but not least kann sie auch als «Drehteller» für Zeitraffer eingesetzt werden.
So, nun viel Spaß beim Experimentieren! Lasst mich in den Kommentaren gerne an Euren Ergebnissen, Erfahrungen und Erkenntnissen teilhaben!
Hat Dir der Artikel gefallen?
Dann melde Dich doch bitte zu meinem kostenlosen Newsletter an. Dann bekommst Du eine Nachricht bei neuen Artikeln und Du wirst auch exklusiv als erstes über neue Workshops und Reisen informiert! Außerdem gibt es dort auch immer wieder Hintergrund-Infos, die so nicht im Blog stehen.
Natürlich freue ich mich auch sehr, wenn Du mir bei YouTube, Instagram und Facebook folgst.
Alle Inhalte © Gunther Wegner
*) Mit einem Stern gekennzeichnete Links sind externe Partner-Links. Ihr unterstützt mich, wenn ihr darüber bestellt. Alternativ könnt ihr auch über folgende Direktlinks in die Shops wechseln:
Amazon.de, Amazon.at, Amazon.com, Foto Koch, Augenblicke-Eingefangen, camforpro.com.
Über meine Zusammenarbeit mit externen Partnern habe ich hier ausführlich geschrieben. Danke!
Hallo Gunther,
ich möchte mich mit Astrofotografie befassen und habe mir dazu Deine alten Tutorials angesehen. Sind die verwendeten Nachführ-Einheiten wie die Polarie und das Programm DeepSkystacker noch aktuell? Oder gibt es inzwischen schon besseres Equipment.
Viele Grüße Wilfried
Hallo Wilfried, die Polarie benutze ich immer noch, alternative wäre der MSM Rotator, den hatten wir mal im Fotoschnack: https://gwegner.de/fotoschnack/fotoschnack-52-kameraklau-videoaudio-msm-rotator-nikon-105-f1‑4/
Funktioniert beides gut.
DeepSkystacker funktioniert auch, ob es da etwas besseres gibt, weiß ich nicht. Habe schon länger keine gestackten Aufnahmen mehr gemacht…
Hallo gwegner Team
Erstmal Danke für die Vorführung DSLR Stacken
Meine Frage ist: Auf der Deepsky Stacker Webseite werden die unterstützen Kameras angezeigt – heisst das man nicht jede beliebiges Foto Bild Stackern kann, und wenn ja gibt es ein Qualitätsverlust von Bildern, die mit einer anderen Kamera gemacht wurden.
Danke für deine Hilfe und Erklärung.
Integration von DCRAW Version 8.98 rev 1.431
Es werden nun auch folgende Kameras unterstützt:
Casio Z60, Z75, EX-Z850
Kodak Z980,
Pentax K‑7
Canon A470, G11, EOS 7D
Nikon D3000,
Panasonic FZ35/FZ38
Sony DSLR-A850
Ich würde sowieso nicht mit dem Raw Converter von DSS arbeiten, der taugt nicht viel. Daher habe ich ja auch beschrieben, dass ich die Bilder in LR vorbearbeite und dann in TIFF exportiere. Tiffs kann DSS und dann spielt die Kamera natürlich sowieso keine Rolle mehr.
Hallo Günther,
dein Video liegt schon etwas zurück, aber ich bin jetzt erst drüber gestolpert, es hat mir schon viele Fragen beantwortet. Eine Frage zur Kamera hätte ich dennoch:
Ist die DSLR «astrofotographie-optimiert» bzw. speziell umgebaut?? man liest hier und da davon und bevor ich eine DSLR kaufe (ich habe mich bisher erst langsam an das Thema rangetastet und einige Planetenbilder mit einem Smartphone und einem Celestron Nexyz Halter gemacht, welche mir überraschend gut gelungen sind) die meine Frau eigentlich mitbenutzen will, möchte ich das gerne wissen ob ich die Kamera umbauen muss.…
Vielen Dank
Ich habe keine umgebaute Kamera. Es geht auch mit einer ganz normalen Dslr.
[…] gibt es viele Möglichkeiten, Fotos aufzunehmen und z.B. hinterher miteinander zu verbinden, Gunther Wegner hat zwei sehr hübsche Videos online gestellt, wie man das machen kann. Wollte ich immer mal ausprobieren, war mir aber irgendwie zu aufwändig. […]
Guten Abend Gunther,
ich hatte schon einmal geschrieben, das Du mich wieder zum Fotografieren gebracht hast :-).
Jetzt probiere ich mich gerade mal in Astro mit meiner D800. Dein Tutorial ist ja perfekt aber mit den großen Dateien der D800 als TIFF hagelt es bei mir (so wie bei vielen anderen laut google) nur Speicherprobleme.
Hast Du es mit den 36 MP 16Bit TIFFs hinbekommen?
Grüße
Michael Zimmer
Hallo Gunther,
sehr klasse Tutorial, gleich getestet und angewendet, vielen Dank dafür.
Nutzt Du den Deep Sky Stacker auch für die Bearbeitung Deiner Milchstrassen- / Sternenhimmel-Timelapse?
Um einzelne Bilder zu verbessern (herausrechnen der Rotation, etc.) ist es ja ein super Tool – aber ich würde gern meine nächtlichen Zeitraffer-Sequenzen damit nachbearbeiten. Wie verhält es sich damit? Dazu findet mal leider keine Anleitung / Hinweise. Es kommen ja schließlich ein paar Bilder zusammen, die dann gestackt werden müssen, jedoch nicht «zusammengesetzt» werden sollen.
Würde mich über einen Hinweis sehr freuen – Vielen Dank vorab.
Silvio
Hi Slivio,
für Timelapse halte ich den DSS nicht für geeignet. Dort macht LRTimelapse alles was ich brauche…
Bei Timelapse will man ja gerade die Bewegung sehen, die DSS für die statischen Bildern herausrechnet.
Ok, vielen Dank für die schnelle Antwort.
Grüße und weiter so ;)
Hallo Gunther, vielen Dank für die tolle Anleitung.
Gestern hatte ich erstmals versucht mit DSS zu arbeiten.
Deiner Beschreibung folgend, hatte ich zunächst in LR vorbearbeitet (Warum regelst du hier eigentlich den Kontrast nicht ganz hoch, wie du es bei deiner Milchstraßenbearbeitung beschreibst?)und anschließend die Frames im TIFF-Format abgespeichert.
Dann hatte ich mir die neuste Version von DSS (3.3.4.) heruntergelanden und bin deiner Anleitung gefolgt.
Dann kam der große Frust. DSS sürzt ab, oder zeigt mit ein gelbes Dreieck mit Ausrufezeichen oder sagt mir, dass mein Speicherplatz nicht ausreichen würde.
Ich habe reichlich Speicherplatz auf meiner Festplatte und es war egal, ob ich vier, drei oder nur zwei Bilder versuche zu stacken.
Könnte es an der Dateigröße der Bilder liegen?
Kamera D800
Im NEF Format hat jedes Bild 44 MB, die TIFFs haben dann 205 MB und ich habe sie dann auch als jpgs exportiert, dann waren es 28 MB.
Hast du eine Idee dazu?
Liebe Grüße
Barbara
Hallo Barbara,
DSS ist etwas absturzgefährdet wenn man große Bildateine bearbeitet. Das muss aber nicht immer bedeuten, dass es kein brauchbares ergebnis gibt. Zumindest wenn der Absturz beim Speichern erfolgt lässt sich noch das Ergebnis retten. Im Bildverzeichnis findet sich dann eine autosave.tif (oder etwas in der Art). Die kannst Du dann ganz normal in PS oder besser in Fitswork strecken.
Die Sache mit dem Speichermangel wird wohl eher einen Mangel an Arbeitsspeicher, also RAM, anzeigen. Andere Bildformate nutze da übrigens wenig. JPG lässt sich zwar schön komprimieren, aber im Speicher dehnt es sich wieder aus, mal von den Verlusten ganz abgesehen.
Hallo,
vielen dank für dieses informative Video!
Da ich in diesem Thema absoluter Einsteiger bin, habe ich hier viele Tipps erhalten!
Eine Frage dazu: Wenn ich das richtig herausgefunden habe, dann speichert meine Canon EOS700D im RAW Format in 16bit, und im JPG Format in 8bit.
Wäre es dann also besser DeepSky in RAW zu fotografieren, um dann beim Stacken mehr Bildinformationen zur Verfügung zu haben?
Danke!
Ben
Auf jeden Fall. Es ist generell besser im RAW Format zu fotografieren.
Hallo Gunther,
hast du einen Tipp, wie ich mit dem Teleobjektiv die einzelnen Objekte finde? hab da wahnsinnig Schwierigkeiten, würde es gerne mal mit Andromeda versuchen, hab auch ne App am Handy, aber mit dem Tele finde ich einfach nicht die Objekte, höchstens die Plejaden das ist auch nicht sonderlich schwer.
Danke
Lg Lukas
Hallo,
den Andromedanebel kannst Du direkt sehen und damit anpeilen. Falls Du ein Objekt nicht direkt sehen kannst Suchst Du dir aufällige Sterne in der Nähe und springst von dort zu den gesuchten Objekten, Stichwort Starhopping. Dazu solltest Du dir aber die Karten ausdrucken, denn die hellen Displays ruinieren deine Nachtsicht und dann siehst Du im Kamerasucher gar nichts mehr.
Habe mir eben die aktuellste Version der Portierung von DSS für den Mac geholt, die jetzt auch unter El Capitan lauffähig ist:
http://starchaser.de/deep-sky-stacker‑3–3‑4-update-fuer-mac-osx/
Mangels Bildmateriel kann ich es leider nicht testen und wenn ich die Wettervorhersage anschaue, werde ich in nächster Zeit auch kein Bildmaterial bekommen. :(
Hallo, danke schon einmal für die coole Anleitung :)
Ich würde das gern einmal ausprobieren und am Wochende zu meinem Schwager fahren, der ein Teleskop und einen Nikon Adapter dafür hat. Ich würde nun meine D750 einpacken und mit Iso6400 aufnehmen. Wie verhält sich das denn, wenn ich diese in den Crop Modus schalte – erhöht sich damit das Rauschverhalten wie bei regulären Crop Kameras, oder bleibt das identisch ? (in diesem Fall würde ich mit der Iso runtergehen)
Gruß, Michael
Nein, im Crop Modus wird einfach nur ein Bildausschnitt aus der Mitte genommen, ansonsten ändert sich nichts.
Super, danke!
Hallo Michael,
eigentlich bin ich ja jetzt ein Fan der Nikons (oder eher des Chips und seiner Möglichkeiten), aber für Astro sind die Canons wohl ein wenig pflegeleichter. Zumindest mit der D800 gibt es massive Probleme beim Stacken, weil der Fuß des Histogramms nicht immer an der gleichen Stelle liegt, ich denke aber dies betifft alle anderen halbwegs aktuellen Nikons ebenso. Das verursacht leider heftige Probleme, da so einzelne Bilder stärker in den Mittelwert eingehen als andere. Für die 800er gibt es einen speziellen Hack um das Vorkochen des Raws zu verhindern und an die «echten» Raws zu kommen. Für die 750er gibt es leider diese Möglichkeit nicht, aber man kann die Langzeitrauschunterdrückung aktivieren und durch diesen Trick kommt man zu Bildern die den Fehler nicht zeigen. Der Preis ist aber eine geringere Anzahl von Bildern, da die Langzeitrauschunterdrückung die für die Bildaufnahme benötigte Zeit verdoppelt.
Falls das Teleskop einen Autoguider besitzt kannst Du die Verstärkung problemslos absenken auf ISO 800 oder noch darunter …
Danke für die Info! Also heißts die Langzeitrauschunterdrückung zu aktivieren. Das Teleskop muss manuell nachgeführt werden, aber ich denke für einen ersten Testballon geht das alles in Ordnung. Dies Wochenende machte uns in BS das Wetter einen Strich durch die Rechnung, aber die kalten und dunklen Nächste stehen ja nun vor der Tür, sodass sich eine weitere Gelegenheit finden lassen wird :-)
Hallo Gunther,
obwohl schon mehrere Jahre alt bin ich auf diesen Post über «Vorkochen der RAWs» und das angesprochene Problem mit dem «Fuß des Histogramms» gestoßen, was wohl unterschiedliche Helligkeiten bewirken müsste.
Leider ließ sich zu dieser von Dir angesprochensn Problematik nichts weiter finden bisher. Hast Du Links dazu oder weitere Erkenntnisse?
Was hat es mit dem 800er HAck auf sich?
Ich benutze die D750, bisher mit Langzeit-Rauschunterdrückung, wollte die beim nächsten Shooting aber abschalten. Sind da Probleme beim Stacken zu erwarten?
Hallo Günther,
nach ersten, irgendwann auch erfolgreichen, Versuchen gemäß des ersten Fotoschnacks zu diesem Thema, ging es nunmehr an das Umsetzen des Gelernten zu diesem Schnack. Wenn man deiner tollen Anleitung folgt, kommt so etwas heraus:https://instagram.com/p/7C6BdeDuBj/
Danke für dieses Video und Gruß
Jörg
Einfach geil dieser Beitrag, Danke Gunther!
Hallo, tolles Video, hab ja auch schon dein Video bezüglich der Aufnahme kommentiert, und das am WE in einer leider sehr lichtverschmutzten Gegend aufgenommen (als erste Übung mal)
Andromeda ist trotz App viel schwerer zu finden als ich dachte. hatte eine WW Aufnahme gemacht da man auf dieser besser als mit freiem Auge die Galaxie erkennt, und dann mit dem 300er dort «suchen» kann. hast du da noch einen Tipp zum Finden? jedenfalls mit Lichstärke 4 ist es schon sehr schwer ein gutes Foto zu machen, und groß draufbekommen hab ichs auch nicht, du hast doch auch ein 300er verwendet?! oder liegt das auch an der Jahreszeit wie weit wir uns weg befinden von Andromeda? das Objekt in dem Video hast du mit 200mm gemacht? bin schon am überlegen ob ich mein 105er Makro mit 2,8 nehmen soll wird aber vermutlich 300 f4 doch überlegen sein wegen der Brennweite…
Vor allem muss es richtig dunkel sein, das ist im Somme bei uns ja zum Teil kaum der Fall. Probiere es doch ruhig auch mal mit dem 105er.
gut dunkel war es nicht, lt. sky live 48%
in der Nacht vom 12.8. bin ich auf der Rossfeldpanoramastraße wegen der Perseiden, da werde ich dann mein Glück versuchen. ist richtig dunkel und auch höher gelegen. hoffe das Wetter spielt mit.gibt es sonst noch ein Objektiv (gerne gebraucht) das nicht ein halbes Vermögen kostet, und deep sky «tauglich» ist?
Hallo Gunther
was für ein Fotoschnack. Super! Ich werde das bald mal probieren und kann es kaum erwarten.
Vielen Dank und bitte weiter so!
LG Ralf
Hi Gunther
Herzlichen Dank für die Instruktionen und den Anreiz dies selber mal zu versuchen (Orion-Nebel als Test-Objekt)… als Mac-User hab ich mit dem DSS zwar ein akzeptables Resultat erzielen können (in der WineSkin), allerdings scheint das Programm bei mir zumindest (iMac 2011, OS X 10.9.5) beim hinzufügen von vielen Bildern erstmal einzufrieren… dies behebt sich jedoch bei genügend Geduld dann wieder von alleine. Insgesamt reagiert der DSS in der WineSkin ziemlich träge. Auch die von Dir im DSS gezeigte Schlussansicht, bei welcher man einen Ausschnitt wählen kann der dann gerendert wird, erschien bei mir ohne Rahmen (man erkennt also erst was man angewählt hat, wenn man Modifikationen des Bildes ausprobiert). Ebenso die Kurve, mit welcher man die Lichter, Tiefen etc. im DSS bearbeiten könnte, erschien bei mir als Gerade und zeigte kaum einen Effekt beim Verändern der Regler.
Hab mich deshalb ins Internet gestürzt und krampfhaft versucht eine andere Software für den Mac zu finden, und hab dann noch Nebulosity und Regim getestet (letzterer muss in einem Java Environment laufen und per Terminal gestartet werden).
Nebulosity: Für Neulinge sehr komplexes und wenig übersichtliches Programm, welches jedoch in meinen Augen die besten (der 3 laienhaft getesteten Softwares) Resultate lieferte. War zuerst sehr irritiert da die in der Demo-Version versprochenen «diagonal lines superimposed» bei mir als kurze versetzte horizontale Linien erschienen und ich zuerst dachte, dass das Programm mit meinen Bildern, resp. wegen meiner falsche Handhabung nicht richtig funktioniert… habe dann nach etlichen Tutorials und Manual-Studium Versuche mit direkt eingelesenen RAW (NEF)-Bildern und mit von LR gerenderten TIFFs (ohne Schärfen und ohne Rauschreduktion) vorgenommen und mit letzteren die besten Resultate erzielt.
Ein interessanter Ansatz im Manual von Nebulosity ist die Empfehlung KEINE Bias-Frames von den Lights abzuziehen, wenn man bereits Dark-Frames abzieht, da der Bias in den Darks ja bereits enthalten ist und man sonst den Bias doppelt abziehen würde…
Ebenso fand ich in einem Tutorial die Empfehlung das gestackte Bild für ein optimales Resultat in mehreren Schritten zu «stretchen» (Anpassen der Helligkeit).
Eventuell kann man mit RAW-Bildern noch mehr herausholen, jedoch war ich am Anschlag meines technischen Verständnisses, wenn das Programm beginnt beim «de-mosaic» / debayern zu fragen, mit welchem Farbpixel der CCD beginnt…
Regim: auf die Schnelle im Regim behelfsmässig ebenfalls mit RAW-Dateien direkt zu arbeiten versucht, jedoch bei der Ausgabe bloss ein sehr dunkles Bild erhalten, welches vermutlich noch irgendwie hätte weiterbearbeitet werden müssen (oder ich habe bei der Handhabung im Regim bereits etwas falsch gemacht) – nach bereits viel investiertem Aufwand für Nebulosity und dem Starten von Regim via Terminal in der Java Umgebung dann aus Frustgründen nicht mehr weiter getestet.
Fazit: für Interessierte mit 80$ in der Tasche (voll nutzbare gratis Testversion, jedoch mit Stör-Zeichnung), welche ein Mac-natives Programm mit vielen Möglichkeiten nutzen möchten und bereit sind sich etwas einzulesen ist Nebulosity sicherlich empfehlenswert.
https://www.flickr.com/photos/roman_sandoz/16429207830/in/photostream
Danke und ebenfalls Grüsse aus der Schweiz,
Roman
PS: Björn’s Anmerkungen bezüglich Schärfen/Rauschreduzieren/Bearbeiten in LR vor dem Stacken fand ich einleuchtend – ich denke es macht wenig Sinn nur die Lights zu bearbeiten und davon unbearbeitete Darks/Bias abzuziehen. Da ich nicht weiss inwiefern welcher Regler in LR die RAW-Daten in welche Ausmass wie verändert, habe ich bis auf die Ojektivkorrektur und den Weissabgleich vor dem Exportieren als TIFF nichts verändert und die Darks / Bias in die Synchronisierung mit einbezogen, damit alle Bilder dieselben Ausgangswerte haben.
Hallo Gunther
Als Anfänger in der Astro-Fotografie hat mir dieses Video schon sehr geholfen. Danke!
Kennst du eine Methode, diesen Prozess auf eine ganze Timelapse-Reihe anzuwenden, also dass nicht nur 1 Bild ausgegeben wird? So dass danach eine Sequenz z.B. in After Effects importiert werden kann? Ich stelle mir dabei vor, dass für jedes Frame die jeweils vorherigen und nachfolgenden 2 bis 3 Bilder mitverwendet werden. Oder gibts da vielleicht eine andere Software?
Und funktioniert die Software auch bei Objekten im Vordergrund?
Danke schonmal
Viele Grüsse aus der Schweiz
Philip
Das funktioniert natürlich nicht mit Objekten im Vordergrund und die Anwendung auf eine Timelapse Sequenz halte ich auch für fragwürdig…
Hallo Philip,
hast Du mal versucht eine Aktion in Photoshop oder einem der anderen Bildbearbeitungsprogramme zu schreiben welche die gewünschte Mittelung ausführt?
Eine andere Möglichkeit dürfte das Programm Giotto sein, damit lassen sich Bilder zum Mitteln in Gruppen zusammenfassen.
Das funktioniert natürlich auch mit Vordergrundobjekten, aber nicht gleichzeitig für Vorder- und Hintergrund. Man muss sich also für einen korrekt rückzentrierten Bildbereich entscheiden.
Hallo Björn
Nein, habe bis jetzt noch keine Aktionen in Photoshop selber geschrieben, aber ich werde mir beide Möglichkeiten mal ansehen.
Vielen Dank!
Hallo.
Darf ich eine Frage zu Flatframes stellen? Grundsätzlich erklärt die Hilfe alles ja ganz gut, aber ich finde einen Widerspruch. Es wäre sehr nett, wenn du ihn auflösen könntest oder erklären, wie die Zeilen gemeint sind:
Aussage 1:
«Um brauchbare Flatframes zu erstellen, ist es sehr wichtig, dass die Aufnahmekamera in der gleichen Stellung sitzt, wie bei der Lightframe Aufnahme. Das bedeutet, dass Sie entweder vor oder nach den Lightframes Ihre Flats aufnehmen müssen, bevor Sie die Lage der Kamera (z.B. für ein anderes Objekt) am Teleskop verändern.»
Aussage 2 (nur wenige Sätze später):
«Dann richten Sie das Teleskop auf eine helle Fläche (z.B. ein großes helles Licht, den Dämmerungshimmel oder eine helle Hauswand …) und nehmen eine Serie von Bildern auf.»
Ich bin jetzt verwirrt, wie ich Flatframes aufnehmen soll. Gleiche Stellung wie für die Lightframes oder auf eine helle Wand ausrichten?
Vielen Dank!
Hallo Satria,
Lightframes werden immer gegen eine helle gleichförmig beleuchtete Fläche aufgenommen, aber die Optik sollte gegenüber der Kamera nicht verdreht werden. Für Fotoobjektive spielt dies keine wirkliche Rolle, da diese sich nicht gegenüber der Kamera verdrehen lassen. Bei Teleskopen können aber Gerätschaften wie Okularauszug und Off-Axis-Guider in den Strahlengang hineinreichen und so die Vignettierung verändern. Dreht man hier die Kamera gegenüber der Optik nach der Aufnahme, bzw. vor den Flats, so erfolgt in den betroffenen Bereichen eine Unter- bzw. Überkorrektur.
Auf seinem youtube – channel berichtet Ian Norman über DeepSkyStacking in Photoshop und Erfahrungen mit timelapse von Sternen mit Sony 7 und hoher ISO
Mfg
Moin,
wieder ein sehr interessanter Bericht!
Dabei fiel mir ein Dpreview Rezension der Pentax K5-II ein.
Diese Kamera hat einen internen Astrotracer, mit dem Aufnahmen des Sternenhimmels lt. Dpreview bis 1min Belichtungszeit OHNE «Sternspuren» möglich sind.
Bewerkstelligt wir das durch eine Nachführung des Sensors.
Ein echt coole Sache, die möglicherweise Stacking überflüssig macht.
Viele Grüsse
Walt
Hallo,
ich habe mir mal das Video aus Spaß angetan und wurde absolut negativ überrascht. Früher bin ich davon ausgegangen, dass jemand sich informiert, ehe er sein Wissen mit anderen teilt. In Zeiten des Internets und einer immer schnelllebigeren Welt scheint dies aber längst nicht mehr zu stimmen und es wird scheinbar alles rausgehauen, egal ob die Infos flasch sind und man damit die Zeit der Leute, die sich informieren wollen, verbrennt. Nun mal ein paar genauer ausgeführte Kritikpunkte.
- Wer DSS ohne Not mit Tiffs füttert, der hat den Sinn des Programms nicht verstanden. Das Programm kann Korrekturen vor dem Debayern ausführen, das bekommt man mit Tiffs nicht mehr wirklich gut hin.
- Wenn man schon Tiffs einwirft, dann müssen alle gleich entwickelt sein, und es dürfen keine lokal wirkenden Korrekturen wie z.B. Lichterkorrektur angewendet werden.
- ACR ist ungeeignet um Tiffs zu erzeugen, da hellere Hotpixel automatisch unterdrückt werden. Die Korrektur ist aber, bedingt durch das Rauschen, nicht immer gleich und führt daher Fehler ein.
- Das Bias steckt schon im Dark und muss eigentlich nicht wirklich separat aufgenommen werden. Wenn man schon das Bias für eine Temperaturkompensation bei den Darks braucht, dann bitte nur als RAW.
- Auf Darks kann man in diesem Fall möglicherweise verzichten, da die Hotpixel (von wenigen Ausnahmen abgesehen) bei der kurzen Belichtungszeit kaum gesättigt sind und man mit dem richtigen Algorithmus die Bewegung des Objektes auf dem Chip zum Ausschließen der fehlerhaften Bildinformation nutzen kann.
- Rauschunterdrückung vor Korrekturen und vor dem Mitteln. Sorry, da stellen sich mir die Nackenhaare auf, aber gibt es einen besseren Weg um Bildinformation zu zerstören?
Ich höre hier jetzt mal auf zu kritisieren, sicherlich gäbe es noch mehr, aber ich habe keine Lust mich weiterhin über dies ehrlich gesagt grottenschlechte Video zu ärgern. Für brauchbare Infos zu diesem Thema empfehle ich einfach mal die Bildbearbeitungsbereiche in den verschiedenen Astronomieforen.
Hallo Björn, Du magst im Detail mit Deinen Punkten Recht haben, als jemand der sich offenbar intensiv mit Astro-Fotografie beschäftigt.
Allerdings ging es mir in diesem Video vor allem darum, einen pragmatischen Weg aufzuzeigen, mit dem auch ein Foto-Enthusiast und noch Laie auf dem Gebiet der Astrofotografie einmal versuchen kann, solche Aufnahmen hinzubekommen. Sicherlich kann man das alles besser machen, aber dann wird es richtig kompliziert und man kommt auch nicht mehr mit einer solch einfachen Software wie Deep Sky Stacker hin. Die Nutzung von Tiffs ist sicherlich ein Kompromiss, aber DSS ließ sich in allen meinen Tests nicht zuverlässig mit RAW files nutzen.
In meinen Versuchen habe ich mit der vorgestellten, einfachen Methode tolle Ergebnisse erzielt, die für viele sicherlich mehr als ausreichend wären. Wer sich dann weiter in die Thematik einlesen kann, der wird sicherlich in die einschlägigen Foren gehen und dort Informationen ohne Ende finden. Aber «einfach» sind die dann nicht mehr.
Hallo,
deine Intention dies Video zu machen ist mir schon klar, nur leider sind deine Tipps teilweise halt eher Anleitungen das schon sehr geringe Signal noch weiter zu dämpfen, deshalb auch meine säuerliche Reaktion. Klar, auch dann kommt noch irgendwas raus, aber es könnte schon noch etwas mehr sein und wenn man sich schon die Arbeit macht, dann will man doch auch ein halbwegs anständiges Ergebnis. Wenn in deinem speziellen Fall DSS die Arbeit mit Raws verweigert, so ist das natürlich ärgerlich, aber eigentlich nicht die Norm. In so einem speziellen Fall kann man von der Verwendung von Raws mal absehen.
Ein einfacher Ansatz wäre gewesen, die Bilder im Konverter mit Weissabgleich und Objektivkorrekturen, aber ohne Schärfung, Rauschunterdrückung und irgendwelche weiteren Korrekturen zu entwickeln. Darks, Bias und Flats werden einfach nicht gemacht. Nach dem Entwickeln wirft man alles in DSS und mittelt per sigma-clip oder median. Diese Methode geht von einer halbwegs modernen Kamera mit wenigen und gering gesättigten Hotpixeln aus. Der Ansatz ist noch einfacher als deiner und sollte sich von eigentlich jedem durchführen lassen. Verluste Durch die Korrektur von Tiffs mit Tiffs treten hier auch nicht auf.
Bei Kameras mit vielen und stärker gesättigten Hotpixeln sollte man in Raws mitteln sowie Darks und Flats verwenden. gemittelt wird dann arithmetisch oder sigma-clip. Schmiert DSS mit Raws ab, dann Entwickelt man die Lights und Darks halt wie oben angegeben (die Flats lassen wir mal wegen der Objektivkorrektur weg). Die Mittelung erfolgt auch wie zuerst angegeben. Ich denke auch dieser Ansatz ist von seiner Komplexität auch noch für jeden überschaubar.
Wesentlich komplexer wird es übrigens bei der Datenreduktion kaum. Natürlich wird es mit steigenden Ansprüchen nicht leichter, aber der Aufwand steigt eher bei der Datenaufnahme und bei der Bearbeitung. Man kann also ruhig bei DSS bleiben. ;)
Ich halte übrigens nicht so richtig viel von dem Ansatz mit vielen sehr kurzbelichteten Aufnahmen eine Langzeitbelichtung zu simulieren. 100x 2,5 sek. entsprechen zumeist nicht annähernd einer Einzelbelichtung mit 250 sek., aber ich denke Du weißt dies. Für den Anfang und für den Notfall mag man sich so behelfen, aber eigentlich sollte man zusehen sich eine kleine Nachführeinheit zu organisieren
Wenn ich das richtig verstehe, schlägst Du vor die Bearbeitungen wegzulassen, okay. Dann muss ich aber nach der Entwicklung trotzdem in Zwischen-Dateien gehen. Was spricht da gegen 16bit Tiffs? Was wäre die Alternative? Der DCRAW converter liefert wie gesagt mit den getesteten Kameras keine vernünftigen Ergebnisse. Ansonsten ist das vorgehen dann ja so ähnlich, wie von mir beschrieben.
Klar ist eine Nachführeinheit besser – aber wie gesagt, hier ging es um einen Ansatz mit «Boardmitteln».
Grüße
Gunther
Hallo Gunther,
Du hast mich richtig verstanden, unter der oben genannten Nebenbedingung, kann man die Korrekturbilder weglassen und dann ist das Arbeiten mit «entwickelten» Bildern kein Problem. Die Tiffs sind also nicht das Problem, sondern der Zeitpunkt der Korrekturen (vor oder nach dem Debayern). Ich denke Aternativen zu Tiff muß man nicht unbedingt suchen. Die Sache mit DCRAW ist wirklich ärgerlich, denn eigentlich sollten sich die Raws der Nikons damit entwickeln lassen.
Du hast recht, eigentlich unterscheidet sich die Technik nicht so gravierend, vorher hast Du aber ein falsch entwickeltes Bias von einem falschentwickelten Tiff abgezogen und hast damit deine Lights «korrigiert». Selbst wenn DSS intern da noch was zusammengebastelt hat, so hat wird dabei an den Daten herumgestreckt und das SNR leidet, zuzüglich zur normalen leichten Rauschverstärkung beim Darkabzug.
Ich würde übrigens nicht empfehlen das Summenbild in DSS zu bearbeite, sondern dieses als 32bit Tiff ohne weitere Bearbeitung ausgeben lassen (DSS hat ein Häkchen dafür). Dies Tiff wird dann in einer 32bit fähigen Software geöffnet
(z.B. Fitswork, PS ist da etwas eingeschränkt) und das erste mal gestreckt. Danach kann dann problemlos in 16bit weitergearbeitet werden. Mehrere leichte Streckungen können übrigens einer starken Streckung überlegen sein, da die Tiefen so stärker angehoben werden können.
Danke für die Denkansätze!
Toll Björn
und erklärst du uns jetzt bitte noch wie man eine Sojus Rakete richtig startet.
Gunther erklärt es wenigstens, oder gibt es von dir wo eine Anleitung dazu.
Klug ist schön, Klüger ist Björn
hallo Gunther,
vielen Dank für deinen interessanten, umfassenden tollen Beitrag, immer wieder bin ich begeistert, wie du deine Leidenschaft zu solchen Themen auch an andere rüber bringst.
eine Frage hab ich: bei z.B 100 Lightframes – wieviele Dark-und Flatframes sind für ein gutes Endergebnis nötig? Genauso viele???
Hallo Andreas,
nein, von den Dark- und Offsetframes (bei den Flat frames habe ich mich versprochen, siehe Text) – brauchst Du nicht so viele. Ich mache in der Regel so 20 je.
Grüße
Gunther
Unglaublich gutes Video, danke dafür !
Hallo Gunther
Du hattest schon mal geantwortet, dass du für die vielen Lights die Spiegelvorauslösung (1s) benutzt.
Um bei, sagen wir 160 Lights, den Spiegel meiner D800 zu schonen, könnte ich die Lights nicht auch im LiveView Modus mit hochgeklapptem Spiegel vornehmen? Oder spricht da was dagegen?
Leider kann man ja bei der D800 bei Intervallaufnahmen den Spiegel nicht vorgängig für alle Aufnahmen hochklappen.
Im Live view ist die Kamera noch langsamer, außerdem klappt der Spiegel soweit ich weiß trotzdem um. Probier es mal aus.
Hallo Gunther,vor ein paar Tagen habe ich Fotoschnack abonniert und dachte noch,nach dem Gunther muß ich mal googlen.…
Jetzt habe ich zufällig deinen Blog entdeckt,war gleich begeistert und merkte erst später,daß DU ja der Gunther bist.Qualität setzt sich durch hihi.
Also super gemachte,sehr sympathische und informative Seite.
Herzlichen Dank,auch für die gratis Fotoschule mit Diana ‚sehr wertvoll!!
Wenn ich nicht schon Pentax hätte,mit der ich sehr zufrieden bin,würde es durch dich Nikon werden.
Alles Gute,herzliche Grüße,Hedi.
Hallo Hedi,
vielen lieben Dank für das Kompliment und schön, dass Du hergefunden hast!
Bist bald einmal,
Gunther
Hallo Gunther,
kann man anstatt der 100 Aufnahmen nicht einfach 1 Bild nehmen und es 99x duplizieren? Kommt doch eigentlich aufs gleiche raus.…oder habe ich da einen Denkfehler?
Nein, kann man nicht. Es geht ja gerade darum, dass bei jedem Bild die Nutzinformationen und das Rauschen etwas anders sind und so die gewünschten Nutzinformationen verstärkt werden und das Rauschen verringert wird.
Hallo Günther
tolles Video wie immer, nun mal eine ganz blöder Frage. Warum muss man eingetlich 50–60 oder 100 Bilder machen , Dark Frames etc ist schon klar.
Man belichtet sagen wir mal 2 Sekunden ist auf dem Bild 2,3 4 ‚5 etc ja auch nicht mehr oder andere Bildinformation entalten wie auf dem ersten, oder sehe ich das falsch, also kann ich ja genau so gut ein Bild 50 – 60 mal Kopieren und das Stacken.
Wie gesagt blöde Frage, aber man denkt einfach darüber nach , ist ja nicht wie beim Stacken eines Makros wo ich evtl den Schärfepunkt bei der Aufnahme verändert habe und dann natürlich andere Bildinformationen habe.
Bin schon neugierig auf deine Antwort
Gruß
Karl
Hi Karl, siehe meine andere Antwort dazu…
Hallo Gunther
Tolles Video, Du hast Doch auch den Merlin zur Nachführung bei der Belichtung, hast Du mal versucht etwas länger mit weniger Iso, dafür mit Nachführung zu belichten? Werden die Ergebnisse nicht besser mit weniger Aufnahmen?
Natürlich hat es ja auch einen Reiz, keine Nachführung benutzt zu haben.
Gruß Frank (aus Hamburg)
Hallo Frank,
natürlich, das bringt etwas, und man kann mit niedrigeren ISO werten arbeiten. Daher habe ich ja im Artikel auch den Polarie empfohlen. Mit dem Merlin geht es auch, aber der ist natürlich nicht so portabel.
Hallo Gunther,
danke für den – wie immer – super Beitrag.
Eine Anregung hätte ich noch: Da die Bilder im Video nicht so gut erkennbar sind könntest du noch im Artikel ein Vorher- und Nachher-Bild verlinken.
lg
DeepSkyStacker für Mac. Anbei der Link zur fertigen Version des Programms für den Mac. Habe es Installiert und scheint zu funktionieren. Ist von dem gleichen blogger tom-goetz.org jedoch bereits vorinstalliert und «ready to go»
Übrigens toller Beitrag! Vielen Dank
Hallo Gunter,
danke erst mal für das wie immer tolle Tutorial.. Eine Frage dazu: Ich würde bei solchen Bildserien für die Lights die Spiegelvorauslösung verwenden um Verwackelungsfehler zu minimieren. Oder ist dieser Gedanke völlig abwegig?
Viele Grüsse
Roland
Der Gedanke ist sogar sehr gut, das mache ich in der Regel auch. Meist stelle ich sie auf 1 Sekunde.
Danke für die schnelle Antwort…
Roland
Hi Gunter,
Super video danke dafür!!!
Leg Dir für die Astrofotografie eine M43 System an Panasonic GH4 (auch 4K) und OMD EM1 bswp. 60s Belichtungszeit Olympus hat verschiedene Langzeitbelichtungsmodi…Live Bulb, Live Composite etc. oder leih Dir von Paddy einfach mal von Ihm eine aus der hat ja eh fast jede Kamera zuhause und/oder gar doppelt!!!;) Der Glückspilz.…
MfG
Ricardo
Hallo Ricardo,
für diese Art von Aufnahmen braucht man idealerweise einen empfindlichen Sensor mit einer guten ISO Leistung. Ich mag die MFT Kameras auch, aber im hohen ISO Bereich sind sie nicht ideal. Lange Belichtungszeiten bringen, wie im Video erklärt auch nichts, da die Sterne «wandern». Daher stacken wir mehrere Bilder mit kurzen Belichtungszeiten. Sicherlich kann man auch mit einer MFT Kamera solche Aufnahmen probieren, aber hier sind diese aufgrund des kleinen und relativ lichtunempfindlichen Sensor doch etwas im Nachteil.
Grüße
Gunther
Du kannst z.B. ein Lichtstarkes 50er (z.B. das 50mm f/1.8) sehr gut benutzen, selbstverständlich auch an einer Kamera mit APS‑C Sensor, wie der Nikon D5300 oder D7100. Der gegenüber Vollformat etwas unempfindlichere Sensor wird hier hervorragend durch die hohe Lichtstärke des Objektivs kompensiert.
Hallo,
danke für das 2‑teilige Tutorial. Ich würde mich auch tierisch gerne mal an dieser Art der Fotografie versuchen, allerdings besitze ich kein lichtstarkes Tele. Ist die Deep-Sky-Fotografie auch mit z.B. einem 50er, oder sogar einem WW möglich?
Danke für das super tutorial! kann man mit der methode auch «bessere» mondfotos machen, wenngleich man dort ja nicht unbedingt ein rauschproblem hat, sondern eher gerne noch mehr details sehen würde. danke & gruß, volker
Nein, ich denke für den Mond ist das nicht so geeignet. Hier kommt es eher auf die Brennweite und Schärfe des verwendeten Objektivs an, die richtige Technik sowie ein gutes «Seeing».
Moin Gunther,
Danke für das Video und die ausführliche Erklärung. Da ich Mac-user bin habe ich auch ein bisschen nach einer Alternative gesucht und Bin auf Diesen Beitrag gestoßen, in dem Jemand DeepSkyStacker für Mac bereitstellt. Vielleicht hilft dies ja anderen.
http://blog.tom-goetz.org/2013/01/running-deepskystacker-for-windows-on.html
LG.
Hallo Jan, aber genau auf den Beitrag habe ich doch oben im Artikel schon hingewiesen?! :-)
Sorry,
ich hab mich wohl zu sehr auf die interessanten Informationen konzentriert, und diesen Teil übersehen.
Naja, wie heißt es so schön. Doppelt hält besser ;-)
ICh habe mal eine leicht kätzerische Frage, der Unterschied zwischen Nikon und Canon ist ja auch im Megapixel Bereich sehr unterschiedlich, was würdest du sagen kann man sagen das die Nikon-Kameras bei der Astrofotografie besser sind wegen dem Rauschverhalten oder ist das spätesten nach den Dark und Off-Set Frames egal?
Nein, solche Aufnahmen kann man herstellerunabhängig machen. Meine aus dem Beispiel kommen z.B. von der Canon 6D.
Im hohen ISO Bereich haben derzeit bei Canon die 1Dx und die 6D die Nase vorn, bei Nikon die D4s und die D600/D610.
Danke für das tolle Video. Wie viele Aufnahmen würdest Du denn empfehlen? Je mehr, desto besser ist klar. Aber was ist denn eine sinnvolle Anzahl?
Und noch eine Frage: Löst Du jede Aufnahme manuell aus oder hast Du einen Timer, der das für Dich übernimmt?
Viele Grüße und nochmals Danke
Sebastian
Also mit 100 Aufnahmen kommst Du schon recht weit. Irgendwann läuft Dir das Objekt ja raus, dann müsstest Du es wieder «Auf Anfang schwenken».
Ich nutze dazu immer einen Timer, dieser hier ist sehr gut.
Tolles Tutorial, danke!
Hallo Gunther,
weshalb hast du bei den Bilden die Lichter auf ‑100 gesetzt?
Grüße, Johannes
Um die Helligkeit erhöhen zu können, ohne, dass die Sterne ausfressen.
Klingt logisch! Danke für die schnelle Antwort.