Sie sind hier

Mhm - mein erstes gestacktes Foto

Bild: 

Für Freitag zeigte meteoblue beste Sichtbedingungen, die sich dann 15 km östlich von Neumarkt mit einem wunderschönen Nachthimmel bestätigten :-)

Zum Ergebnis wurden 20 nachgeführte Einzelbilder in DeepSkyStacker mit 10 Darkframebilder verrechnet und gestackt. Das Histogramm des Ergebnisfiles wurde in FitsWork angepasst (gestretcht) und dieses Ergebnis in LR leicht angepasst.

Nachgeführt wurde mit dem Star Adventurer Mini mit der E-M1.1, ISO 500, Sigma 60mm, f4, Belichtung 120 Sekunden mit 10 Sekunden Pause zwischen den Aufnahmen.

Ziel war es, die Nachführung zu testen und dabei die Farben der Sterne zu erhalten.

Auch wenn das Ergebnis ziemlich dem visuellen Eindruck entsprach, meine ich, dass die Einzelaufnahmen hätten etwas stärker belichtet werden können.

Wer hat noch weitere Hinweise?

Gruß, Dieter

Bild des Benutzers Tarnkappe

Bild: 

...

Gruß Dieter

Bild des Benutzers Tarnkappe

Bild: 

...

Gruß Dieter

Bild des Benutzers iamsiggi

Der Hintergrund darf heller sein, und die Ausläufer von M31 sollten damit auch größer werden.
Allerdings sollte der Kern keinesfalls weiter aufgehellt werden. Das etwas (üblicherweise immer drinnen) grün auf jeden Fall herausziehen, aber das hast Du ja offenbar am ersten Bild schon hinbekommen.
Schwierig ist die Galaxie selbst, denn da musst du mit Masken arbeiten, die dann die jeweiligen Bereiche (wie den hellen Kern) schützen. Da wie bei HDR Fotografie dann mit den Tonwerten die Staubbanden und Arme hervorheben.

Siegfried

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers jürgenS

Hallo Dieter,
das sieht doch schon richtig klasse aus!
Die Begriffe "Fits Work" und "gestretcht" muss ich zuerst mal guuugeln;-)
Wie war die Wifi Bedienung beim SAM ?

HG Jürgen

Bild des Benutzers Tarnkappe

Hallo Jürgen,

für meine Anfangserwartungen war ich schon zufrieden, obwohl ich für den Vorort-Setup etwas länger gebraucht habe, als gedacht.
Aber ich denke, dass ich das Ende der Fahnenstange noch lange nicht erreicht habe.

Die WiFi-Bedienung hat zuverlässig funktioniert. Eine Internetverbindung ist nicht zwingend nötig, verkürzt aber den GPS-Fix. Der Status des Belichtungsauftrags kann immer wieder abgefragt werden. Mein Smartphone muss (sehr wahrscheinlich wg. Energiesparfunktionen) die Verbindung nach längeren Pausen neu aufbauen - danach wird der Status wieder korrekt angezeigt.

Ich hatte leider vergessen ein Fernglas mit zu nehmen - das Spazieren schauen mit bloßen Augen während der Aufnahmen macht zwar Spaß - mit Fernglas (oder Dobson) aber mehr.

BTW: Zu FitsWork hat Siggi auch einiges geschrieben.

HG Dieter

Gruß Dieter

Bild des Benutzers iamsiggi

Bild: 

Hallo Dieter,

Na das ist ja schon mal sauber nachgeführt!.
Die Belichtung ist etwas zu wenig. Wobei natürlich M31 wegen der Helligkeit wirklich schwierig ist, denn das Zentrum ist sehr hell.
Gestern habe ich zufällig auch da hinauf fotografiert: Mit 135mm allerdings und E-M10.II: F2.8 ISO1000 und 60 Sekunden. Anbei quasi ein nahezu (nur Weißabgleich des Hintergrund und leichte Tonwertkorrektor) unbearbeitetes Einzelbild.

Die F2.8 waren da schon ein Kompromiss, weil ich normalerweise bei meinem Himmel bei 60 Sekunden Belichtungszeit F/2 brauche. Entsprechend bei F/4 wären das 4 Minuten. Am Andromeda dann allerdings eher max. 2 Minuten und darunter.
2016 habe ich mit F/4 folgende Belichtungsserie gemacht - und dann als HDR verwurschtet:
13x240" ISO200
21x240" ISO400
9x240" ISO800
Dann konnte ich dieses Bild bekommen:
https://astrob.in/283319/0/

...müsst ich jetzt allerdings besser hinbekommen.

Letzter Zeit habe ich da ja wieder Licht gesammelt, aber ich bin noch nicht zur Bearbeitung gekommen.

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

Bild: 

Hallo Siegfried,

vielen Dank für deine Anmerkungen :-)

Ja - die Belichtung habe ich zu knapp gewählt. Im Histogramm liegt der Buckel zu weit am linken Rand.

Dein verlinktes Bild ist natürlich erste Sahne :-)
Die Idee mehrere Belichtungsreihen zu machen ist eine gute Idee. Dazu muss ich mich im DeepSkyStacker noch etwas hineinknien.
Auch die Anzahl der Einzelbilder könnte ich noch erhöhen.

Mir sind da noch einige Fragen gekommen:

1. In der APP zur Mini kann ich die Belichtungszeit und die nachfolgende Zeit zum Abkühlen der Kamera einstellen (die Kamera wird über Bulb ausgelöst). Im manual der Star Adventurer Mini wird der Tipp gegeben, das die Pause nach der Aufnahme ungefähr die halbe Belichtungszeit sein solle. Dies kam mir doch sehr lange vor und habe mal 10 Sekunden gewählt. Ist natürlich von der Kamera abhängig. Welche Pausen hältst du ein?

2. Anfänglich hatte ich die ORF's im DeepSkyStacker geladen. In der Einzelbildansicht war aber der M31-Nebel kaum zu sehen (im Gegensatz zur Ansicht in LR oder auch in der Kamera). Daraufhin habe ich aus LR TIF's exportiert und im DeepSkyStacker verarbeitet. Hast du eine Erklärung, warum die Ansichten so unterschiedlich sind? (Im jetzt angefügten Bild habe ich es nochmal mit den ORF's probiert)

3. DeepSkyStacker schlägt in seiner Defaulteinstellung eine 80% Auswahl der besten Bilder vor. Während des Aufnahmezeit hatte ich ziemlich konstante Sichtbedingungen (ein Bild mit einem blinkenden Jet habe ich händisch aussortiert). Wie gehst du hierbei vor?

4. Verwendest du für den Polsucher eine Winkeleinsicht?
Ich will es noch etwas ohne ausprobieren; eine Augenmuschel sollte jedenfalls her. Das gelegentliche Kratzen auf den Brillengläsern erschreckt schon sehr.

Gruß Dieter

Bild des Benutzers iamsiggi

Bild: 

Hallo Dieter,

1.) Abkühlzeiten:
Darum habe ich mich bisher nie gekümmert: Die Kamera hat Umgebungstemperatur - damit es etwas kühler bleibt lüpfe ich das Vorschaudisplay dann kann da auch Luft dazu. Aber das macht man sowieso meist wegen der besseren Sicht auf das Display.
Ich stelle einfach 4sec Auslöseverzögerung ein und fertig.

2. Unterschiedliche Helligkeiten
Jede Software streckt das Bild wohl anders. Solange Du keinen Beschnitt im Histogramm machst und auf 16 bit bleibst, ist es egal - es sind nur Zahlen.
Meine Software macht mit dem DCRRaw Modul das Bild linear (ungestreckt) auf: Da ist es total schwarz ! (Da bin ich am Hintergrund dann bei 0,002 herum Erklärung zur Zahl gibt es gleich)
Bei einem Einzelbild (ORF) in 16bit betrachtet und gemessen kann ein gesättigtes Pixel nur einen Wert von 0,0625 (1=weiß 0=schwarz) zeigen. Weil wir ein 16 bit Bild haben und dann unsere Kamera nur 12 bit Auflösung hat: 16bit=1 (100% gesättigt) 1 Bit Auflösung mehr heißt ja nur: doppelt so viel Möglichkeiten/Auflösung/Zahlenwerte: Also wenn 16bit gesättigt 1 ist, dann ist 15bit 0,5 14 bit 0,25 ... also 1/2/2/2/2 ergibt bei unseren 12bit dann 0,0625 das ist für uns nahezu schwarz am Schirm.
Also dieser Wert wird beim Entwickeln irgendwie gestreckt, so wie es sich halt für Fotografie bez. unser Auge als "natürlich" gilt. Oder einfach: Der Dunkelste Wert im Bild ist schwarz, der hellste (wo immer der lag ) wird auf 1 Hochgezogen. Da die Objekte aber knapp über den Hintergrund liegen ist da nicht viel zu sehen - solange wesentlich hellere Pixel im Bild sind.
Egal: solange man nicht's aus dem Bild schneidet sind alle Helligkeitswerte da, und man muss "nur" imstande sein, die Helligkeitswerte der gewünschten Bereiche dann so zu heben oder zu senken, dass ein vernünftiges Bild herauskommt.
Das gilt auch für die Werte der Farbkanäle: Es sind auch nur Zahlenwerte und kann man bleibt beliebig zueinander verschieben. Allerdings braucht man aber natürlich die volle Bittiefe und es sollte möglichst linear sein. Also die ganze Hintergrundbehandlung in DSS hilft Anfangs sicher (da einen neutraleren Hintergrund zu schaffen - was die Bearbeitung hinterher erleichtert, aber an sich ist es egal, solange nichts beschnitten wird: Meine Rohbilder sind je nach Kamera meist rot/orange oder grün, Wenn ich sie initial mit Autokontrast ansehe. Mit Autokontrast und Autoweißabgleich habe ich dann in etwa einen Eindruck vom fertigen Bild.
Die Farben werden dann relativ früh im Workflow korrigiert zuerst der Hintergrund auf grau (bei M31 gibt es da genug Hintergrund) und dann der Weißabgleich mit einem Durchschnitt an Sternen - der ist meist weiß.
Da gib es eine Tool - da geht das via Sternkarten:
http://www.skypixels.at/pixinsight_scripts.html#fluxx
Er liefert die Korrekturfaktoren der R G B Kanäle damit die Farben im Bild stimmen.
Oben ein Screenshot: Rechts ein Bild, so wie es aus der Kamera kommt als JPG gespeichert (OOC-OutOfCam) und das ganze nach Stack und Weißabgleich, aber ohne weitere Bearbeitung.

3. Bilder fürs Stacken aussortieren
Dazu schaue ich mir in der Bildvorschau (ACDsee oder IrfanView oder was auch immer) die Bilder groß durch und dann nochmals einen Bereich meist Bildmitte in 100%.
Da achte ich auf Eierstern oder sonstige Fehler .....
Normale Flugzeuge lass ich drinnen (wenn sie allerdings wirklich große Patzen erzeugen und ich es verschmerzen kann werfe ich es weg, schlimmsten Fall wenn Artefakte im Bild zurückbleiben nochmal stacken ohne dem Störbild.
Dann geht's ans stacken ...fertig.

4 Polaralignment:
Nein ich schau da einfach durch (mit Verrenkungen) weil ich simpel nach der Kochab Methode vorgehe: Ein Auge (derzeit das linke) schaut gegen den Kochab und das rechte möglichst gerade durch das Polarskop. Polaris gehört dann einfach auf die Position am Kreis die auf der gedachten Linie zu Kochab liegt. Bei sehr langen Brennweiten müsste man da dann genau spielen, bis die Nachführung genau genug passt. Ist dann sicher aufwändig...vor allem wenn man dann noch nur wenig Lichtstärke hat und entsprechen noch länger Belichten müsste.

Ich hoffe ich konnte mehr Dinge aufklären als weitere Fragen aufzuwerfen ;-)

Siegfried

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

Oh Siegfried - Vielen Dank für deine sehr ausführliche Antworten :-)))

Da habe ich mit der Zeit noch einiges zu lesen und zu lernen :-)

1. Abkühlzeiten
Ich habe zusätzlich mal die Darks miteinander verglichen.
Alle um 3EV erhöht und in der Lupenansicht verglichen - zwischen ersten und letztem Bild kann ich keine Unterschiede feststellen. Gleicher Vergleich mit den Lightframes (Nachtaufnahmen) zeigt leichte Unterschiede, die aber wohl dem Verlauf der Nacht geschuldet sind. Eine halbe Belichtungszeit Pause dürfte damit maßlos übertrieben sein (werde wohl auch auf 4 Sekunden reduzieren :-))

E-M10.2 vs E-M1.2
In deinem letzten Post erwähntest du, am Freitag die E-M10.2 verwendet zu haben. Gibt es einen Grund, die E-M10.2 der E-M1.2 vorzuziehen?

Hintergrund meiner Frage ist, dass ich meine E-M10.1 auch als Alternative zu meiner E-M1.1 erwogen habe.

Aus meiner Sicht spricht für die E-M10.1 das bessere Rauschverhältnis bei Langzeitaufnahmen als bei der E-M1.1 (was aber mit einem Darkframeabzug egalisiert sein sollte).

Für die E-M1.1 spricht die sichere Stromversorgung durch den Batteriegriff und die bessere LV-Erweiterung.

Gruß Dieter

Bild des Benutzers iamsiggi

Bild: 

Ist einfach: Die M1.II war mit dem 25mm am StarAdventurer zu Gange. OOC-Bild anbei..... Das Teleskop war am M33 im Einsatz damals.
Bei der E-M1.II ist mir leider aufgefallen, dass ich bei Bildern aus der E-M1.II immer großflächige grünere und rotere Bereiche habe, die ich nicht wegbekomme. Sollten mit Flat/BIAS/Darks weggehen, tun sie aber nicht.
Die E-M10.II habe ich als Zweitkamera und wollte sie Astromodifizieren. Bisher aber nicht gemacht.... Die neueren OM-D's haben halt die LV Erweiterung II, die bei schwierig zu findenden Bereichen echt eine Große Hilfe ist. Bei Langzeitbelichtung ist der Sensor der E-M1 halt was Rauschen betrifft nicht wirklich gut. Daher habe ich mit ihr grad mal Anfangs fotografiert. Sie ist dann sowieso mit unerklärlicheren Wasserschaden gestorben. In der Zwischenzeit habe ich dann die ebenfalls vorhandenen E-PL7 und E-M5 verwendet. Da der Sensor der E-M10 ja gleich der E-M5 oder 10.II oder E-PLx ist, denke ich auch Deine E-10 wird gut funktionieren. Man muß halt ein paar hellere Sterne finden zum Scharfstellen und einrichten.
Klar geht die E-M1 mit Darkframeabzug gut, aber ich sage mir halt: Besser gleich andere vorhandene Kameras mit dem Sony CMOS einsetzen, die da wesentlich besser sind. Ich denke Qualitätsmäßig ist sowieso der größte Unterschied, was man mit Bildbearbeitung herauskitzeln kann, als der Unterschied der derzeitigen Sensoren bei Olympus.

Wegen Stromverbrauch.
Bei Livetime Belichtung durchgehend 4 Minuten und 4 Sek Pause komm ich mit einer Batterie sagenhafte 4,5 Stunden weit!
Bei der E-M10.II bei 60sec belichtungen (ohne Livetime) nur zwischen 2,5 und unter 3 Stunden. Die E-M1.II geht hier auch nur bis 3 Stunden.
Von daher sind die E-PLs wirklich stromsparend :-)

Entweder der Sensor oder die neuere Kamerainterne Software.

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Reinhard Wagner

Abkühlung: (Da kann ich was zu sagen.) Ich habe mal die Sensortemperaturen in verschiedenen Situationen beobachtet. Der Sensor kommt extrem schnell auf seine "Arbeitstemperatur" und bleibt dort. Das dauert nur ein paar Minuten. Bei den Systemkameras ist der Sensor ja die ganze Zeit in Betrieb. Richtig belastet wird er vor allem bei 60fps in Vollauflösung. Aber da ist sowieso nach ein paar Sekunden Schluss.

r.w. admin.

Bild des Benutzers iamsiggi

Ich glaub auch, dass da die Umgebungstempertur die größere Rolle spielt.
Man kann sie sich ja nicht aussuchen, also muss man nehmen was man kriegt.
Wobei im Sommer so ab 25 Grad bei 4 Minuten und ISO800 und bei sehr schwachen Objekten kann man die Bilder dann eher schon vergessen.

Bei den sehr praktischen Belichtungen mit 60 Sekunden (weil ja interne Serienbildfunktion verfügbar) brauch ich nicht den Komfort den LiveTime Belichtung bietet, denn das kann man erwarten.

Bei den 4 Minuten Belichtungen habe ich auch nicht so Bedenken, LiveView Belichtung zu wählen (und alle 30 Sekunden das Bild auslesen zu lassen), obwohl es sicher etwas mehr rauscht. Es ist halt sehr bequem bei einer schnellen Kontrolle am Display während der Belichtung zu sehen, dass alles so läuft wie es soll.
Ich denk, das spielt letztendlich eben der Himmel und Bildbearbeitung eine größere Rolle als das etwas mehr rauschen im Einzelbild.

Wenn man dann wirklich mal so um die 100 Bilder stackt, ist das Rauschen dann sowieso zu vernachlässigen.

Wo es aber wohl einen Einfluß geben kann ist bei der Anfertigung der Flats und vor allem der BIAS File, denn da sammelt man ja bei möglichst kurzer Belichtungszeit ja einiges an Bildern. Und da fürchte ich, heizt sich nicht nur der Sensor sondern auch die Signalverarbeitungselektronik ungewöhnlich stark auf. Da müsst ich dann mal die Geduld aufbringen möglichst viele 1/8000s Bilder aber mit viel Auskühlzeit dazwischen zu sammeln.

Vorläufig verwende ich da halt nur die reduzierte Serienbildfunktion und drück solange den Auslöser, bis die Kamera mit dem speichern spürbar nicht mehr mitkommt .... was meist so um die 30-40 Bilder ergibt.

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

Sehr interessant :-)

Bei der E-M1.II ist mir leider aufgefallen, dass ich bei Bildern aus der E-M1.II immer großflächige grünere und rotere Bereiche habe, die ich nicht wegbekomme.

Mhm - in der Lupenansicht habe ich auch mit der E-M1.1 grüne Flecken im Hintergrund festgestellt. Gut - Flat- und Biasframes habe ich noch nicht gemacht und angewandt. Bislang habe ich diese Flecken in LR per HSL farblich entsättigt (in der Hoffnung dadurch keine Sternfarben zu beeinflussen).

Die Flecken werde ich mal weiter beobachten.

Die Stromversorgung der E-M1.1 mit Batteriegriff stelle ich mir relativ simpel und unproblematisch vor. Neben zwei Akkus hat man am Batteriegriff die Möglichkeit den Akku möglichst ohne Verstellgefahr auszuwechseln (gut - möglicherweise hat man ein Bild versaut). Für die E-M10.1 müsste ich mir mit Helges Adapter etwas ausdenken. Grundsätzlich sind halt möglichst wenige Kabel sympatischer.

BTW: Bei einer 45-minütigen Startrailaufnahme bei -8° habe ich erlebt, wie störrisch ein Fernauslösekabel werden kann (die Isolierung ist daraufhin gebrochen). Diesen Aspekt müsste ich bei einer selbst gebastelten externen SV auch berücksichtigen.

Gruß Dieter

Bild des Benutzers iamsiggi

Für die Kälte gibt es eigene Kabel - Silikonkabel.

Mich wundert aber auch, dass ich bei den vielen Kabeln am Teleskop nicht schon einen Kabelbruch hatte. Allerdings Kontaktprobleme gibt es hin und wieder.
Aber am meisten Kontaktprobleme haben diese OM-USB-Stecker die dann auf eine 2,5mm Klinke gehen (für den HAMA Auslöser z.b.), aber wenn es läuft und man greift nicht hin geht es meist ;-)

Die Batterien wechsle ich halt, wenn sie aus gehen, kommt aber meist nicht vor, denn dann ist es meist schon bewölkt oder zu feucht. die Letzten Nächte allerdings forderten sehr wohl dann ein ausschöpfen meines "Batterievorrates".

Wegen der Farbstreifen: Klar, wenn man den Hintergrund isolieren kann, helfe ich mir mit entfärben, aber das geht halt ohne zu Malen oft nicht, weil sie in der Intensität schon recht nahe bezw. bereits da liegen, wo schwache Objektausläufer sind. Damit kämpfe ich halt.....

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

@Siegfried
Bei der Aufnahme der Flat- und Biasframes kann man ja die Intervallfunktion der Kamera verwenden und auch ein paar Sekunden Pause einbauen.

Wegen Farbstreifen:
Das hatte ich missverstanden - ich meinte die grünlichen Flecken im Bildhintergrund. Allerdings meine ich auch bei der Bildbearbeitung einige Streifen entdeckt zu haben (die ich aber erst einmal ignoriert hatte).

Sind die von dir erwähnten Streifen das "Banding", welches hier gezeigt und auch entfernt wird?:
https://www.youtube.com/watch?v=Jj1vQxdoBa8
oder hier
https://www.youtube.com/watch?v=ZwwtAt0752I

@Reinhard
Bei welchen Außentemperaturen hattest du die Chiptemperatur ermittelt?
Bei den Astroaufnahmen bleibt man wohl aber eher im Temperaturbereich unter max. 20° im Sommer. Wenn hier eine Abkühlung durch eine Pause nicht notwendig ist, dann erst recht nicht bei -10°.

Gruß Dieter

Bild des Benutzers iamsiggi

Danke Dieter,

Eine Serie von BIAS auf diese Art habe ich gestern Nacht mal so gemacht, und werde es ausprobieren Leider ist es derzeit wieder etwas warm. Obwohl es nur 13 Grad hatte zeigt mir das EXIF GUI eine Temperatur von 34 34 0 an......
Bei meinen Darks aber 15 15 0. Selbst bei den FLATS mit Serienbild waren es nur 17/17/0 Die Lights gingen während mehr als zwei Stunden von 22 auf 20 (Jeweils 60sec Belichtungen am Stück).

Bei der E-M1.II sind es keine Farbstreifen sonder größflächigere breiche eher von oben nach unten aber nicht senkrecht wo es mal grüner mal roter ist.
Das Canonbanding ist es jedenfalls nicht, und hab ich bei keinem der Olympussensoren gesehen

Danke für das heraussuche der Videos, da kann man sicher einiges lernen.
Beim Entrauschen, schisst der Gute aber etwas weit übers Ziel bezw. ist es nicht so stark notwendig.
Also wenn, dann vorsichtig.
Das sind waveltbasierende Tools besser. Allerdings müsste man da auch die helleren Objekte vorher mit einer Maske schützen.
Für PI gibt es ja da mittlerweile TGV (aus der Medizintechnik) das PI Video ist ja aus 2014, da gab es das noch nicht.

Siegfried

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

Danke Siegfried

für den Hinweis auf das ExifTool, bzw. auf die entsprechende GUI :-)

Ich habe gar nicht daran gedacht dort etwas zu finden:-)

Wie ist die Temperaturangabe zu verstehen "20/21/0 C"?
Anfangstemperatur/Endtemperatur/XXXX ????

In meiner Aufnahmeserie (120 Sekunden Aufnahme / 10 Sekunden Pause) sank die Chiptemperatur von 20/21/0 auf 17/18/0 ab (20 Aufnahmen (Lightframes), 10 Darkframes).

Wenn ich das erste und das letzte Lightframe (20:49/21:36) nach gleichmäßiger Anhebung der Helligkeit miteinander vergleiche, so wirkt der Hintergrund beim letzten Lightframe minimal dunkler.

Ich möchte nun nicht Kaffeesatzlesen ... aber könnten die 2-3 Grad Unterschied die Ursache sein?
(20/21/0 vs 18/18/0)

---

Wenn ich in FitsWork bei meinen Aufnahmen den Gammawert stark anhebe, kann ich ganz schwach Streifen erkennen, die aber breiter als im verlinkten Video sind. Sie gingen mit der beschriebenen Vorgehensweise weg.

Aber ich muss jetzt erst einmal mal meine Flat- und Biasframes machen und damit erneut stacken - ist sehr wahrscheinlich sinnvoller.

Gruß Dieter

Bild des Benutzers iamsiggi

Hallo Dieter,

Gerade bei einem solchen Motiv, wo wirklich viel Hintergrund zu finden ist, kann man ohne Flat/BIAS Korrektur auch mit Ebnen (findest Du in FitsWorks) weiterkommen.
Die Flats korrigieren zwar z.b die Helligkeitsabfälle gegen den Rand der Optik, aber die ist ja zum Glück bei unseren Linsen oft recht gering.
Was man aber praktisch immer hat: Einen Helligkeitsgradienten am Himmel. Und der gehört gleich mal zum Beginn der weiteren Bearbeitung herausgerechnet.
Dazu gibt es das Ebnen. Hier würde ich Ebnen-Nebel verwenden.
Dabei würden auch die Helligkeitsgradienten der Optik mit entsorgt werden.

Siegfried

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

Hallo Siegfried & Merci :-)

ich hatte gestern noch Bias- und Flatframes erstellt und nacheinander gestackt (Lights+Darks, Lights+Darks+Bias, Lights+Darks+Bias+Flats).

Der Hintergrund war mit Einberechnung der Biasframes spürbar dunkler; mit den zusätzlichen Flatframes waren aber keine Veränderungen mehr feststellbar (zum Vergleichen hatte ich in FitsWork jeweils den Gammawert maximiert).

Meine daraus resultierende Frage, wie wichtig die Flatframes bei unseren Kameras eigentlich sind, hast ja gerade schon beantwortet :-)

Danke auch auf den Hinweis zum Helligkeitsgradienten, den hatte ich in meinen Bildern noch gar nicht wahrgenommen (ich habe deinen Tipp gerade ausprobiert - funktioniert vorzüglich).

Du empfiehlst diesen Helligkeitsgradienten gleich zu Beginn der weiteren Bearbeitung heraus zu rechnen.
Meinst du auch vor dem Stretchen?

Und noch eine Frage: Meine Aufnahmen habe ich im manuellen Modus gemacht; einzig der Weißabgleich war auf Automatik gestellt. Bei der Durchsicht der Bilder in LR habe ich aber kleine wertemäßigen Unterschiede des Weißabgleichs gefunden. Ich denke nun, dass der Weißabgleich besser fix eingestellt werden sollte.
Welchen Weißabgleich stellst du ein?
[Edit]Ich sehe gerade, dass DeepSkyStacker als auch FitsWork die Weißabgleichinfos des ORF ignorieren. Deshalb ist auch der in der Kamera gewählte Weißabgleich egal :-)[/Edit]

BTW: Ich habe mir inzwischen mal die ganzen Menüpunkte von FitsWork angesehen - die Vielfalt erschlägt einen fast :-)
Aber zusammen mit der sehr guten Dokumentation sind die Infos häppchenweise sehr gut verträglich ;-)

Gruß Dieter

Bild des Benutzers iamsiggi

Wegen der Flats, sie korrigieren das Optische System. Sollten also Helligkeitsgradienten und Bildfehler, korrigieren. Bei unseren tollen Linsen ist der Helligkeitsabfall zu den Rändern ja nicht wirklich groß und von Sensorflecken sind wir auch meist verschont.
Letztlich sollte ein durch D/F/B kalibriertes Bildperfekt sein also ohne Artefakte aus dem verwendeten Geräten.
Man hat es ja leider nicht immer so, das es relativ viel echten dunklen Hintergrund gibt. Vor allem bei mehr Brennweite oder in der Milchstraße gibt es ja kaum welchen zu finden. Dann würde natürlich schon sehr stören, wenn man einen Helligkeitsverlauf (meist ja mehr oder weniger Kreisförmig) auch im Bild hat. Der kommt dann ja unweigerlich heraus, weil wir das ja gnadenlos verstärken bei der Bearbeitung.
Einen gleichförmigen Gradienten über den Himmel bekommt man ja mit verlaufenden Masken weg, falls man ihn vor lauter Nebel überhaupt sieht. Das sollte in PS gut gehen, wenn man kann, ich kann PS allerdings nicht.

Das Problem bei der Bildfeldebnung ist halt: Hier geht es automatisch, und man hat nicht wirklich einen Einfluss wo ein Helligkeitsgradient aus dem Bilde herausgezogen wird. Auf diese weise kann man ja wunderbar die schwachen Ausläufer oder Staubnebel aus dem Bild wegmachen.

Man macht das Bild nach dem stacken flach. Davor sollte man aber alle "komischen" Ränder weggeschnitten haben, die beim Stacken so durch Bildversatz entstanden sind. Das kann nämlich den Algoritmus außer Tritt bringen, der versucht herauszufinden, wie der Gradient über das Bild läuft um in dann wegzurechnen.

Es bringt nicht wirklich etwas bei den Einzelbildern. Sind einzelne Frames zu schlecht (Ausreißer) dann werden sie bei wenigen, zur hoffentlich größeren Anzahl der Anderen herausgerechnet oder wenn sie die Oberhand gewinnen würden schweren Herzens entsorgen. Denn dazu fehlen wohl den meisten die Werkzeuge und KnowHow. Ich könnte das mittlerweile korrigieren im Vorfeld. Nennt sich "local Histogrammnormalisation", wo man defekte Teile gegen gute austauschen kann.

Hier (und immer am besten) wenn es nicht passt: Nachlegen - sprich noch mehr Bilder sammeln zum Stacken.

Warum man ein "flaches" Bild braucht kommt man schnell drauf, wenn man mit Helligkeitsmasken arbeiten will (und das macht man oft). Man hat es einfach leichter, wenn man eine Maske erzeugen kann, die nur einen bestimmten Helligkeitswert wiedergibt: Z.b. Nur den Hintergrund: um ihn zu Entrauschen. Es rauscht ja nur im Dunkelen Bereichen. Und eine Maske wo nur die Nebelchen drinnen sind.... die man z.b. zusätzlich in der Helligkeit anheben will und die Farben intensiviert etc. Man wird aber draufkommen, dass es halt auch nicht immer so leicht geht - es ist an sich die Hauptarbeit Masken zu erstellen um selektiv vorzugehen.

Daneben gibt es aber auch Masken bezw. Techniken, indem am mit Wavelets arbeitet. Das Bild wird in Strukturen unterschiedlicher Größe zerlegt. wie 1 Pixel , 2x2, 3x3 4x4 ...und der Rest. Das nennt sich dann Layer.
Wenn man also mit Waveletfilter arbeitet, z.b. beim Entrauschen, dann wird man nur am Layer 1 oder 2 entrauschen, denn da sind ja die einzelnen Pixel. Bei Layer 3-5 wird man die Sterne vorfinden. und im Rest (je nachdem wie hoch man das Bild filetiert in Layer) findet man dann die großflächigen Objekte. Man kann aber auch einfach die Layer aus einem Bild herausziehen und diese dann als Maske für das Bild verwenden.

Jedenfalls ist das die Erklärung, warum man mit üblicher Photobearbeitungstechnik über ein gewisses Niveau nicht hinauskommt: Weil man da normalerweise halt das ganze Bild "mitbehandelt" und damit zwar einen Teil verbessert, aber gleichzeitig andere Bereiche zerstört.
Bei Schärfen und Entrauschen kommt es auf die Software an, wie sie es tut. Gute Entrauschungstools sind Wavelet und Helligkeitsbasierend und man kann sie regulieren.

Wie oben schon geschrieben: Entrauschen wenn überhaupt will man den dunklen Teil. Der helle Rest wird es nicht brauchen und würde zu Matsch zerfließen.
Wenn wir die Farbsättigung ansehen: Die Objekte bedürfen ein anheben der Farbsättigung. Aber eben ganz sicher nicht unser Himmelshintergrund ... der würde in Luminazrauschen versinken.
Deconvolution ist dann einer der heikelsten Prozesse und wenn alles richtig ist kann er wirklich extrem vieles hervorkitzeln. Dazu ist das Objekt (meist Sterne und schwache Strukturen vorher gut zu isolieren, ansonsten kriegt man Artefakt dass man sein Bild oft nicht mal erkennt.
Wie schrieb neulich jemand in einem Forum: "Es funktioniert halt nicht immer, dass man aus einen Espresso die ganze Bohne wieder bekommt" :-)

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

Hallo Siegfried,

vielen, vielen Dank für deinen ausführlichen Input (den ich erst einmal verarbeiten muss) :-)

Gestern habe ich eine neue Serie geschossen - das war aber ein Reinfall (30 Aufnahmen mit Olympus 40-150mm, bei 100mm, min. Blende 5.1, ISO 1000 und 180 Sekunden Belichtungszeit)

Kein Bild wurde wirklich scharf - aber alle Bilder waren irgendwie unterschiedlich scharf - bei einigen Bildern waren die hellen Sterne doppelt zu sehen. Bei manchen Bildern waren die Sterne rund, bei anderen lang gezogen.

Es war relativ windig in der Nacht mit stärkeren Böen (die Wetterprognose sprach von 20km/h und ich stand auf erhöhter Position).

Aufgrund der starken Unterschiede in den Einzelbildern gehe ich davon aus, dass es weniger an meinen Einstellungen, als am Wind gelegen ist (war wohl zuviel für meinen Aufbau).

BTW: Auf YouTube geistert ein Video eines Workshops von Thomas Henne. Warst du zufällig dabei?

Gruß Dieter

Bild des Benutzers iamsiggi

Wie Du vermutet hast: Die Doppelsterne sind eindeutig Windböen, oder etwas anderes hat am Stativ gerüttelt. Bei mir macht das ab und an meine wilde Katze ;-)

100mm und 2 Minuten ist ja schon ambitioniert, da muß alles passen. Es ist dann aber auch normal dass man einen Teil der Bilder wo das Tracking nicht so ganz funktionierte löschen muss.

Zumindest bei uns war dieser Tage (und auch heute) durch die starken Höhenwinde ein recht schlechtes Seeing.
Sieht man an den hellen Sternen, wenn sie besonders funkeln.
Die Bilder bei solchen Bedingungen sind allesamt nicht wirklich gut.
Daher beschränke ich mich heute Nacht auf Brennweiten von maximal 135mm.
Seit 2 Stunden belichte ich mit 12mm rund um den Polarstern und das 135mm fängt den California Nebel im linken Fuß des Perseus ein, etwas links oberhalb der Plejaden.

Thomas organisiert bei uns in Wien unsere monatliche "Selbsthilfegruppensitzung" DSIG(Deep Sky Imaging Group), damit wir lernen noch bessere Bilder zu machen, denn die meisten habe ja beste Hardware ;-)
Es ist ein frühes Video. Heute sind die meisten entweder bei PixInsight oder Photoshop oder beides gelandet.

Früher wurde so manches Video von den Vorträgen gemacht - findest Du unter dsig.at / unter nachlese.

Liebe Grüße und Gut Licht !
Siegfried

--
Siegfried
"Man sieht nur das, was man weiß"

http://www.AustrianAviationArt.org/cms

Bild des Benutzers Tarnkappe

Vielen Dank Siegfried :-)

ja - man muss die Grenzen etwas ausloten. Bei ähnlichen Verhältnissen werde ich das nächste mal kurze Brennweiten und kürzere Belichtungszeiten einsetzen.

Lt. meteoblue war bei uns das Seeing an diesem Abend zwar nicht so gut wie am 05.10. (5/4-5), aber mit (5/3-4) wohl nicht so übel. Zumindest in südwestlicher Richtung war die Milchstraße weniger deutlich ausgeprägt.

Das Video von Thomas werde ich mir wohl öfter ansehen. Sowohl zu FitsWork, als auch zu PS. Ich habe zwar PhotoLine (statt PS), aber die Wege sind eigentlich gleich.

Zum nächtlichen Fotografieren werde ich wohl erst wieder ab Mittwoch nächster Woche kommen (sollte das Wetter passen).

https://www.astrobin.com/users/iamsiggi/

Hier zeigst du wirklich eine ganz tolle Serie deiner Arbeit :-)))

Liebe Grüße & einen wolkenlosen klaren Himmel

Gruß Dieter

Theme by Danetsoft and Danang Probo Sayekti inspired by Maksimer