Startseite › Foren › Bildkritik › NMZ › Unser Nachbar in 2,5 Mio LJ
- Dieses Thema hat 1 Antwort sowie 1 Teilnehmer und wurde zuletzt vor vor 8 Jahren, 9 Monaten von
iamsiggi aktualisiert.
-
AutorBeiträge
-
-
29. August 2016 um 22:41 Uhr #491
Heute wurde die Schönwetter und Neumondphase ja mal kurz unterbrochen. Daher habe ich mal vorrangig dieses Bild ausgearbeitet:
Es zeigt unser Nachbargalaxie Andromeda – M13 also ein „Widefield“ vom Stern Mirach aus.
Hier ist die Auffindekarte und mehr Infos
http://www.austrianaviationart.org/cms/m31-andromeda-galaxie/Kamera: E-PL7
Optik: mFT75/1.8 @2,8
ISO 400
39 Bilder zu je 4 MinutenWer seine Bilder vom Sternenhimmel durchforstet, die das Gebiet zeigen, auch mit Ultraweitwinkel, wird praktisch immer das Objekt finden. (Außer es ist viel zu kurz und mit zu geringer ISO gemacht). Dazu reicht ein Fotostativ aus.
Natürlich fehlt aber ohne Nachführung die tiefe.
Wer es bis zu 66% Originalgröße sehen will:
http://www.astrobin.com/261901/
Ins Bild klicken und dann oben rechts noch größer….
Siegfried
-
2. September 2016 um 20:46 Uhr #4455
…weil Du damals mein M13 Bildchen bezüglich Farbrauschen bemängelt hast
hab ich da mal extra genauer darauf geachtet.
Der erste Grundstein ist einmal dithering zwischen den Bildern:
Zwischen den einzelnen Belichtungen wird um ein paar Pixel (+ möglichst weniger als eines also z.b. 5,5 oder 5,3) versetzt. Das was auch die E-M5II macht um auf höhere Auflösung zu kommen.Damit fallen nicht immer die selben Lichter auf die selben Pixel. Die Nachführung selbst ist ja subpixel genau durch den Autoguider.
Zweitens:
Da man dann sehr viele Bilder übereinander legt, kommen statistische Methoden zur Anwendung: „Kappa/Sigma Stacking“ kann da quasi die „gesicherten“ Bildinformationen berücksichtigen. Hat ein Bild an der selbe Stelle komplett andere Informationen, (warum auch immer) fallen die raus. Das hat den netten Nebeneffekt,das ein Flugzeug das durchfliegt einfach verworfen wird. Kommt ja üblicher weise an der selben Stelle nur einmal vor unter den vielen vielen Bildern.Theoretisch könnte man dabei auch auf Darkframes (um Sensorrauschen/Fehler abzuziehen) verzichten, aber es hat sich herausgestellt, dass die Ergebnisse mit Darkframekorrektur _wesentlich_ besser sind.
Letztes Standbein: Bildbearbeitung:
Da gibt es verschiedenste Algorithmen die man vorsichtig anwendet um ein möglichst gutes Endergebnis zu bekommen:
Ein erster Schritt geschieht am linearen Bild (keinerlei Verstärkung bei der RAW Entwicklung):
Mit der „BlackPixelCannon“
(ein Pixel mathematischer Prozess
folgender Formel: iif( $T < 0.0xxx,((med($T) - $T)/2)+$T, $T) T=das Bild, xxx der gefunden Wert der toten Pixel)
kann man auf den einzelnen Farbkanälen (R/G/den Wert jener Pixel, die keinerlei Informationen tragen (was es ja nicht geben kann, weil ja der Hintergrund immer eine gewisse Helligkeit hat) auffüllen.
Schwarze Pixel / Löcher fallen ja besonders ins Auge.Jetzt wird es kompliziert:
Danach wendet man waveletbasierende Entrauschungsalgoritmen wie ACDNR, MMT „MultiscaleMadianTransformation“ etc. an.
Neuerdings das für MRT und andere Medizinische Bildgebende Verfahren entwickelte TGVDenoise Verfahren, das speziell darauf ausgelegt ist, noch kleineste mögliche Informationen trotz Entrauschen nicht wegzuradieren.
Beim Chrominanzrauschen wird da dann meist im CIE L*a*b Farbraum gearbeitet.
Danach wird das Bild gestreckt. Quasi Autokontrast
Allerdings am Maskierten Bild und immer nur in kleinen Schritten:
Problem ist ja: Die hellen Teile sind gesättigt, der Hintergrund hat einen bestimmten Wert und knapp über Hintergrund meist das was man sehen will, schwache Objekte.
Also man Maskiert das Bild mit einem invertierten Bild des Bildes. Wenn man dann den Tonwertregler (Gamma) hochregelt, wird es da wo das Bild dunkel ist stark aufgehellt, die hellen Teile aber nur wenig bis gar nicht. Weil da ist ja die Maske drüber, die die hellen Teile eben fast ganz zudeckt, die dunklen Teile aber offen lässt um die Funktion durchzuführen.
Das lässt man dann so in 100-150 kleinen Schritten (zum Glück automatisch) machen.Es wird generell viel mit selektiven Masken gearbeitet – aber die sind nicht gemalt, sondern werden aus dem Bild selbst erstellt.
Anbei das Bild, das beim Stacken herausgefallen ist (allerdings übertrieben im Kontrast, damit sich was tut
)
Hoffe das war in etwa verständlich
Siegfried
-
-
AutorBeiträge
- Du musst eingeloggt sein, um hier zu antworten.