Unser Nachbar in 2,5 Mio LJ

Startseite Foren Bildkritik NMZ Unser Nachbar in 2,5 Mio LJ

Ansicht von 1 Antwort-Thema
  • Autor
    Beiträge
    • #491

      Heute wurde die Schönwetter und Neumondphase ja mal kurz unterbrochen. Daher habe ich mal vorrangig dieses Bild ausgearbeitet:

      Es zeigt unser Nachbargalaxie Andromeda – M13 also ein „Widefield“ vom Stern Mirach aus.

      Hier ist die Auffindekarte und mehr Infos
      http://www.austrianaviationart.org/cms/m31-andromeda-galaxie/

      Kamera: E-PL7
      Optik: mFT75/1.8 @2,8
      ISO 400
      39 Bilder zu je 4 Minuten

      Wer seine Bilder vom Sternenhimmel durchforstet, die das Gebiet zeigen, auch mit Ultraweitwinkel, wird praktisch immer das Objekt finden. (Außer es ist viel zu kurz und mit zu geringer ISO gemacht). Dazu reicht ein Fotostativ aus.

      Natürlich fehlt aber ohne Nachführung die tiefe.

      Wer es bis zu 66% Originalgröße sehen will:

      http://www.astrobin.com/261901/

      Ins Bild klicken und dann oben rechts noch größer….

      Siegfried

    • #4455

      …weil Du damals mein M13 Bildchen bezüglich Farbrauschen bemängelt hast ;-) hab ich da mal extra genauer darauf geachtet.

      Der erste Grundstein ist einmal dithering zwischen den Bildern:
      Zwischen den einzelnen Belichtungen wird um ein paar Pixel (+ möglichst weniger als eines also z.b. 5,5 oder 5,3) versetzt. Das was auch die E-M5II macht um auf höhere Auflösung zu kommen.

      Damit fallen nicht immer die selben Lichter auf die selben Pixel. Die Nachführung selbst ist ja subpixel genau durch den Autoguider.

      Zweitens:
      Da man dann sehr viele Bilder übereinander legt, kommen statistische Methoden zur Anwendung: „Kappa/Sigma Stacking“ kann da quasi die „gesicherten“ Bildinformationen berücksichtigen. Hat ein Bild an der selbe Stelle komplett andere Informationen, (warum auch immer) fallen die raus. Das hat den netten Nebeneffekt,das ein Flugzeug das durchfliegt einfach verworfen wird. Kommt ja üblicher weise an der selben Stelle nur einmal vor unter den vielen vielen Bildern.

      Theoretisch könnte man dabei auch auf Darkframes (um Sensorrauschen/Fehler abzuziehen) verzichten, aber es hat sich herausgestellt, dass die Ergebnisse mit Darkframekorrektur _wesentlich_ besser sind.

      Letztes Standbein: Bildbearbeitung:

      Da gibt es verschiedenste Algorithmen die man vorsichtig anwendet um ein möglichst gutes Endergebnis zu bekommen:

      Ein erster Schritt geschieht am linearen Bild (keinerlei Verstärkung bei der RAW Entwicklung):

      Mit der „BlackPixelCannon“
      (ein Pixel mathematischer Prozess
      folgender Formel: iif( $T < 0.0xxx,((med($T) - $T)/2)+$T, $T) T=das Bild, xxx der gefunden Wert der toten Pixel)
      kann man auf den einzelnen Farbkanälen (R/G/B) den Wert jener Pixel, die keinerlei Informationen tragen (was es ja nicht geben kann, weil ja der Hintergrund immer eine gewisse Helligkeit hat) auffüllen.
      Schwarze Pixel / Löcher fallen ja besonders ins Auge.

      Jetzt wird es kompliziert:

      Danach wendet man waveletbasierende Entrauschungsalgoritmen wie ACDNR, MMT „MultiscaleMadianTransformation“ etc. an.

      Neuerdings das für MRT und andere Medizinische Bildgebende Verfahren entwickelte TGVDenoise Verfahren, das speziell darauf ausgelegt ist, noch kleineste mögliche Informationen trotz Entrauschen nicht wegzuradieren.

      Beim Chrominanzrauschen wird da dann meist im CIE L*a*b Farbraum gearbeitet.

      Danach wird das Bild gestreckt. Quasi Autokontrast ;-)

      Allerdings am Maskierten Bild und immer nur in kleinen Schritten:

      Problem ist ja: Die hellen Teile sind gesättigt, der Hintergrund hat einen bestimmten Wert und knapp über Hintergrund meist das was man sehen will, schwache Objekte.

      Also man Maskiert das Bild mit einem invertierten Bild des Bildes. Wenn man dann den Tonwertregler (Gamma) hochregelt, wird es da wo das Bild dunkel ist stark aufgehellt, die hellen Teile aber nur wenig bis gar nicht. Weil da ist ja die Maske drüber, die die hellen Teile eben fast ganz zudeckt, die dunklen Teile aber offen lässt um die Funktion durchzuführen.
      Das lässt man dann so in 100-150 kleinen Schritten (zum Glück automatisch) machen.

      Es wird generell viel mit selektiven Masken gearbeitet – aber die sind nicht gemalt, sondern werden aus dem Bild selbst erstellt.

      Anbei das Bild, das beim Stacken herausgefallen ist (allerdings übertrieben im Kontrast, damit sich was tut ;-) )

      Hoffe das war in etwa verständlich
      Siegfried

Ansicht von 1 Antwort-Thema
  • Du musst eingeloggt sein, um hier zu antworten.