reduzierte Aufloesung = weniger rauschen?

Datum: 30.06.2009 Uhrzeit: 15:01:19 Thomas Laue Hallo allerseits, ich habe mir als Immer-dabei-Kamera“ eine Olympus tough 8000 zugelegt. Die Bildqualität ist ganz ok – ich frage mich allerdings ob es etwas bringt die Auflö¶sung von 12 auf 5 Megapixel zu verringern. Würde sich das Rauschverhalten dann auch ändern? Ich habe diese Frage absichtlich unter allgemeines gestellt da es ja wohl grundsätzlich alle Kameras betrifft. Vielen Dank schonmal für Eure Antworten. GrußThomas posted via https://oly-e.de“ —————————————————————————————————————————————— Datum: 30.06.2009 Uhrzeit: 18:59:17 christian in der Regel bei den handelsüblichen Kameras die ich kenne: nein, das Rauschen bleibt das gleiche, aber frag mich nicht nach dem physikalischen Grund, ich glaube es wird mit voller Auflö¶sung belichtet und dann nur runtergerechnet. Als wünschenswertes Feature wird es aber schon seit Jahren diskutiert und gefordert (Zusammenfassung von Pixeln?), vielleicht habe ich was verpasst. HG Christian — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 30.06.2009 Uhrzeit: 19:52:18 Helge Suess Hallo Thomas! > … ob es etwas bringt, die Auflö¶sung von 12 auf 5 > Megapixel zu verringern. … Rauschverhalten … ändern? Im Prinzip jein. Eine geringere Auflö¶sung bedeutet Verlust von Detail. Von gewolltem als auch künstlichem. Das gilt auch, wenn das Bild in der Kamera einfach nach der Aufnahme für die Speicherung runter skaliert wird. Noch mehr würde es bringen, wenn die lichtempfindlichen Flächen auf Sensorebene zusammen geschaltet würden und so die Empfindlichkeit der einzelnen Pixel erhö¶ht würden. Dadurch würde das Rauschen in vielen Fällen erst garnicht in stö¶renden Mengen entstehen. Helge ;-)=) 6! — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 30.06.2009 Uhrzeit: 22:48:43 WolfgangPe Helge Suess schrieb: > > Noch mehr würde es bringen, wenn die lichtempfindlichen Flächen > auf Sensorebene zusammen geschaltet würden und so die > Empfindlichkeit der einzelnen Pixel erhö¶ht würden. Dadurch würde > das Rauschen in vielen Fällen erst garnicht in stö¶renden Mengen > entstehen. > > Helge ;-)=) Helge, das verstehe ich nicht. Das ist doch per Software total einfach zu machen. Ob ich jetzt per Hardware 4 Pixel zusammen schaltete, oder per Software die 4 Pixel addiere, wo soll da der Unterschied sein? Wolfgang —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 8:12:45 R. Wagner > Wenn alle Pixel des Sensor das gleiche Verhalten hätten gäbe es > kein Rauschen. > Schalte ich vier Pixel Hardware mäßig zusammen und digitalisiere > dann, ist die Quote die richtige Farbe zu treffen hö¶her als vier > digitale Pixel zu Mitteln. > Logischer weise müßte ein Bild mit niedrigen Pixel aus der Kamera > besser sein als ein hinterher verkleinertes, weil die > Ausgangsdaten besser sind. > Was zu beweisen wäre. 😉 Da hätte ich mal eine Frage: Die ganzen Sensoren beruhen ja auf einem Bayer-Filter. Das wiederum beruht auf einer 4-Pixel-Matrix (2 grüne, blau, rot) Wenn ich nun 4 nebeneinanderliegende Pixel zusammenfasse, verliere ich die Farbinformationen. Ich muß also 4 rote Pixel zusammenfassen. Die verteilen Sich aber auf eine Fläche von insgesamt 16 Pixel. Damit würde die Auflö¶sung des Sensors aber ins Lächerliche sinken. Wenn ich nur zwei rote Pixel zusammenfasse, bin ich bei einem Achtel der Auflö¶sung bei einem Gewinn einer ISO-Stufe. Habe ich irgendwo einen Rechenfehler? Wenn ich mir das so durchsehe, würde das bedeuten, dass das Pixel-Binning“ das in einigen Kameras praktiziert wird erst nach der Bayer-Berechnung bei der Erzeugung des JPGs durchgeführt werden kann. Denn erst nach der Bayer-Berechnung habe ich zwei „nebeneinanderliegende“ Pixel die eventuell die gleiche Farbe haben kö¶nnten. Irgendwo ein Denkfehler? Grüße Reinhard Wagner posted via https://oly-e.de“ —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 9:01:38 Oliver Ge christian schrieb: > Als wünschenswertes Feature wird es aber schon seit Jahren > diskutiert und gefordert (Zusammenfassung von Pixeln?), > vielleicht habe ich was verpasst. > Gibt es das nicht schon in einigen Kameras? Ich meine, z.B. die Fuji F200EXR oder die Pana TZ7 reduzieren die Auflö¶sung, um rauschfreiere Bilder zu produzieren. Richtig ist sicher, je kleiner ein hochauflö¶sendes Bild am Bildschirm dargestellt oder auf Papier ausgedruckt wird, desto weniger fällt Rauschen auf bzw. ins Gewicht. — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 9:11:47 Peter Eckel Hallo Reinhard, > Wenn ich nur zwei rote Pixel zusammenfasse, bin ich bei einem Achtel > der Auflö¶sung bei einem Gewinn einer ISO-Stufe. > Habe ich irgendwo einen Rechenfehler? Ja, es wäre ein Viertel bei Zusammenfassung von vier gleichen Farbpixeln – wenn (was nicht der Fall ist) die vier gleichen Pixel sich wirklich auf 16×16 Grundpixel verteilten (was sie nicht tun, es sind 9×9, damit wäre es immerhin schon ein Drittel) und wenn (was auch nicht der Fall ist) die Farbauflö¶sung eines Bayer-Sensors der Subpixel-Auflö¶sung entspräche – Bayer faßt aber beim Demosaicing eh schon mehrere Subpixel zusammen, was die Farbauflö¶sung auf die Hälfte reduziert. Ganz so viel wie Du annimmst geht also nicht verloren. > Wenn ich mir das so durchsehe, würde das bedeuten, dass das > Pixel-Binning“ das in einigen Kameras praktiziert wird erst > nach der Bayer-Berechnung bei der Erzeugung des JPGs durchgeführt > werden kann. Denn erst nach der Bayer-Berechnung habe ich zwei > „nebeneinanderliegende“ Pixel die eventuell die gleiche Farbe > haben kö¶nnten. Das wäre der einfachste Fall und da dabei bereits wertvolle Informationen verlorengegangen sind (nämlich die Lage der Subpixel die beim Demosaicing vor der Zusammenfassung der Pixel bereits „weggeworfen“ wird) ziemlich sicher nicht der optimale. Von daher nehme ich stark an daß die Farbauflö¶ung eines „gebinnten“ Sensors grö¶ßer als 1/2 der Farbauflö¶sung des „rohen“ Sensors ist. Die Luminanzauflö¶sung hingegen landet genau bei der Hälfte denn die fällt mit der Quadratwurzel der zur Berechnung eines Bildpunkts herangezogenen Pixelzahl. Das Thema ist insgesamt aber nicht trivial und bei den obigen theoretischen Betrachtungen sind mit Sicherheit einige Aspekte aus der Praxis unberücksichtigt. Rein rechnerisch aber landen wir bei der Luminanzauflö¶sung bei 2×2-Binning bei der Hälfte bei der Farbauflö¶sung vermutlich bei etwas mehr als der Hälfte. Viele Grüße Peter.“ —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 9:42:39 R.Wagner Peter Eckel schrieb: > Hallo Reinhard, > >> Wenn ich nur zwei rote Pixel zusammenfasse, bin ich bei einem Achtel >> der Auflö¶sung bei einem Gewinn einer ISO-Stufe. > >> Habe ich irgendwo einen Rechenfehler? > > Ja, Das dachte ich mir… 😉 > Das Thema ist insgesamt aber nicht trivial, und bei den obigen > theoretischen Betrachtungen sind mit Sicherheit einige Aspekte aus > der Praxis unberücksichtigt. Rein rechnerisch aber landen wir bei > der Luminanzauflö¶sung bei 2×2-Binning bei der Hälfte, bei der > Farbauflö¶sung vermutlich bei etwas mehr als der Hälfte. Ich gehe mal davon aus, wir sind uns einig, dass ein Pixel-Binning vor der RAW-Ebene (also auf Analog-Ebene) nicht so einfach mö¶glich ist, sondern dass es um ein Binning bei der Erstellung des JPG geht. Es werden also alle Pixel ausgelesen, aber dann bei der Erstellung des fertigen Bildes Rechenvorschriften angewandt, die Mittelwerte aus benachbarten Pixeln bilden. (Und darum ging’s mir. Die Frage war, ob Binning vor oder nach der Bayer-Berechnung stattfindet. Und Vor“ hätte einen dramatischen Auflö¶sungsverlust zur Folge – weil eben im analogen Bereich nicht ein Rotwert mit dem danebenliegenden Grünwert zusammengefasst werden kann. Der Auflö¶sungverlust läge auf jeden Fall in keinem Verhältnis zum erreichbaren Signal/Rausch-Abstand.) Theoretisch müsste das dann doch auch mit einem RAW-Konverter mö¶glich sein. Oder irre mich da? (schon wieder…?) Grüße Reinhard Wagner posted via https://oly-e.de“ —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 10:26:42 Thomas Klüber Hallo Oliver Ge schrieb: > christian schrieb: > >> Als wünschenswertes Feature wird es aber schon seit Jahren >> diskutiert und gefordert (Zusammenfassung von Pixeln?), >> vielleicht habe ich was verpasst. >> > > Gibt es das nicht schon in einigen Kameras? Ich meine, z.B. die Jepp meines Wissen wird um ein Pixel oder Pixelgruppe verkleinerte Pixel angeordnet die zBsp die Lichter abfangen sollen. Diese kann man zusammenschalten. Dadurch sind dann auch physikalisch weniger Pixel verfügbar. Im Einzelmodus werden diese Satelitenpixel als einzelne Pixel geschaltet. Natürlich mit den entsprechende Fehlern. Weil die ja auch deutlich kleiner sind. Grüße Thomas > Fuji F200EXR oder die Pana TZ7 reduzieren die Auflö¶sung, um > rauschfreiere Bilder zu produzieren. > > Richtig ist sicher, je kleiner ein hochauflö¶sendes Bild am > Bildschirm dargestellt oder auf Papier ausgedruckt wird, desto > weniger fällt Rauschen auf bzw. ins Gewicht. > — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 10:26:42 Thomas Klüber Hallo Oliver Ge schrieb: > christian schrieb: > >> Als wünschenswertes Feature wird es aber schon seit Jahren >> diskutiert und gefordert (Zusammenfassung von Pixeln?), >> vielleicht habe ich was verpasst. >> > > Gibt es das nicht schon in einigen Kameras? Ich meine, z.B. die Jepp meines Wissen wird um ein Pixel oder Pixelgruppe verkleinerte Pixel angeordnet die zBsp die Lichter abfangen sollen. Diese kann man zusammenschalten. Dadurch sind dann auch physikalisch weniger Pixel verfügbar. Im Einzelmodus werden diese Satelitenpixel als einzelne Pixel geschaltet. Natürlich mit den entsprechende Fehlern. Weil die ja auch deutlich kleiner sind. Grüße Thomas > Fuji F200EXR oder die Pana TZ7 reduzieren die Auflö¶sung, um > rauschfreiere Bilder zu produzieren. > > Richtig ist sicher, je kleiner ein hochauflö¶sendes Bild am > Bildschirm dargestellt oder auf Papier ausgedruckt wird, desto > weniger fällt Rauschen auf bzw. ins Gewicht. > — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 11:42:45 Peter Eckel Hallo Reinhard, > Ja, aber das Demosaicing ist doch ein Schritt bei der Entwicklung > des Bayer-Patterns. Mithin wird das im Bildprozessor oder im > RAW-Konverter gemacht. ja, klar. > Jau, aber das RAW-File hat diese Information ja noch, da im RAW > ja noch die reinen Luminanzwerte stecken. Auch das ist vollkommen korrekt. > Ja, vö¶llig klar. Aber mir ging’s drum, ob das Binning auf > analoger Ebene, oder auf digitaler Ebene stattfindet. Ah, jetzt, ja! Das meinst Du … Dabei geht natürlich Information verloren, weil ich nicht mehr die vier Einzelwerte der Pixel bekomme, sondern nur noch einen gemittelten Wert über alle vier Pixel ohne die Einzelwerte. Und die sind dann wirklich jeweils über eine grö¶ßere Fläche verteilt als wenn die Pixel einfach doppelt so groß wären. Um genau zu sein, ist die von einem solchen Kombi-Pixel belegte Fläche so 2.25 mal so groß wie bei in der Fläche viermal so großen Einzelpixeln (ohne die inaktiven Teile zwischen den Pixeln jetzt in Betracht zu ziehen). Das entspricht einem Farbauflö¶sungsverlust von einem Faktor 1.5. Weshalb man dieses Verfahren sicherlich auch nicht anwenden wird. > Wenn es auf digitaler Ebene stattfindet, dann macht das der Prozessor. > Auf analoger Ebene der Sensor und die Bilder kommen bereits in > reduzierter Auflö¶sung beim Bildprozessor an. -Und genau das > schließe ich aus. Kann man wohl auch. Es wäre Unfug. > Und nun die Frage aller Fragen: Wo aktiviere ich in RAW Therapee > das Pixel Binning? Im Sourcecode von dcraw, befürchte ich 🙂 Viele Grüße, Peter. —————————————————————————————————————————————— Datum: 01.07.2009 Uhrzeit: 11:42:45 Peter Eckel Hallo Reinhard, > Ja, aber das Demosaicing ist doch ein Schritt bei der Entwicklung > des Bayer-Patterns. Mithin wird das im Bildprozessor oder im > RAW-Konverter gemacht. ja, klar. > Jau, aber das RAW-File hat diese Information ja noch, da im RAW > ja noch die reinen Luminanzwerte stecken. Auch das ist vollkommen korrekt. > Ja, vö¶llig klar. Aber mir ging’s drum, ob das Binning auf > analoger Ebene, oder auf digitaler Ebene stattfindet. Ah, jetzt, ja! Das meinst Du … Dabei geht natürlich Information verloren, weil ich nicht mehr die vier Einzelwerte der Pixel bekomme, sondern nur noch einen gemittelten Wert über alle vier Pixel ohne die Einzelwerte. Und die sind dann wirklich jeweils über eine grö¶ßere Fläche verteilt als wenn die Pixel einfach doppelt so groß wären. Um genau zu sein, ist die von einem solchen Kombi-Pixel belegte Fläche so 2.25 mal so groß wie bei in der Fläche viermal so großen Einzelpixeln (ohne die inaktiven Teile zwischen den Pixeln jetzt in Betracht zu ziehen). Das entspricht einem Farbauflö¶sungsverlust von einem Faktor 1.5. Weshalb man dieses Verfahren sicherlich auch nicht anwenden wird. > Wenn es auf digitaler Ebene stattfindet, dann macht das der Prozessor. > Auf analoger Ebene der Sensor und die Bilder kommen bereits in > reduzierter Auflö¶sung beim Bildprozessor an. -Und genau das > schließe ich aus. Kann man wohl auch. Es wäre Unfug. > Und nun die Frage aller Fragen: Wo aktiviere ich in RAW Therapee > das Pixel Binning? Im Sourcecode von dcraw, befürchte ich 🙂 Viele Grüße, Peter. ——————————————————————————————————————————————