Startseite › Foren › Techtalk › Objektive › HiRES Mode und wo ist die Grenze des Objektives
- Dieses Thema hat 10 Antworten sowie 8 Teilnehmer und wurde zuletzt vor vor 4 Jahren, 8 Monaten von rwadmin aktualisiert.
-
AutorBeiträge
-
-
6. März 2020 um 6:41 Uhr #2320
Hallo,
als langjähriger Olympusbenutzer haben sich diverse Objektive aus FT und aus MFT angesammelt. Einige alte FT Pro 14-54, 70-200 und MFT 300mm sowie das MFT 60mm Makro, FT 35mm Makro und FT 50mm Makro.Für Landschaftsaufnahmen aber auch bei Makros habe ich mir für die Zukunft vorgestellt mit der neuen Kamera auch den HIRES Modus zu benutzen. Die älteren meiner Objektive sind für 12Mpixel Kameras berechnet worden. Bei den 20Mpixel sind die besseren meiner Objektive sicher auch noch OK. Wo sind aber die Grenzen der Objektive, wenn ich im HiRes Modus mit 80Mpixel arbeiten will. Wie weit sind vor allem die alten FT Objektive für derartige Aufgaben noch geeignet oder spielt die Objektivqualität keine Rolle, weil ja sowieso nur lauter 20Mpixel Bilder gemacht werden und der Rest sowieso nur Prozessorarbeit ist. Andererseits frage ich mich, was hilft es, wenn ich den Sensor eine halbe Pixelreihe verschiebe, wenn das Objektiv eine halbe Pixelreihe daneben möglicherweise die gleichen Werte liefert.
Da diese Technik schon seit der EM1 MKII existiert, gibt es vielleicht schon Artikel die meine Frage auflösen, dann bitte einen Link. Es würde mich brennend interessieren, was man hier bei der Objektivwahl zu berücksichtigen ist.Danke
Kurt -
6. März 2020 um 7:46 Uhr #18563
Ist mein Stichwort: für welchen endgültigen Verwendungszweck, wie Grossprint oder Ausschnittsvergrößerung, möchtest du HiRes nutzen?
Um sich nur am Bildschirm in 1:1 an den bis ins Detail scharfen Fotos zu erfreuen, kann man und kann Spaß machen, aber dann müllst du dir nur den Speicher mit den 3 Dateien pro Schuß auf einmal mit 100MB zu.
Und falls Du glaubst, du kannst bei einem a3-Ausdruck sichtbar mehr entdecken, dann wirst Du enttäuscht sein, da Drucker bei 350dpi vieles wieder platt machen. Und kleinere Foto betracht man fast immer aus der Nähe und Großformatige im allgemeinen mit dem doppelten Diagonalabstand. Wenn du da nah ran gehst kannst du ohne Brille die Pixel zählen.
Aber die alten Linsen sind schon sehr gut geeignet! Ich gehe da rein pragmatisch vor, berechne über die erforderliche Druckauflösung die erforderliche Bildgröße in MB und wenn es paßt, gehts los. Ich habe mit dem ft7-14 und dem genialen ft14-35 für 6x8m große. Ausdrucke sehr zufriedenstellend Archtekturaufnahmen erstellt, die nach der manuellen Entzerrung mit 36MB dafür noch sehr gut druckbar waren.Kurt, inwiefern deine älteren ft-Objektive an die Grenzen von Auflösung, Beugung und Verzerrungen kommen, kann ich nicht sagen, da nicht ausprobiert. Die mft-pro sollten keine Probleme machen, das 60makro sollte auch gut gehen. Uber die Auflösungen ist hier und woanders schon viel theoretisch und praktisch diskutiert wurden. Ich empfehle immer, probieren geht über studieren! Eigene Erfahrungen sind goldwert, Wissen gibts im www.
Sicher finden sich hier Linsenkundige, die mehr zur Sensorauflösung im Verhältnis zu den Charts sagen können oder Links zu deiner Frage parat haben. -
6. März 2020 um 17:03 Uhr #18577
Phänomenologisch, NICHT 100%-ig exakt erklärt:
Die Objektive müssen gar nicht höher auflösen beim HighRes!
Unsere guten Zuiko-Objektive haben (fast) alle die nötige Auflösung für einen 20MPix-Sensor.
Blöd nur, dass der 20MPix-Sensor gar nicht 20M RGB-Pixel hat, sondern 10M grüne, 5M rote und 5M blaue (Bayer-Matrix – Tante Wiki fragen!).
Die Objektive beleuchten also 20M Pixel, aus denen eigentlich nur 5M RGB-Signale folgen. Die 20M RGB-Signale werden im RAW interpoliert…
Beim HighRes werden nun durch das „Sensor-Wackeln“ die Bildpunkte nacheinander mit den R-, den G- und den B-Pixeln abgetastet. Und somit gibt es echte 20M RGB-Informationen, die durch Interpolation auf ein 80MPix-Bild hochgerechnet werden können.
Wie gesagt:
Prinzip – nicht technisch 100% exakt!Martin
-
7. März 2020 um 13:05 Uhr #18599
…aber ich finde dein eingestelltes Foto Klasse!
Grüße, Andreas.
-
8. April 2020 um 16:22 Uhr #19481
Ich nutze diesen Modus schon eine Weile, seit Erscheinen der Pen-F, dabei ist mir aufgefallen es ist nicht die Auflösung sondern das Demosaicing, wie die Farben rekonstruiert werden. Natürlich liefern besssere Objektive höher auflösende Ergebnisse, doch viel wichtiger ist in meinen Augen die Farbauflösung, und die funktioniert auch mit weniger „guten“ Objektiven.
Man kann mit wenig Aufwand die RAW und ORI Dateien entwickeln um den Unterschied zu sehen, sieht man den Unterschied nicht kann man sich den Aufwand für die Zukunft sparen.
Das Bild oben ist mit dem Pancake 17/2.8 entstanden und ein etwa 50%
Ausschnitt. -
6. März 2020 um 18:41 Uhr #18583
die durch den HighResShot besser wird. Das sieht man aber nur bei ganz speziellen Motiven. (Die tatsächliche Detailauflösung des RAWS ist ja wirklich 20MP, halt Helligkeitspixel. Nur die Farbe wird „geraten“. )
Was durch die Verschiebung um das halbe Pixel besser wird, ist die Definition des Details. Denn durch die Verschiebung wird aus dem eigentlich vorher pixelförmigen Pixel eine Form. Weil man abgrenzen kann, ob das Detail jetzt nun rechteckig, oder abgerundet ist. Und das sorgt dafür, dass tatsächlich sowas wie eine höhere Auflösung vorhanden ist. Was der HighRes-Shot nicht kann, ist Details sichtbar machen, die mit dem „LowRes“ nicht zu sehen sind. Ein „echter“ 50MP-Sensor mit „echtem“ 50MP- Glas ist da weit überlegen. Oder man macht ein 50MP Pano mit längerer Brennweite. Das ist kein Vergleich. Warum schneidet der HighRes-Shot trotzdem in den Vergleichen immer so gut ab? Weil es eigentlich keine Optiken gibt, die tatsächlich 50MP an einen 50MP -Sensor liefern. Zumindest nicht im Bereich Kleinbild und für bezahlbare Preise. -
8. März 2020 um 20:40 Uhr #18628
Ich glaube, man kann das auch anders sehen.
Das Objektiv macht ja ein analoges Bild, das zu höheren Ortsfrequenzen eine abnehmende Auflösung hat. Der Sensor digitalisiert das analoge Bild des Objektivs. Die typischen Alaising Fehler zeigen, dass die Objektive eine höhere Auflösung haben, als der Sensor zulässt.
Eine theoretische Herangehensweise zum Highresmodus ist folgende:
Es handelt sich um eine Abtastung mit 80 MPix mit nachfolgender Filterung (FIR Filter, der 4 Pixel mittelt; dies weil die Pixel ja größer sind). Der Sensor wird unterm Analogbild um einen halben Pixel jeweils verschoben. Dieser Filter zeigt zwar bei der halben Grenzfrequenz (entspr. der 80 MPix Abtastung) eine Nullstelle, zu höheren Ortsfrequenzen steigt die Amplitude wieder an. Also sollte sich sie Auflösung gegenüber einer 20 Mpix Abtastung erhöhen. Bayer Filter etc. außer Acht gelassen.
Also sollte es schon etwas bringen, wenn die Auflösung der Objektive besser ist.
Grüße,
Peter -
8. April 2020 um 13:15 Uhr #19476
Ich sehe das ganz genau so. Der HiRes Modus generiert auch tatsächlich eine höhere Detailauflösung und stellt dadurch höhere Anforderung an das Auflösungsvermögen der Objektive. Es ist eben keine einfache Interpolation. Das lässt sich auch einfach überprüfen, da die Unterschiede zwischen mittelmäßigen Objektiven und Spitzenobjektiven im HiRes Modus ganz eklatant ausfallen. So macht zum Beispiel der HiRes Modus mit einem 14-150 keinen Sinn, mit einem 1.2/45 auf F2.0 abgeblendet sehr wohl ….
-
8. April 2020 um 15:47 Uhr #19478
Der HighRes-Modus stellt KEINE höheren Anforderungen an die Objektive. Da hilft weder allgemein behauptete „das lässt sich einfach überprüfen“ noch speziell behauptet, es würde mit 80MP abgetastet. Das wird es nicht. Sondern mit 20MP.
Der Rest ist eine höchst komplexe Rechnerei unter Berücksichtigung von Geisterbildern, Moire-Effekten und Schärfungs-Algorithmen. Das hat mit einer direkten Umwandlung eines analogen Bildes in ein digitales Bild nichts zu tun.Dass gute Objektive technisch bessere Bilder machen als schlechtere Objektive ist ne Binse – da braucht man kein HighRes dazu.
-
8. April 2020 um 19:16 Uhr #19485
Ich schlage vor, dass wir Olympus in Japan direkt um eine Erklärung bitten … oder gibt es dazu schon eine „offizielle“ Erläuterung? Bewirkt der HiRes-Modus eine höhere Detailauflösung als als der „normale“ Modus und wie sieht es mit den optischen Anforderungen an die Objektive aus …. ?
Dann wäre die Frage doch geklärt.In der Zwischenzeit würde ich gerne darauf verweisen:
https://www.wrotniak.net/photo/m43/em1.2-hires.htmlIch finde die Beispiele sehr eindeutig und die Erklärung, welche Auswirkungen das auf die Auflösung hat, ziemlich nachvollziehbar.
-
8. April 2020 um 19:33 Uhr #19486
…. Wrotniak. Supi. Ich habe aufgehört, als er die Story aufgewärmt hat, dass der 24MP-Sensor in Wirklichkeit ein 8MP-Sensor ist, der nur per „Upsamling“ aufgeblasen ist. Das ist einfach Blödsinn. Forenunfug. Tausendmal wiederlegt. Genauso wie der Unfug, dass der HighRes-Shot 80MP-Optiken braucht. Und ja, ich habe Olympus gefragt. Und nein, der HighRes-Shot braucht das nicht. Und den Rest habe ich bei PEN-AND-TELL gezeigt und das kann jeder selbst ausprobieren, so er ein zweifach-Zoom sein eigen nennt.
Wrotniak zeigt, was der HighRes-Shot macht: Er definiert vorhandene Details besser. Wenn die Optik mehr Details liefert, können die auch besser definiert werden. Was der HighResShot nicht macht, ist Details zu liefern, die der normale Shot nicht zeigt. Das geht auch nicht, weil ja nie mehr als 20MP abgebildet werden. Zu keinem Zeitpunkt. Mehr Details bekommt man nur mit mehr Brennweite oder tatsächlich mehr Pixeln auf dem Sensor.
Ich habe auch schon gezeigt, wie das aussieht.
Ergänzung:ich werde jetzt Leute, die anderer Leute Threads kapern um sinnlose Diskussionen vom Zaun zu brechen ohne selber Bilder einstellen zu müssen, in Zukunft löschen.
Du kannst gerne in anderen Foren rumtheoretisieren und Bullshit verbreiten.
Aber nicht hier.
-
-
AutorBeiträge
- Du musst eingeloggt sein, um hier zu antworten.