Einige Mutmassungen zum naechsten Profi E-Body

Datum: 03.09.2005 Uhrzeit: 21:15:37 Joern Dierks Ich habe vor kurzem für ein englischsprachiges Forum folgende Ideen gesammelt, zur Diskussion was Olympus zusammen mit Panasonic in seinem nächsten professionellen Gehäuse anstellen kö¶nnte, um die Auflö¶sung/High ISO Rauschabhängigkeit zu optimieren, über Kommentare würde ich mich freuen (sorry ab jetzt alles in schlechten Englisch): The next professional E-System Body, some speculations regarding the next design together with Panasonic: Both actual E-Body´s using CCD sensor solutions from Kodak. The Sensor that the E-1 is using work´s with 6.8×6.8 micrometer pixel size. To compare: The new Leica DMR Digital Back module for R8/R9 Body with 10 mega pixel sensor is using same pixel size with a bigger over all sensor area. The architecture of the sensor is the same that the Olympus cameras use (see reference list of Kodak homepage, follow the path: Business &Government / Image Sensor Solutions / Full frame Sensors / Blue plus color full frame, there you can find there specifications of the sensors. The KAF sensor of the E-1 (not still in the actual list) has the same physical noise level that the sensor of the Leica digital module uses (KAF-10010CE). Now anyone claim’s regarding to high noise especially in high ISO mode’s for Olympus E-System. But the Leica has lower Noise level’s than the E-1 with same sensor quality. Let’s compare: E-1: ISO 100 = 55,1 S/N E-1: ISO 400 = 28,3 S/N Leica R9/DMR: ISO 100 = 61,4 S/N Leica R9/DMR: ISO 400 = 31,7 S/N That mean’s Leica has for a given hardware noise level a better over all noise. Why? 1. The Leica don´t uses a low pass filter I think this improves efficiency as there is no polarising lowpass filter in front of the sensor (your get higher Quantum efficency). Maybe you win 3-6db (factor 2-4) lower noise level, so it look’s if you compare the data. 2. The Leica has a software based moirö© suppression, that mean’s software based low pass filtering (as a part of point 2.). Now it happen’s: When you activate this software moirö© filter, you loose a little bit of resolution (less than 10%), but you improve the noise in a very surprising way: Leica R9/DMR with moirö© filter activated: ISO 100 = 84,6 S/N Leica R9/DMR with moirö© filter activated: ISO 400 = 47,1 S/N That mean’s the Leica solution is now better than any of the highly praised Canon CMOS solutions, including the full frame sensor’s (all Data from same source “Colorfoto” magazine from Germany), Data here for Canon: EOS-1Ds Mark II: ISO 100 = 67,5 S/N EOS-1Ds Mark II: ISO 400 = 36,0 S/N That means full frame KAF sensor solution from Kodak is capable to give much better noise level than Canon Full frame sensor in CMOS Technology (that’s what you have to expect). That is given for the 5 M pixel design, 8 M pixel inside the E-300 are around 3 dB S/N higher in physical noise level. So in my understanding, whatever Canon is doing regarding noise suppression, it is not done by using physically low noise sensors, the do it mainly on the noise reduction side. Here the have the big advantage, that they are able to use hardware noise reduction in there CMOS sensor design (in the primary analogue side of the sensor (the can use hardware based filters network and noise suppression on the transistor level for each pixel of the sensor). I believe Olympus suffers mainly regarding calculation Power in there Camera picture engine’s, as the have to solve all of this noise suppression in the digital software level. If you look to sample pictures (one imaging resource homepage in the review’s of Olympus E-300 and Canon rebel 350D for high ISO (for example ISO 800) you find this result. Look to Canon pictures, you see wonderful smooth pictures with low noise but reduced resolution in the test charts. Look to Olympus pictures an you find higher noise but better resolution, store them on you computer (only bitmap or TIFF!) and apply a good noise reduction software (like neatimage) and you get similar result’s to Canon picture also with this E-300 pictures. And here E-300 is factor 2 worse than the E-1 physical noise levels (+3db S/N). That´s what Olympus suffers, a well build software based noise reduction in there Camera engine (not really a true “TURBO” picture engine I think, but the have very good marketing guy’s I believe). Regarding there auto focus system the have the same problem, not enough calculation power for speed with more auto focus sensor’s with there right approach of to find the optimum focusing point (never loose resolution, you will not get it back really). So what are for the future there Task’s 1. Get much higher calculation Power/speed (for Noise reduction an speed any other processing purpose incl. Auto Focus and White Balance calculation and Sharpening esp. with JPG). That’s for me the one main reason to work together with Panasonic in future. This company has much higher capability in hard- an software development for Camera engine’s 2. Find a Solution to enhance the resolution without enhancing the noise and also not reducing the efficiency of there Zuiko lenses regarding MTF values (MTF goes down fast for sensors with higher pixel densities, as sensitivity of sensor goes down an noise rises, when using more pixels in an given sensor area). This problem decreases fast when the need to get to higher resolutions than 8M pixel for the 4/3 system. If you look to the MTF transfer function of the known Zuiko lenses, and the there capability of transfer enough resolution to the sensor, the border is around 8-12M pixel. Behind this you loose resolution in the edging regions of the sensors also with superior Zuiko lenses like the 7-14mm. If you look to noise (especially high ISO Noise) the 8M pixel Sensor is o.k. but the older 5M pixel is better in high ISO sensitivity and Noise level (Same Problem if you look to Nikon D2x Sensor from Sony, it has also pixel size like E-1, 6.8×6.8 micrometer, here is the border for workable high ISO application’s with one sensor. The Nikon work’s also only up to 800 ISO in normal mode, for 1600/3200 you have to us sensitivity enhanced mode’s where you loose a lot of dynamic range because you underexpose the sensor and than have to correct the picture result by software). That’s the same the 5M pixel KAF sensor of the E-1 does. The E-300 only is capable up to ISO 400 in normal mode (here is the Canon 350D or 20D better works up to ISO 1600 in normal mode) So what Olympus need’s is a solution where the can use there superior optical design approach (small sensor for optimal MTF transfer, low vignetting and low distortion) and this with an sensor solution that has still good physical noise level. There we come to another solution that Panasonic can offer to Olympus: Use not only one sensor, use more of them. If this will work, the can kill a lot of there design problem’s: 1. If you use 2 (better) or 3 (optimal) sensor’s you have higher resolution with a given pixel count an the given sensor area. Panasonic has this optical systems developed for there digicam’s. Maybe this can work with the small 4/3 sensor design in a still camera body to. For 3 sensor’s I am not sure if the have enough optical light length in there system design between the Optic an the sensor. With 2 sensor’s it must work! You loose only your optical viewfinder for this solution, see below. This will (partly for two sensors) work like the Foveon X3 sensor (used in the Sigma SD10), where each pixel is sensitive to all 3 colours. The usable resolution will rise around factor 2 (for 3 sensors) in the luminance area (Black/with contrast) an even more in the colour resolution area, as you need no luminance interpolation as every pixel location in the Sensor area detects green light (and both other colour with 3 sensors) and no colour interpolation (with 2 sensors) ore reduced one in a two sensor system (you may work there with one sensor only green pixels and the other one has Blue 50% an red 50%). 2. You have much lesser problem with moirö©, so it will possible to use only software based low pass filtering. Enhances resolution, reduces Noise (see Leica). 3. You get lower physical noise, as your effective sensor area is doubled or tripled. 4. You can use much more effective colour filter design (as you can apply them to the used prism’s (which you need to divide the light path to the sensors) with multilayer interference filter’s. This enhances you optical efficiency by a factor around two compared to colour filtering in the sensor Design (like the used Bayer Pattern filters as a layer in the sensor chip design). Also better noise level’s are the result. But there is on big change in this design approach, you can not use an optical view finder still. This will be no Single lens reflex Camera with mirrors and Pentaprism viewfinder any more! (But this is, what Olympus still tells us I think: “The next professional Body will use new Principe solution of making a picture”) You will get an system like the know Bridge compact camera’s for example the Olympus 8080. But you can use a high resolution electronic viewfinder AND an swing able Monitor on the Body, both with life picture before you make your picture. For me the better solution, as I can change exposure before making the picture. And I can do photo’s over my head and in low position without laying me down to earth. For that design change, there is the third reason how Panasonic can/must help Olympus: You need now a interline CCD sensor (not a full frame Solution), to get life picture’s (as to integrate an electronic shutter in the CCD), an this in a good (noise) quality and in 4/3 design. This is something, Kodak actually don´t have. So that’s how I believe the next professional E (3?) Body will work. If this design work’s (and Olympus has the resources to handle it), this 4/3 Body can be the best in all solution of all Company’s, a resolution better than full frame 16M pixel Canon, possible noise level also better than Canon an Nikon design’s incl. the full frame sensor of the Canon EOS 5D. This EOS has a pixel size of: 24mm*26mm divided by around 13M pixel, this is around 66 square micrometer, a 8M pixel design in 4/3 three chip design has 5,4*5,4*3 = 87 square micrometer area, that more area and will have lower physical noise. Add to this the better colour filter efficiency and no moirö© filter and you get superior noise behaviour of the 3 Chip design. Also two Chip design will be comparable to the EOS 5D, but I expect not better. And you have still much better resolution with the Zuiko’s together with two sensors, then the full frame solution of the EOS 5D (is there any wide angle optic for this Body that work’s over full frame area ha, ha….?). O.K. Canon has image stabilizer, but this works really only if you don’t make photo’s of things that don’t move itself. And Olympus has to stops more in there optic`s that’s the better solution for me (Works also on E-1 and E-300 still). And you have this incredible practical usable life picture in an professional optical System (for me the one killer argument to buy it). And as a real Joke to anybody’s needs: If you want, you may use this professional still picture Body also as a high end film camera (If you have enough memory cards and Olympus enough calculation power in its engine). Hope the have still enough money to do it in Japan. Maybe the tell it to us soon (only that the have it still, I hope) . — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 9:36:50 Helge Süß Hallo! Ich sehe ein paar Punkte, die mir nicht ganz klar sind: Mehrere Sensoren brauchen einen Strahlenteiler. Es kommt daher weniger Licht auf den einzelnen Sensor. Neben der Frage, wir man das räumlich im Gehäuse unterbringt stellt sich auch das Problem der Ausrichtung der Sensoren gegeneinander. Das kann ganz schö¶n teuer werden. Ein elektronischer Sucher ist für mich (und alle, die präzise fokussieren wollen) ein k.o.-Kriterium. Ich kenne derzeit keinen elektronischen Sucher mit dem man die Schärfe ausreichend beurteilen kann. Da müsste ein Quantensprung in der Technologie erfolgen damit sowas brauchbar ist. Ich glaube nicht dass sowas bald bevorsteht. Das Argument dass man ja einen AF hat zählt nicht. Der AF ist in Grenzsituationen zu oft daneben. Der wirkliche Vorteil einer SLR war immer schon, die Schärfe (und auch Tiefenschärfe) beurteilen zu kö¶nnen. Das aufzugeben halte ich für einen zu gewagten Schritt im Pro-Segment. Dass mit mehr Rechenleistung eventuell eine bessere Bildqualität (trotz hö¶herer Auflö¶sung) rausgeholt werden kann halte ich für sehr wahrscheinlich. Darin sehe ich auch die Chance für ein kommendes Modell im Profibereich. Olympus hat auch schon in der Vergangenheit mit unkonventionellen Lö¶sungen überrascht. So gesehen sind die von dir genannten Überlegungen nicht so unwahrscheinlich. Ich bezweifle allerdings, dass es schon diesen Herbst eine (Profi-)Kamera geben wird, die diese Technologien in brauchbarer Form beinhaltet. Ich denke, da würden erst ein paar mehr Modelle mit prototypisch eingesetzten Lö¶sungen auftauchen bevor man sich damit im oberen Preissegment einer vorsichtig-konservativen Klientel stellt. Helge ;-)=) — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 9:42:15 Peter Maier Sehr interessante Gedankenspiele. Insbesondere die 2- oder 3-Chiptechnik bietet sicher noch viel Potential. Was ich aus dem Text nicht ersehen konnte: Wieso ist dann kein optischer Sucher mehr mö¶glich. Bietet die Sigma SD-10 das denn nicht? Die Qualität eines optischen Suchers ist ja immer noch meilenweit entfernt von einem elektronischen Sucher. Genial wäre natürlich eine Kombination: Optischer Sucher + Klappbarer Monitor mit elektronischem Sucher… 🙂 Schö¶ne Grüße Peter — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 11:35:38 Marius Kö¶nig Peter Maier schrieb: > Sehr interessante Gedankenspiele. Insbesondere die 2- oder > 3-Chiptechnik bietet sicher noch viel Potential. Was ich aus dem > Text nicht ersehen konnte: Wieso ist dann kein optischer Sucher > mehr mö¶glich. Bietet die Sigma SD-10 das denn nicht? Die > Qualität eines optischen Suchers ist ja immer noch meilenweit > entfernt von einem elektronischen Sucher. Genial wäre natürlich > eine Kombination: Optischer Sucher + Klappbarer Monitor mit > elektronischem Sucher… 🙂 > > Schö¶ne Grüße > > Peter > Die Sigma hat den FOVEON-Chip, bei dem die Sensoren für die Primärvalenzen HINTEREINANDER angeordnet sind, und nicht, wie bei allen anderen Digicams mit Bayer-Matrix, orthogonal nebeneinander. Deshalb ist die SIGMA mit der hier vorgestellten Technologie nicht zu vergleichen. Die SIGMA hat EINEN Chip, der hier diskutierte Schmarrn (sorry) zwei oder drei – eine Technologie, die übrigens aus dem Video-Bereich schon seit Jahrzehnten bekannt ist (selbst die allerersten Farbfernsehkamera arbeitete so, allerdings mit Bildrö¶hren statt Chips). Ich halte das hier diskutierte Thema gelinde gesagt für bodenlosen Unsinn. Kein Profi würde eine Kamera mit elektronischem Sucher kaufen, weil: 1. (wie bereits im Thread gesagt) Profis auch präzise manuell fokussieren kö¶nnen wollen und 2. ein elektronischer Sucher (auch der aller-aller-schnellste) immer mit einer minimalen Zeitverzö¶gerung arbeitet. Das bedeutet: Wenn der Fotograf das Motiv im Sucher sieht, ist die reale Szene schon um Millisekunden VORBEI und unwiederbringlich verloren. Für Familienknipser mag dies belanglos sein, für Fotografen ist es wahrhaft ruinö¶s. Sollte Oly tatsächlich so einen Unsinn ernsthaft ins Auge fassen, ist deren Untergang wohl leider vorprogrammiert… Schade… Viele Grüße Marius — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 11:53:03 Dobromil > 2. ein elektronischer Sucher (auch der aller-aller-schnellste) > immer mit einer minimalen Zeitverzö¶gerung arbeitet. Das > bedeutet: Wenn der Fotograf das Motiv im Sucher sieht, ist die > reale Szene schon um Millisekunden VORBEI und unwiederbringlich > verloren. Für Familienknipser mag dies belanglos sein, für > Fotografen ist es wahrhaft ruinö¶s. Jain. Diese Verzoegerung kann bald viel kleiner werden als die Zeit, in welcher der Spiegel hochgeklappt werden kann. Und die manschliche Reaktionszeit is sowieso schon jetzt viel laenger… Dobromil —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 11:58:15 Andy Sorry, Marius, > 2. ein elektronischer Sucher (auch der aller-aller-schnellste) > immer mit einer minimalen Zeitverzö¶gerung arbeitet. Das > bedeutet: Wenn der Fotograf das Motiv im Sucher sieht, ist die > reale Szene schon um Millisekunden VORBEI und unwiederbringlich > verloren. aber das ist als generelle Aussage nicht haltbar! Genausogut kö¶nnte ich behaupten, daß die Zeit, die der Lichtstrahl braucht um durch all die Windungen und Ecken des Prismas (bzw. der Umlenkspiegel) braucht zu einer Zeitverzö¶gerung führt. Die reine Signalverarbeitung ist jedenfalls jetzt schon sehr viel schneller und zuverlässiger als das, was dann hinter der menschlichen Hornhaut passiert. Richtig ist allerdings, daß derzeitige (!!) EVF’s für so manche Anwendung schlicht unzumutbar sind – das betrifft sowohl die fehlende Auflö¶sung als auch die Schlierenbildung“ – das ist wohl —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 13:16:36 Marius Kö¶nig Dobromil schrieb: > Jain. Diese Verzoegerung kann bald viel kleiner werden als die > Zeit, in welcher der Spiegel hochgeklappt werden kann. > Und die manschliche Reaktionszeit is sowieso schon jetzt viel > laenger… > > Dobromil Die mAnschliche (:D) Reaktionszeit und eine kurze (!) Spiegelvorauslö¶sung hat ein geübter Profi im Griff, ein Sportfotograf kann die quasi mit einrechnen“. Aber nicht ein —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 18:46:17 Joern Dierks Hallo Peter, meine Idee war es den Foveon Chip der Sigma SD10 durch mehrere Sensoren zu ersetzen. Der Foveon Sensor hat alle Pixel, die jeweils für alle drei Farben empfindlich sind auf einen Chip. Das ist aber ein CMos im APS Format (etwa) und er hat nur 3x 3M pixel. Das ist auflö¶sungsmäßig bereits weniger als die Olympus E-300 bietet. Wenn man mehrere Sensoren verbaut um die Farben getrennt zu erfassen, muß man das Licht vorher durch einen Spiegel (2 Sensoren) oder ein Gebilde aus mehreren Prismen teilen (3 Sensoren). Dabei wird das Licht auf der Spiegeloberfläche oder den Prismenoberflächen (die dann wie Spiegel wirken) farblich aufgeteilt. Ein Teil geht auf Sensor 1 (z.B. der grüne Anteil) die anderen Teile auf die anderen Sensoren. Das ist es was Panasonic bei seinen Digicam Filmkameras macht. Jezt zur Frage, warum kein Sucher mehr: Es ist meines Erachtens kein Platz mehr dafür, auch nicht bei der 2 Chip Lö¶sung, außerdem vergibt man sich die Mö¶glichkeit des Livebildes auf einen Monitor oder in einen elektronischen Sucher. In jedem Fall würde eine solche Lö¶sung (denkbar wäre nur ein Mehrfachprisma mit drei Lichtaustritten, dann aber nur 2 Sensoren) die meisten Vorteile meiner Idee zunichte machen, da man denn viel Licht verlieren würde (man will ja schließlich im Sucher etwas sehen und das in Farbe, also muß man viel Licht über den kompletten sichtbaren Bereich auskoppeln, dass fehlt dann auf den Sensoren = (Viel) Mehr Rauschen). Joern — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 19:00:32 Joern Dierks Hallo Helge, es kommt zwar weniger Licht auf jeden Sensor, aber wenn man die Strahlteilung über einen vernünftigen Interferenzfilter auf dem jeweiligen Prisma aufteilt, dann bekommt jeder Sensor nur seinen Lichtanteil, also spektral aufgeteilt, rot auf Sensor 1, grün auf Sensor 2 und blau auf Sensor 3. Also bekommt jeder Sensor genauso viel Licht (sprö­cht Photonen der jeweiligen Wellenlängen) wie bei einer Einchip Lö¶sung. Man vergrö¶ßert also sehrwohl die Sensorfläche um den Faktor 3. Im Gegenteil, die Bayerpattern Filterstruktur vernichtet einen erheblichen Anteil an (Quanten)effektivität, dass kann man auch bei Kodak in den Papieren zur Chipentwicklung nachlesen. Ein Kodak Sensor, wie er in den Olympus Body´s verbaut ist, hätte eine Quantenausbeute von fast 85% im grünen und um die 60% im blauen bzw, roten Spektralbereich. Das gilt aber nur für den nackten Chip. Da der Chip mit einer Bayerpattern Filterstruktur versehen werden muß, sinkt die Quantenausbeute auf ca. 30% in allen Spektralbereichen. Das heißt nichts anderes, als das der Filter kräftig Licht schluckt (weil es mit Sicherheit ein Absorptionsfarbfilter ist). Verwendet man Interferenzfilterschichten, egal ob reflektiv oder in Transmission, dann steigt der Wirkungsgrad auf bis zu 95% ohne große Probleme. Also, in Summe: Ich gewinne den Faktor 3 an nutzbarem Licht durch die spektrale Aufteilung auf drei Sensoren und noch einmal einen Faktor von 2-3 durch die andere Filterstruktur. Also anders gesprochen 6-9 mal mehr Licht und damit mehr Empfindlichkeit und weniger Rauschen. Joern — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 19:17:50 Joern Dierks Hallo Andy, Warum soll eine aufteilung bei 2000 oder 3000 Zeilen nicht gelingen? Man muß nur die optischen Wege gleichlang gestalten, dass sollte mit einer Prismenlö¶sung doch wohl mö¶glich sein. Wenn KonicaMinolta in der Zwischenzeit in der Lage ist einen kompletten Chip in zwei Richtungen elektronisch und das zeitaufgelö¶st an die richtige Stelle zu bewegen, dorhin wo der Anwender seine Optik verwackelt hat, dann sollte eine optische Montage von 3 Chip’s auch bei dieser Auflö¶sung mö¶glich sein, wir reden hier nur von ca 5 micrometern, dass ist recht viel. Außerdem muß am gar nicht genau treffen, solange man die Sensoren nicht gegeneinander verdreht. Wenn die Chips nicht genau übereinander justiert sind, dann verliere ich maximal einen halben Pixelabstand Genauigkeit. Den Rest kann ich durch numerische Zuordnung der einzelnen Pixel rausrechnen (das ist statisch und kostet keine Rechenleistung). Ich verliere nur am Rand einige Pixel die keinen Partner mehr finden. Ich denke aber das ist unnö¶tig, weil die Justage mö¶glich sein sollte. Das die elektronischen Sucher noch nicht das Wahre sind, ist richtig, ich habe allerdings hier zu Stand der Technik wenig erfahren kö¶nnen. Man sollte dabei bedenken, dass die meisten bekannten EVF in Conmsumer oder Prosumer Kameras verbaut sind. Hier geht sicher inzwischen technisch deutlich mehr als dort angeboten wird. Jö¶rn — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 19:47:05 Klaus Bagschik Hallo Joern, leider(?) wird das mit dem Strahlteilerprisma nicht klappen. Das E-System bietet zwar hinreichend Platz für ein Prisma (und da es aus Glas sein muss darf die physikalische Länge des Prismas etwa anderthalb [Brechungsindex] mal grö¶ßer sein als der genutzte optische Weg), aber Du wärst mit der Bildqualität der guten Zuikos nicht mehr zufrieden: Ein Strahlteiler der notwendigen Dicke muss zwingend beim optischen Design berücksichtigt werden. Die chromatische Aberration liesse sich evtl. noch durch entsprechende (objektivabhängige!) Skalierung rausrechnen, der sphärischen Aberration ist so allerdings nicht beizukommen. Für die Spiegelvariante sähe es etwas besser aus, sofern der/die Spiegel dünn genug ist/sind. Eine geneigte Glasplatte in einem konvergenten Strahlengang ist ein hervorragendes Rezept für Astigmatismus. Dieser nimmt mit der Dicke der Platte und der ö–ffnung des Lichtkegels zu (je weiter die Blende geö¶ffnet desto stärker). Bei Blende 2 und 5µm Pixeln wären 0.5mm dicke Spiegel wohl schon zu viel. Wenn man der Kamera etwas mehr Rechenleistung mitgibt wäre mein Favorit für eine Erhö¶hung der Empfindlichkeit ein Wechsel der Farbfilter. Rein rechnerisch“ kö¶nnte man einen Faktor zwei —————————————————————————————————————————————— Datum: 05.09.2005 Uhrzeit: 23:02:43 Joern Dierks Hallo Klaus, danke für deine Antwort. Die Firma die schon einmal CMY als Filterkombination verwendet hat, war soweit ich mich erinnere auch Panasonic. Das ist dort aber schnell aufgegeben worden. Zu deinen Einwänden: Chromatische Aberration würde sich meiner Meinung nach nicht so stark auswirken wie bei einer kompletten Abbildung über den gesamten Spektralbereich durch einen Strahlteiler. Innerhalb der 3 Spektralbänder die getrennt benutzt würden, sollte sich der Brechungsindex nicht so stark verändern, das hier Probleme auftauchen. Das müßte doch über die Dicken, ggf. auch den Brechungsindex der Einzelprismen korrigierbar sein. Das Problem mit der sphärischen Abberation wiegt weit schwerer. Sehr wahrscheinlich geht das tatsächlich nur mit Korrekturen in der Optik selber, ich habe hier zuerst einmal auf die Panasonic Lö¶sung geschielt. Allerdings würde mich interessieren, wie Panasonic das in seinen Digicams letztlich gelö¶st hat, die geometrische Auflö¶sung, wenn sie sie den wirklich realisieren, läge hö¶her als bei einem 8M pixel im 4/3 Sensorformat. Die dort eingesetzten CCD’s haben bei einer Grö¶ße von 1/4,7 Zoll eine Pixelzahl von ca. 1M Pixel. Leider gibt Pansonic nicht an, wie die 1/4.7 zoll definiert sind, wenn das aber die echte Diagonale ist, dann ist die Fläche des Chips etwa 15 mal kleiner als der, der in der E-300 verbaut ist. Damit müßte das Pixelabstandmaß sogar kleiner sein als bei der E-300 (1M pixel zu 8M pixel). Meint Du Panasonic hat die Optik hier komplett korrigiert über den gesamten (sehr großen) Zoombereich? Oder liegt der Ansatz auch in dem Design des 3 fach Prisma? Irgendwie müssen die ja sowohl chromatische (s.o.) als auch die sphärische Aberration auskorrigiert haben. Die Schemadarstellung dazu ist auf der Internetseite von Panasonic Deutschland in Technologieteil anzuschauen (ist allerdings nur eine Marketingdarstellung“. Insofern vermute ich auch nur das es —————————————————————————————————————————————— Datum: 06.09.2005 Uhrzeit: 8:15:03 Andy ähm, Joern, verstehe ich das richtig, Du willst die drei Chips übereinander legen….? Also mal langsam, ich bin schon älter, da kommt man nicht so schnell mit. Videobereich: hier liegen die Chips nebeneinander“ und zwar auf —————————————————————————————————————————————— Datum: 06.09.2005 Uhrzeit: 10:18:34 Daniel Cohn Hallo, je eine meiner favorisierten Lö¶sungen wäre auch ein weiterentwickelter Foveon-Sensor. Leider wird nach allen offiziellen Meldungen dieser momentan nicht mehr weiterentwickelt, da er zum einen zu wenig Geld eingebracht hat und zum anderen mit der momentanen Architektur nicht weiter skalierbar ist. Also nach allen aktuellen Informationen bleibt der Traum vom 6 oder mehr Megapixel Foveon ein Traum. Interessant finde ich den Vergleich des KAF-Sensors von Leica und dem der E-1 und dem Software-Moire-Filter. Aber die Zahlen der S/N Ratio sagen leider zu wenig über die endeffektliche Bildqualität aus. Vielleicht ist ja ein weiterentwickelter KAF-Sensor mit entsprechender Software dahinter von Kodak auch Rauschseitig der Weisheit letzter Schluss. Von der Theorie her ist dem ja so 😉 Einen weiteren sehr sinnvollen Ansatz sehe ich in dem Fuji CCD mit den zusaätzlichen kleineren R Pixeln zur Erweiterung der Dynamik. Problematisch sehe ich hier aber, dass dadurch die effektive Pixelfläche der Hauptpixel wieder kleiner wird. Aber der Sensor zeigt bei der Fuji S3 Pro ja durchaus sehr gute Ergebnisse. Die Lö¶sung aus der Videotechnik halte ich aus vielen Gründen, einige davon wurden schon genannt, als nicht sehr sinnvoll und ich kann mir kaum vorstellen, dass etwas in dieser Art kommt. Aber wer weiß… Gruß Daniel — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 06.09.2005 Uhrzeit: 13:13:40 Dobromil Marius Kö¶nig wrote: > Dobromil schrieb: > >> Jain. Diese Verzoegerung kann bald viel kleiner werden als die >> Zeit, in welcher der Spiegel hochgeklappt werden kann. >> Und die manschliche Reaktionszeit is sowieso schon jetzt viel >> laenger… >> >> Dobromil > > Die mAnschliche (:D) Reaktionszeit und eine kurze (!) > Spiegelvorauslö¶sung hat ein geübter Profi im Griff, ein > Sportfotograf kann die quasi mit einrechnen“. Aber nicht ein —————————————————————————————————————————————— Datum: 06.09.2005 Uhrzeit: 19:04:06 Klaus Bagschik Hallo Joern, der longitudinale Anteil der CA ist kein Problem, der lässt sich ganz leicht durch eine Tiefenstaffelung“ der CCDs erreichen. —————————————————————————————————————————————— Datum: 06.09.2005 Uhrzeit: 19:36:48 Klaus Bagschik Hallo Jö¶rn, das funktioniert sogar mit deutlich mehr als 3000 Zeilen und auch mehr als nur drei CCDs: http://www.astro.uni-bonn.de/~ccd/busca/busca.htm Zugegebenermaßen ist die Kamera nicht mehr ganz handlich und für Schnappschüsse eher ungeeignet. Darüberhinaus hat keines der gängigen Kamerasysteme auch nur annähernd die notwendige freie Schnittweite … …. und die Pixel sind vergleichsweise riesig: (15µm)². Grüße, Klaus (B) — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 06.09.2005 Uhrzeit: 20:23:25 Joern Dierks Hallo und danke für die Zusatzinfo´s Klaus. Ich habe NACH deinen Einwänden (du hast ja so recht was die Bildfehler angeht, dass ist schon sehr peinlich, was ich da geschrieben habe), in meinen Restkenntnissen der Strahlungsoptik gekramt und es ergeben sich in der Tat keine sehr hochwertigen Abbildungen ohne Korrektur in der Optik selber. Man (ich) sollte also,wenn man schon kein Experte in Optik ist (ich bin Physikingenieur und war schon im meinem Studium in Strahlenoptik nur mittelmäßig, dass ist auch schon fast 20 Jahre her) doch zumindest sein Schul- und Studienwissen zusammenkratzen, sonst spinnt man von Dingen die nicht gehen… Da die Optiken bei Olympus in den meisten Fällen schon gerechnet, weil verkauft sind, hast du also sicher recht, das eine Korrektur der Prismenfehler nicht gehen wird. Wenn ich mich bei der Abschätzung nicht vö¶llig verrechnet habe, dann würde bereits ein Prisma mit knapp 20mm optischer Weglänge bei einen n von 1,5 alleine über die sphärische Aberration die Abbildung auf ca. 10 pixel im Durchmesser aufweiten (bei angenommener Blende 2, nur mal für achssymmetischen Strahlengang abgeschätzt. Ich habe dabei eine NA von 0,25 angenommen, also ca. +/- 14 Grad, hoffentlich stimmt das wenigstens). Dabei wird die voher angenommene Punktabbildung somit schon auf einen Kreis von ca. 54 micrometer Durchmesser verteilt. Das wäre dann noch eine 80 Kilopixel Kamera!!! Die Lö¶sung mit dem Teilerspiegel geht wohl auch praktisch nicht, hier macht 1mm Dicke unter 45 Grad (wieder mit einen Lichtkegel von +/- 14 Grad beleuchtet) noch grö¶ßere Fehler, einfach über die Definition des Brechungsindex [sin(&)/Sin(ß)= n] und der sich damit ergebenden Winkelabhängigen Parallelverschiebung abgeschätzt, der von dir angesprochene Astigmatismus macht dann wunderschö¶ne Bildfehler. Eine Dicke des Spiegels von 0,02mm wäre wohl gerade noch akzeptabel, aber da wird das Putzen schwierig. Also ziehe ich hiermit meine Idee zurück mehrere Sensoren zu nutzen, der Zug scheint abgefahren, alle die einen elektronischen Sucher nicht wollten, bekommen wohl auch keinen. Aufatmen bitte, ihr habt Glück gehabt, die Optik wird den Schmarren sicher verhindern. Fragt sich nur wie es mit dem Rauschen (bzw. der Konkurrenzfähigkeit hierbei) bei Olympus weitergeht, wenn man noch mehr Auflö¶sung will. Die physikalischen Grenzen, denen sich sich bereits mehr genähert haben als die anderen Konkurrenten, bleiben da ja wohl leider erhalten. Da blicke ich recht sorgenvoll in die Zukunft der 4/3 Welt, solange die Marketing Strategen von Canon und Nikon diese Karte spielen kö¶nnen. Grüße Jö¶rn Klaus Bagschik schrieb: > Hallo Jö¶rn, > > das funktioniert sogar mit deutlich mehr als 3000 Zeilen und auch > mehr als nur drei CCDs: > http://www.astro.uni-bonn.de/~ccd/busca/busca.htm > > Zugegebenermaßen ist die Kamera nicht mehr ganz handlich und für > Schnappschüsse eher ungeeignet. Darüberhinaus hat keines der > gängigen Kamerasysteme auch nur annähernd die notwendige freie > Schnittweite … > …. und die Pixel sind vergleichsweise riesig: (15µm)². > > Grüße, > Klaus (B) > — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 07.09.2005 Uhrzeit: 8:23:41 Andy Hi Joern, von den optischen Fehlern mal abgesehen: > Aber die relative Auflö¶sung, sprich die Pixelgrö¶ße ist kleiner > als bei den Sensoren die Olympus zur Zeit verbaut, da in der > Fläche dieser kleinen Chips auch jeweils ein Megapixel > Photozellen liegt. Somit ist auch die relative Auflö¶sung die > hier erreicht wird ausreichend für das was ich mir gedacht > hatte. es reicht eben nicht – um in der Pixelschlacht“ mithalten zu ——————————————————————————————————————————————