PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kamera defekt oder CA oder techn. Grenzen?



lemonice
07.11.2005, 10:04
Hallo,
ich habe bei meiner neuen Kamera teilweise lila/blaue Farbsäume oder finde die Bilder etwas lila/blau stichig.

Ganz deutlich erkennbar beim Objektiv EF 85 f1.2 bei offener Blende beim Porsche Schriftzug oder den Rückleuchten:

http://www.pbase.com/lemonbase/image/50430148

http://www.pbase.com/lemonbase/image/51906501


Aber auch hier mit dem EF 24-105 Objektiv.
http://www.pbase.com/lemonbase/image/51651982

Beim EF85 f1.2 ab Blende 2.2 läßt der Farbsaum nach und ab Blende 5.6 ist er so gut wie verschwunden.

Ist die Kamera defekt oder handelt es sich gerade bei der Porsche Aufnahme um Chromatische Abberration? Per Software habe ich die Störungen allerdings nicht weg bekommen.

Freue mich über jeden Tipp.

Johannes.

WEB: www.lemonice.de (http://www.lemonice.de)

Thomas Bergbold
07.11.2005, 11:55
Hallo Johannes,

ich kann auf Deinen Bildern keinen ausgergewönlichen Farbsaum erkennen.
Wenn Du an Deinem Porsche die Chromleisten meinst, da spiegelt sich der Himmelsblau und das Blattgrün drinn.

Gruß Thomas

Micha67
07.11.2005, 12:56
Beim EF85 f1.2 ab Blende 2.2 läßt der Farbsaum nach und ab Blende 5.6 ist er so gut wie verschwunden.

Ist die Kamera defekt oder handelt es sich gerade bei der Porsche Aufnahme um Chromatische Abberration? Per Software habe ich die Störungen allerdings nicht weg bekommen.

Das Folgende mag etwas Technik-lastig erscheinen, ist aber leider die ungeschminkte Wahrheit:

Es ist kein Defekt, sondern die lila Farbsäume (Google fördert extrem viele Infos hervor unter "purple fringing") entstehen durch einen ungünstigen Strahlengang zwischen riesigem Rückelement und dem Sensor. Bei den extrem hoch geöffneten Konstruktionen (85/1.2 und 50/1.0) kommt es dabei zu einem zu großen Öffnungswinkel des am Sensor eintreffenden Strahlenbüschels, also einem Phänomen, welches auch bei der Nutzung von Superweitwinkel an Digitalsensoren zum Problem werden kann. Durch die Mikrolinsen, die auf eine definierte numerische Apertur hin optimiert sind, kann das noch schräger eintreffende Licht nicht mehr regulär in die lichtempfindliche Schicht des Sensors geführt werden. Das Licht gelangt dann per Streuung, Reflexion, etc. in Nachbarpixel, die dann die andere Farbkodierung bedingen. Technisch ist dieser Vorgang leider fest durch das Mikrolinsendesign und die extrem hohe Öffnung des verwendeten Objektivs bedingt, und kann demzufolge nicht durch den User verhindert werden. Es ist auch kein Abbildungsfehler des 85/1.2 (gleiches sieht man übrigens auch beim 85/1.8 bei Offenblende), da an Analogmaterial das Phänomen nicht auftritt.

Das Positive daran: das hier stattfindende "purple fringing" (nicht zu verwechseln mit dem etwas anders bedingten Sensor-"blooming"!) tritt nur an überstrahlten Kanten auf. Es lässt sich also halbwegs sicher vorhersagen, ob ein Motiv dafür anfällig ist (Metallreflexe, dünne Zweige vor hellem Himmel, ...) oder nicht (geringere Bildkontraste, weiche Beleuchtung). Als Lösungsmöglichkeit gibt es nur mittelprächtig intelligente Farb-Desaturierungsalgorithmen, die im Umkreis von Überstrahlungen zumindest den blauvioletten Farbton herausholen können. Ansonsten hilft leider nur das Abblenden bis zum Erreichen einer guten Abstimmung zwischen Sensor-seitigem Strahlengang und Mikrolinsen-Apertur.

Henry (15)
07.11.2005, 13:14
Hallo

Ich habe mal Tante Google gefragt (Danke Mischa)
http://www.digicam-experts.de/wissen/farbsaeume.shtml


Schön beschrieben wenn es auch keine Abhilfe schafft so versteht man wenigstens
die meisten Fehler.

Gruß Henry

Micha67
07.11.2005, 13:17
Hallo

Ich habe mal Tante Google gefragt (Danke Mischa)
http://www.digicam-experts.de/wissen/farbsaeume.shtml

Jawoll, endlich mal eine linkbare Info-Quelle, die diese Phänomene klar auseinanderhält und sie dennoch allgemeinverständlich erklärt. Über Farbsäume war ja in der Vergangenheit extrem viel - und leider auch extrem viel Quatsch - zu lesen.

lemonice
07.11.2005, 21:12
Danke für die guten Infos, vor allem auch Micha67 für den umfangreichen Beitrag.

Ich habe jetzt eine schöne Photoshop Hilfe (Aktions-Set) gefunden die mir die "purple fringe" aus den Bildern gut entfernt: http://www.shaystephens.com/ca-ps.asp

Hat sehr gut bei meinen Bildern funktionert!

Johannes:

WEB: www.lemonice.de (http://www.lemonice.de)

Henry (15)
07.11.2005, 21:50
Jawoll, endlich mal eine linkbare Info-Quelle, die diese Phänomene klar auseinanderhält und sie dennoch allgemeinverständlich erklärt. Über Farbsäume war ja in der Vergangenheit extrem viel - und leider auch extrem viel Quatsch - zu lesen.

Diesen Fehler kannte ich auch und konnte ihn nicht so richtig zuordnen weil
er analog nicht vorkam. (Da hätte man doch endlich was wo man con-digital
argumentieren könnte. Ne is´ n´ Scherz.) Aber man sieht das es noch viel
zu entwickeln und zu verbessern gibt, denn das sieht man schon beim Ausdruck
auf A4. Fest stand aber für mich, dass es das Objektiv und die Kamera verursacht.
Mein altes 28 - 105 f(hab ich vergessen) war da einfach grausam an der 10D.
Und das war analog meine beliebteste Linse.

Gruß Henry

Micha67
07.11.2005, 22:00
Über Farbsäume war ja in der Vergangenheit extrem viel - und leider auch extrem viel Quatsch - zu lesen.

... und selbst in dem genannten Link ist die Begründung immer noch Quasch. Licht, was vom Sensor zum Objektiv zurückgespiegelt wird, würde bei einer nochmaligen Reflexion im Objektiv nie und nimmer genau wieder an nahezu der gleichen Position am Sensor zurückkommen, sondern punktsymmetrisch um das Bildzentrum gespiegelt erscheinen. Das "herumvagabundierende Licht" vagabundiert beim "purple fringing" nur in der lokalen Umgebung des Sensors bzw. seiner vorgelagerten Komponenten herum.

Es handelt sich hierbei definitiv nicht um einen Abbildungsfehler des Objektivs, sondern um eine Inkompatibilität aus dem Strahlengang des Objektivs an der Sensoroberfläche. Aus dem selben Grund haben wir auch noch keine digital arbeitende Vollformat-Meßsucherkamera. Heutige Sensoren/Mikrolinsen vertragen halt (im Gegensatz zu Analogfilm) nur max. ca. 25-30° Abweichung einfallender Lichtstrahlen von der optischen Achse.

Henry (15)
07.11.2005, 22:25
Es handelt sich hierbei definitiv nicht um einen Abbildungsfehler des Objektivs, sondern um eine Inkompatibilität aus dem Strahlengang des Objektivs an der Sensoroberfläche.

Da kommt mir eine Idee. Ich mach mal ein par Testaufnahmen mit einem Polfilter.
Weiterhin könnte man das ganze Spektrum mal einzeln untersuchen.
Versuch macht kluch.... nur zum fotografieren kommt man nicht mehr. :rolleyes:

Gruß Henry

Klaus Mosch
07.11.2005, 23:32
..zu Reden finde ich etwas übertrieben.
Früher habe ich mir auch nicht von jedem Bild
ein 60x80 Poster belichten lassen.
Das ist heute per Mausklick sehr bequem.

Selbst der beste Leitz Diaprojektor erzeugte
noch mehr CA's als in der Originalaufnahme
vorhanden waren.
Gestört hat das keinen...

Das Bild von der Feuerleiter finde ich übrigens
recht gelungen.
Der Porsche gibt mir nicht viel...


Gruß

Klaus

Micha67
08.11.2005, 01:47
Da kommt mir eine Idee. Ich mach mal ein par Testaufnahmen mit einem Polfilter.
Weiterhin könnte man das ganze Spektrum mal einzeln untersuchen.
Versuch macht kluch.... nur zum fotografieren kommt man nicht mehr.Lass doch einfach solche Anspielungen weg, ansonsten fehlt mir auch irgendwann die Lust, hoffentlich Hilfreiches zu posten. Hast Du einmal etwas Grundverstand in Optik und Digitalsensoren, dann brauchst Du solche Testreihen nicht mehr, sondern die Dinge erklären sich quasi von selbst. Indem man also hier vernünftige und physikalisch möglichst fundierte Antworten erhält, werden mehr oder weniger sinnhafte Testreihen sogar eher unnötig und damit verhindert statt gefördert. Wenn ich nun mal beruflich mich mit solchen Dingen auseinandersetzen muss, dann kann ich mich bis zu einem gewissen Grad nicht gegen die Ansammlung von Optik-Kenntnissen verweigern. Dass ich Euch/Dich damit belästige, bitte ich zu entschuldigen.

Tut mir leid, aber Abstempel-Touren à-la "der ist ja nur Tester" finde ich nun mal kontraproduktiv. Nimm Deinen Positiv-Anteil aus dem Thread mit, aber verschone mich bitte mit Deiner Ironie.

Bin etwas angesäuert, sonst aber (hoffe ich) ein friedlicher und netter Zeitgenosse.

Micha67
08.11.2005, 01:57
Lass doch einfach solche Anspielungen weg, ....
... oder sollte ich da etwas völlig in den falschen Hals bekommen haben?

War ein stressiger Tag und ich hau´ mich mal lieber auf die Matratze. Gut´s Nächtle!

Rüdiger Bartz
08.11.2005, 02:49
Im "Christopherus" habe ich nie solche Fotos gesehen noch sind da derartig beschriebene Bildfehler aufgefallen. In der abstrakten Physik gibt eine Wormstheorie die bei geeigneter Größe Zeitreisen in jede Richtung zulassen. Wenn ich mir die populäre Autophotograpie von (früher) D. Henneka oder heute R. Staud ansehe, scheint die Digitalfotorafie mit all ihren Macken so im Bereich der Lochkameras zu liegen.

Gruß Rue

Henry (15)
08.11.2005, 03:13
... oder sollte ich da etwas völlig in den falschen Hals bekommen haben?

War ein stressiger Tag und ich hau´ mich mal lieber auf die Matratze. Gut´s Nächtle!

Keine Ahnung was Du verstanden hast *Schulternzuck* ich habe mir Gedanken
gemacht warum vorwiegend nur der blaue kurzwellige Anteil vom Licht wiedergegeben
wird. Mit Deiner Feststellung, dass es sich nicht um Reflektionen wie
im Artikel beschrieben handeln kann brachte mich darauf. Es könnte ja mit der Wellenlänge
des Lichtes zusammenhängen oder mit dessen Polarität.
Ich habe so um die 50 von 200 Netseiten durchsucht überall ist es be- und umschrieben nie definiert
und wenn dann wirklich falsch.
Die einzigste Definition war in dem Link und die ist, da bin ich Deiner Meinung,
falsch weil sich die Strahlen nicht reflektiert von der Linse da treffen können und
somit genau versetzt zurückkehren. Wenn ich Dich richtig verstanden habe.
Ein Polfilter sollte, wenn meine Vermutung stimmt das Phänomen verändern.
Kann mich irren. Meine nächste Vermutung (ich hoffe ich darf sie Äußern)
ist die Oberflächenvergütung die dabei eine wesentlicher Rolle spielt.
Deswegen wollte ich es testen. Um Sicher zu gehen habe ich noch mal etliche
relevante Dias groß angeschaut und diesen Effekt nicht gefunden der eindeutig
digital das Bild fast unbrauchbar machte bei gleicher verwendeter Linse. Auch habe ich
mir verschiedene Fotos meiner digitalen Sammlung angeschaut weil da verschiedene
Geräte und Optiken zum Einsatz gekommen sind und wie sie sich bezüglich dieses
Phänomens gezeigt haben. mitunter etwas langwelliger. Es war selbst zu sehen das sogar
überstrahlte Schatten diese Phänomen in sich hatten als Farbrauschen.
Untersuchen wolle ich auch mal in einem Versuchsaufbau was geschieht wenn einfarbiges Licht
durch das Objektiv trifft ob dann auch diese blauen Umrandungen entstehen im Kontrastbereich. (sollten ja eigendlich nicht).
Spannend ist für mich warum es die Hersteller nicht in den Griff bekommen
selbst bei angepassten abgestimmten Festobjektiven.
Ich frag mich wo machen sie den Kopromiss? Es kann nicht nur der Preis sein.
Na mal sehen was Du ausgeschlafen zu meine Äußerungen schreibst.
Ich will nur meinen, dass ich mich auch schon lange als Hobby
mit dem Licht beschäftige somit komme ich eben zum Testen oder zum Fotografieren.
Beides kann für mich spannend sein. Frei nach Heisenberg alles beobachtete ist unscharf. Vielleicht auch das hier.

Gruß Henry

Olav
08.11.2005, 04:46
Ich habe jetzt eine schöne Photoshop Hilfe (Aktions-Set) gefunden die mir die "purple fringe" aus den Bildern gut entfernt: http://www.shaystephens.com/ca-ps.aspLeider ein kommerzielles Produkt und 10$ für eine Photoshopaktion zu verlangen ist dreist - so etwas unterstütze ich nicht!

Micha67
08.11.2005, 15:09
Keine Ahnung was Du verstanden hast *Schulternzuck* ich habe mir Gedanken gemacht warum vorwiegend nur der blaue kurzwellige Anteil vom Licht wiedergegeben wird. Mit Deiner Feststellung, dass es sich nicht um Reflektionen wie im Artikel beschrieben handeln kann brachte mich darauf. Es könnte ja mit der Wellenlänge des Lichtes zusammenhängen oder mit dessen Polarität.
Sorry, ich hatte wirklich mißverstanden. Gelegentlich bekomme ich auf physikalische Erklärungen Kommentare, die in die Richtung gehen, dass man doch lieber fotografieren solle, statt sich über technische Zusammenhänge einen Kopf zu machen. Eine solche Nuance hatte ich mißverständlicherweise in Deienr Antwort gewähnt. Kurz darauf fiel mir die Möglichkeit meines Mißverstehens selbst auf und ich habe noch den kurzen Nachtrag gepostet.
Tut mir leid um die Verwirrung, die ich angestiftet haben mag und bitte um Entschuldigung.

[/QUOTE]Ich habe so um die 50 von 200 Netseiten durchsucht überall ist es be- und umschrieben nie definiert und wenn dann wirklich falsch. Die einzigste Definition war in dem Link und die ist, da bin ich Deiner Meinung, falsch weil sich die Strahlen nicht reflektiert von der Linse da treffen können und
somit genau versetzt zurückkehren. Wenn ich Dich richtig verstanden habe.
Ein Polfilter sollte, wenn meine Vermutung stimmt das Phänomen verändern.
Kann mich irren. Meine nächste Vermutung (ich hoffe ich darf sie Äußern)
ist die Oberflächenvergütung die dabei eine wesentlicher Rolle spielt.
Deswegen wollte ich es testen. Um Sicher zu gehen habe ich noch mal etliche
relevante Dias groß angeschaut und diesen Effekt nicht gefunden der eindeutig digital das Bild fast unbrauchbar machte bei gleicher verwendeter Linse. Auch habe ich mir verschiedene Fotos meiner digitalen Sammlung angeschaut weil da verschiedene Geräte und Optiken zum Einsatz gekommen sind und wie sie sich bezüglich dieses Phänomens gezeigt haben. mitunter etwas langwelliger. Es war selbst zu sehen das sogar überstrahlte Schatten diese Phänomen in sich hatten als Farbrauschen. Untersuchen wolle ich auch mal in einem Versuchsaufbau was geschieht wenn einfarbiges Licht durch das Objektiv trifft ob dann auch diese blauen Umrandungen entstehen im Kontrastbereich. (sollten ja eigendlich nicht).
Spannend ist für mich warum es die Hersteller nicht in den Griff bekommen
selbst bei angepassten abgestimmten Festobjektiven.
Ich frag mich wo machen sie den Kopromiss? Es kann nicht nur der Preis sein.
Na mal sehen was Du ausgeschlafen zu meine Äußerungen schreibst.
Ich will nur meinen, dass ich mich auch schon lange als Hobby
mit dem Licht beschäftige somit komme ich eben zum Testen oder zum Fotografieren.[/QUOTE]
Hmm, gute Anregungen. Insbesondere der Vorschlag, mit einfarbigem Licht zu überprüfen, ob die Farbgebung der Säume tatsächlich von einer Ungleich-Behandlung verschiedener Wellenlängen herrührt, oder ob z.B. das querschiessende Licht sogar unterhalb des Farbrasters in die Nachbarpixel eindringen kann. Diese Idee fände ich ganz interessant, da sie die immer gleiche Färbung dieser purple-fringing-Säume leicht erklären könnte: Licht dringt in Nachbarpixel ein, wobei die geringere Quantenausbeute der Rot- und Blau-Pixel bedingt, dass diese Grundfarben beim Demosaic-Rechnen überbetont werden (müssen), und den Säumen dadurch ihre typische Farbe verleiht.

Ob ein Polfilter einen Einfluß hat oder nicht, kann ich derzeit nicht sagen, ich verstehe aber auch nicht ganz, welche Schlußfolgerungen man aus einer Empfindlichkeit bzw. Unempfindlichkeit gegenüber einer Polarisationsrichtung ziehen könnte. Meinst Du dass evtl. das Antialiasing-Filter damit geprüft werden kann? In diesem Punkt (Funktionsweise des AA-Filters und Einfluss einer Polarisation) bin ich leider nicht ganz firm.

Olav
08.11.2005, 20:01
Ich habe jetzt eine schöne Photoshop Hilfe (Aktions-Set) gefunden die mir die "purple fringe" aus den Bildern gut entfernt: http://www.shaystephens.com/ca-ps.aspLeider ein kommerzielles Produkt und 10$ für eine Photoshopaktion zu verlangen ist dreist - so etwas unterstütze ich nicht!Ich hab's nun gefunden ... (war nicht leicht zu finden)

Die Aktion Purple_Fringe_Reducer.atn ist sowas von lächerlich, da könnte ich für meine Aktionen 50$ verlangen, die Ergebnisse sind auch eher bescheiden, also mir wäre es peinlich für sowas 10$ zu verlangen.

Also die super Aktion macht folgendes:

Hintergrundebene kopieren
Die Kopie weichzeichnen mit 200 Pixel
den EbenenModus der Kopie auf "Farbe" stellen
Verdergrundfarbe auf #953e9d setzen
Die Kopie ausblenden
Die Hintergrundebene auswählen
Auswahl: Farbbereich... nur 130 bei Toleranz einstellen und OK
Auswahl um 2 Pixel erweitern
und dann weiche Auswahlkante auch nochmal 2 Pixel
die Kopie auswählen
Ebene Maske hinzufügen
und nochmal die Kopie kopieren (doppelter Effekt)

zum Schluß auf die Hintergrundebene reduzieren
Das ist jetzt die optimierte Variante von mir
dafür 10$ zu verlangen - ich weiss nicht

Subjektiv
14.11.2005, 22:24
...
Es handelt sich hierbei definitiv nicht um einen Abbildungsfehler des Objektivs, sondern um eine Inkompatibilität aus dem Strahlengang des Objektivs an der Sensoroberfläche.
Das ist 100% richtig. So ist es auch erklärlich, dass das selbe Objektiv am Film keine PFs hat und am Sensor schreckliche Säume produziert. Bei alten Objektiven aus der Analogzeit ist das verständlich. Man muss aber sagen, dass Objektive, welche angeblich "für Digital" konstruiert sind, diese Fehler nicht haben sollten - sie sollten doch kompatibel sein! Dass es technisch möglich ist, zeigen die Unterschiede bei verschiedenen Modellen gleicher Brennweiten.
Gruß, Christian

Micha67
15.11.2005, 01:15
Das ist 100% richtig. So ist es auch erklärlich, dass das selbe Objektiv am Film keine PFs hat und am Sensor schreckliche Säume produziert. Bei alten Objektiven aus der Analogzeit ist das verständlich. Man muss aber sagen, dass Objektive, welche angeblich "für Digital" konstruiert sind, diese Fehler nicht haben sollten - sie sollten doch kompatibel sein! Dass es technisch möglich ist, zeigen die Unterschiede bei verschiedenen Modellen gleicher Brennweiten.
Gruß, Christian
Bei den extrem hochgeöffneten (f/1.0-f/1.4) und relativ kurzbrennweitigen Optiken ist es in der Tat kaum möglich, eine perfekte Digitaloptimierung zu betreiben. Selbst bei den moderater geöffneten Konstruktionen ist eine Rechnung, die die Austrittspupille noch weiter vom Sensor wegbewegt, nur unter anderweitigen Kompromissen möglich.

Ich denke auch, dass die Chip- und Kamerahersteller derzeit eher noch Lösungen am Sensor suchen und daher die Objektivpalette (v.a. Festbrennweiten) erst dann kostspielig rearrangieren, wenn die Sensortechnologie eine gewisse Entwicklungsreife überschritten hat und weitere Quantensprünge einfach nicht mehr in mittelfristigem Zeithorizont zu erwarten sind.

Ein wirklich gutes Bild stirbt aber auch nicht an Farbsäumen.

Nightshot
17.11.2005, 18:28
Ich muss mich jetzt erstmal als Micha67 Fan outen. Wenn ich wenig Zeit habe, dann lese ich einfach nur deine Beiträge quer und habe wieder was gelernt und neue Anregungen gefunden. Mit dem purple finging Problem verfolge ich aber eine andere Meinung. In meinen Augen ist das immer noch ein Problem der Optik und nichts anderes als longitudinale CA. (Für Quereinsteiger hier wird CA super erklärt: http://www.vanwalree.com/optics/chromatic.html )

Ich möchte an eine etwas über ein Jahr alte Diskussion auf dpreview erinnern, in der du auch schon mal das Thema diskutiert hast: http://forums.dpreview.com/forums/read.asp?forum=1029&message=9996152
Die Tatsache, dass sich der Farbring von blau-lila nach grün-gelb ändern kann, je nachdem ob sich das Objekt vor oder hinder der Fokusebene befindet ist in meinen Augen ein deutlicher Hinweis. Gut, der Winkel der Lichtstrahlen die auf den Sensor treffen ändern sich dadurch auch leicht, aber ist diese Variation nicht zu klein für diesen Effekt? Durch Abblenden verringert sich LCA (im Gegensatz zur TCA) ebenso wie die purple fringes. Hat schon mal jemand purple finges an einem Spiegelobjektiv gesehen. Hier könnte man direkt vergleichen, da das ja frei von CA sein muss.
Der Farbring, den wir immer sehen ist doch auch meist zweifarbig. Innen ist er lila (rot+blau) und weiter außen ist er nur noch blau (bei meinem 50/1,4 ist das so). Das zeigt doch, dass die blauen Lichtstrahlen einfach weiter defokussiert sind als das rote Spektrum und das Grüne passt. Das ist in meinen Augen nun kein Verdienst der Optik, sondern ist dem IR Sperrfilter zu verdanken. Der absorbiert nicht nur IR, sondern auch noch eine gehörige Portion vom sichtbaren roten Bereich. Daher jammern auch alle Astrofotografen über die schlechte Empfindklichkeit für H_alpha. Die langen roten Wellenlängen kommen also gar nicht bis zum Sensor durch und das lässt den Streukreis für rot wieder kleiner werden. Blau wird bis ins nahe UV nicht eigens gefiltert und schlägt daher voll zu. Dies ist doch auch der Hauptunterschied zwischen der Sigma SD 9 und SD 10. Die 9er hatte mit purple Finges ein riesen Problem, die SD 10 nicht mehr. Was wurde geändert? Der IR Sperrfilter absorbiert nun nicht nur IR, sondern auch blau bis etwa 420nm. Das können wir mit einem Tiffen Haze 2A (filtert zumindest bis 410nm) Filter vor den Canon Objekiven nachbauen. Ich hab leider keinen und so leicht bekommt man den auch nicht, von daher also noch nicht getestet. Natürlich steht jetzt immer noch die Frage im Raum, warum wir das auf Film nicht so sehen? Kann es sein, dass Film bei 400nm einfach keine große Empfindlichkeit hat? Ich hab leider keine Empfindlichkeitskurven für Filme.

Ich vermute jetzt mal, wir sind beide Physiker? Sollten wir nicht das Naheliegende nehmen und nicht erst vagabundierende Lichtstrahlen erfinden? Bei den kleinen Knipskisten haben die Pixel gerade mal eine Größe von 2 Mikrometern. Das ist nur viermal die Wellenlänge. Die womöglich lichtführenden Strukturen sind noch kleiner. In dem Bereich verlassen wir langsam die "normale" Strahlenoptik und müssen größere Geschütze auffahren. Das werden richtig gemeine Rechnungen.

Nebenbei, ich hab da noch eine Frage zum Sensor, kannst du da weiter helfen?
http://www.digitale-slr.net/showthread.php?t=462117

Servus Rainer

Micha67
17.11.2005, 21:07
Ich muss mich jetzt erstmal als Micha67 Fan outen. Wenn ich wenig Zeit habe, dann lese ich einfach nur deine Beiträge quer und habe wieder was gelernt und neue Anregungen gefunden.
Danke für die Blumen, aber das dicke Ende kommt ja noch ... ;) :D


Mit dem purple finging Problem verfolge ich aber eine andere Meinung. In meinen Augen ist das immer noch ein Problem der Optik und nichts anderes als longitudinale CA.
Die Tatsache, dass sich der Farbring von blau-lila nach grün-gelb ändern kann, je nachdem ob sich das Objekt vor oder hinder der Fokusebene befindet ist in meinen Augen ein deutlicher Hinweis.
Nicht nur ein deutlicher Hinweis, es wäre quasi ein Beweis für LCA (longitudinale CA, häufig als Farbrestfehler bei Teleobjektiven einfacherer Bauart). Wenn Die Farbe eines Saumes beim Durchpendeln durch die Fokusebene jeweils in die Komplementärfarbe umschlägt, dann handelt es sich mit an Sicherheit grenzender Wahrscheinlichkeit um eine LCA.


Gut, der Winkel der Lichtstrahlen die auf den Sensor treffen ändern sich dadurch auch leicht, aber ist diese Variation nicht zu klein für diesen Effekt?Würde ich auch so sehen.

Durch Abblenden verringert sich LCA (im Gegensatz zur TCA) ebenso wie die purple fringes. Hat schon mal jemand purple finges an einem Spiegelobjektiv gesehen. Hier könnte man direkt vergleichen, da das ja frei von CA sein muss.[QUOTE]
Spiegelobjektive haben 1. typischerweise eine sehr lange Brennweite und 2. keine hohe Anfangsöffnung. Ergo werden die Lichtstrahlen fast perfekt senkrecht am Sensor auftreffen. Damit wäre also auch gleichzeitig ein purple fringing vermieden.
[QUOTE]Der Farbring, den wir immer sehen ist doch auch meist zweifarbig. Innen ist er lila (rot+blau) und weiter außen ist er nur noch blau (bei meinem 50/1,4 ist das so). Das zeigt doch, dass die blauen Lichtstrahlen einfach weiter defokussiert sind als das rote Spektrum und das Grüne passt.
Ein Farblängsfehler bedeutet, dass verschiedene Farben in verschiedenen Fokusebenen liegen. Ein solcher Farblängsfehler produziert daher um das Bild der korrekt fokussierten Grundfarbe(n) herum einen Saum der dann aus den jeweils nicht korrekt fokussierten Farbanteilen besteht. Je nachdem auf welche Farbe Du nun fokussierst muss der seitliche Saum dann seine Farbe ändern. Dies sieht man beim Duchpendeln durch den Fokus, wobei dabei die Saumfarbe zwischen den Komplementärfarben changiert.

Wenn es also LCA wäre, dann müsstest Du mit einer *anderen* Fokuseinstellung ja korrekt auf blau bzw. blauviolett fokussieren können, wobei *dann* gelb und grün ausbrechen müssten, also der Saum um einen hellen Reflex herum aussen grüngelblich würde.

Bei den purple fringes ist dies nicht der Fall. Sie bleiben (und dies steht auch im Namen) immer blauviolett. Es handelt sich dann eben nicht um einen Farblängsfehler.


Das ist in meinen Augen nun kein Verdienst der Optik, sondern ist dem IR Sperrfilter zu verdanken. Der absorbiert nicht nur IR, sondern auch noch eine gehörige Portion vom sichtbaren roten Bereich. Daher jammern auch alle Astrofotografen über die schlechte Empfindklichkeit für H_alpha. Die langen roten Wellenlängen kommen also gar nicht bis zum Sensor durch und das lässt den Streukreis für rot wieder kleiner werden. Blau wird bis ins nahe UV nicht eigens gefiltert und schlägt daher voll zu. Dies ist doch auch der Hauptunterschied zwischen der Sigma SD 9 und SD 10. Die 9er hatte mit purple Finges ein riesen Problem, die SD 10 nicht mehr. Was wurde geändert?Die Haupt-Änderung zwischen SD9 und SD10 am Sensor war das Mikrolinsen-DEsign. Die SD9 hatte ziemlich schlechte (wenn überhaupt) Mikrolinsen, was zu geringen ISO-Werten (bis 400) und schnell anwachsendem Noise führte. Die Mikrolinsen der SD10 waren recht effizient verbessert worden, sodass mehr Licht in die aktiven Bereiche der Pixel konzentriert wurde und damit der ISO auf höhere Werte getrieben werden konnte.


Der IR Sperrfilter absorbiert nun nicht nur IR, sondern auch blau bis etwa 420nm. Das können wir mit einem Tiffen Haze 2A (filtert zumindest bis 410nm) Filter vor den Canon Objekiven nachbauen. Ich hab leider keinen und so leicht bekommt man den auch nicht, von daher also noch nicht getestet. Natürlich steht jetzt immer noch die Frage im Raum, warum wir das auf Film nicht so sehen? Kann es sein, dass Film bei 400nm einfach keine große Empfindlichkeit hat? Ich hab leider keine Empfindlichkeitskurven für Filme.keine Ahnung, aber 400 nm ist schon hart an der UV-A Kante. Wenn Dich das interessiert, kann ich ja mal ein "ordentlichens Transmissionsspektrum z.B. des 50/1.4er messen, dann weiss man zumindest, ab wann die Mehrschichtvergütung dicht macht. Ich würde schätzen, dass unterhalb 390 nm auch ganz ohne Filter alles finster ist. Letzten Endes ist dies allerdings relativ unerheblich, da die Sensoren unterhalb 450nm ziemlich schnell und stark an Empfindlichkeit einbüßen.


Sollten wir nicht das Naheliegende nehmen und nicht erst vagabundierende Lichtstrahlen erfinden? Bei den kleinen Knipskisten haben die Pixel gerade mal eine Größe von 2 Mikrometern. Das ist nur viermal die Wellenlänge. Die womöglich lichtführenden Strukturen sind noch kleiner. In dem Bereich verlassen wir langsam die "normale" Strahlenoptik und müssen größere Geschütze auffahren. Das werden richtig gemeine Rechnungen. Was willst Du denn da rechnen? Willst Du es in der Tat tun, so kann ich dich beruhigen, 2 Mikrometer gehen klassisch nach Abbé immer noch recht gut zu rechnen. Ausserdem: Farbsäume an Knipskisten sind zumeist TCA und Blooming, vielleicht noch etwas purple fringe hinzugemischt. LCA tritt wenn dann recht langen Brennweiten (ca. 100mm KB-Äquivalent und mehr, je nach Objektiv-Güte) relevanter in Erscheinung.

Fakt ist, dass die purple fringes nur bei großem Öffnungswinkel des am Sensor eintreffenden Strahlungsbüschels zu erkennen sind. Dies könnte also ein Objektivfehler sein (longitudinale CA mit Farbumschlag beim Durchpendeln des Fokus) oder lokale Streu-, Beugungs- und/oder Reflexionseffekte, die nicht durch das Objektiv per se bedingt sind.

Interessant wäre es mal herauszufinden, ob purple fringes z.B. mit gelbem oder grünem Licht erzeigt werden können. Falls ja, so wäre das ein klares Zeichen für Streulicht, was neben/unter der Farbmaske in Nachbarpixel eindringt. Mal sehen, demnächst haben wir einen aufgeweiteten Argon-Gaslaser hier ...

... interessanter wäre aber für mich, ob sich demnächst mal eine Gelegenheit herstellen lässt, zu der ich mich mit einer 5D o.ä. beschenken darf. ;)

Nightshot
18.11.2005, 23:21
das dicke Ende kommt ja noch
Wieso dickes Ende, das war Inspiration pur :D


Wenn Die Farbe eines Saumes beim Durchpendeln durch die Fokusebene jeweils in die Komplementärfarbe umschlägt, dann handelt es sich mit an Sicherheit grenzender Wahrscheinlichkeit um eine LCA.

Und genau das habe ich jetzt mal versucht und das Ergebnis ist nicht so, wie ich es mir ausgemalt habe. Im Frontfokus gibt es keinen blauen Saum, im Fokus natürlich (darum machen wir die Übung), aber im Backfokus verschwindet er nicht mehr. :confused: Also hier habe ich noch keine Theorie des Tages gefunden, aber seht selbst: http://home.arcor.de/rainer.hoenle/forum/Fokustest.jpg Zum "Versuchsaufbau": Eine Halogenlampe leuchtet auf ein Stück Papier und der Schatten ist einfach ein Bleistift. Objektiv war das Sigma 18-50@2.8 und das ganze Bild sieht so aus: http://home.arcor.de/rainer.hoenle/forum/Versuchsaufbau.jpg

Das Spannende kommt aber jetzt. Ich konnte im Sucher schon den blauen Saum erkennen! Alles was der Chip aufgezeichnet hat, habe ich so auch schon im Sucher gesehen und muss also vom Objektiv kommen. Warum sieht man das sonst nicht? Durch diesen sehr düsteren Aufbau und die nur kleine leuchtende Fläche bleibt das Auge für die Dunkelheit adaptiert. In freier Wildbahn sind das sonst immer hell leuchtende Einstellungen und da kann der blaue Saum vom Auge kaum wahrgenommen werden. Ich kann dazu leider keine Beweisbilder liefern, das muss jeder selbst aufbauen und austesten.


Spiegelobjektive haben 1. typischerweise eine sehr lange Brennweite und 2. keine hohe Anfangsöffnung. Ergo werden die Lichtstrahlen fast perfekt senkrecht am Sensor auftreffen. Damit wäre also auch gleichzeitig ein purple fringing vermieden.
Ich habe ein 800mm/f=4.0 Spiegeltele. Reicht das zum Antesten?


Je nachdem auf welche Farbe Du nun fokussierst muss der seitliche Saum dann seine Farbe ändern. Dies sieht man beim Duchpendeln durch den Fokus, wobei dabei die Saumfarbe zwischen den Komplementärfarben changiert.
Und genau das konnte ich nicht sehen. Weder im Sucher, noch auf den Bildern.


Die Mikrolinsen der SD10 waren recht effizient verbessert worden, sodass mehr Licht in die aktiven Bereiche der Pixel konzentriert wurde und damit der ISO auf höhere Werte getrieben werden konnte.
Ein typischer Fall von, ändere im Experiment nie zwei Parameter auf einmal. Könnte das Mikrolinsendesign den ISO Wert hochgetrieben haben und der Filter das finging Problem beseitigt?


Wenn Dich das interessiert, kann ich ja mal ein "ordentlichens Transmissionsspektrum z.B. des 50/1.4er messen, dann weiss man zumindest, ab wann die Mehrschichtvergütung dicht macht.
Da hätte ich durchaus Interesse dran. Meine Aperaturen hier messen nur von 30 bis 300 Mikrometer Wellenlänge und da ist sicher auch dicht :D


Ich würde schätzen, dass unterhalb 390 nm auch ganz ohne Filter alles finster ist.
Das glaube ich auch. Ich vermute aber, dass der Bereich von 390 bis 410nm böse ist.


Letzten Endes ist dies allerdings relativ unerheblich, da die Sensoren unterhalb 450nm ziemlich schnell und stark an Empfindlichkeit einbüßen.
Das könnte ich so jetzt nicht behaupten:
http://www.pbase.com/terrylovejoy/image/29755088/original
http://www.micron.com/products/imaging/technology/lux.html


Interessant wäre es mal herauszufinden, ob purple fringes z.B. mit gelbem oder grünem Licht erzeigt werden können.
Das dachte ich mir auch und habe das Halogenlicht duch einen Liter Fanta geschickt, um das grüne und blaue Spekturm raus zu filtern. Ein Monochromator wäre mir auch lieber gewesen, aber der stand nicht rum und Fanta war gerade auf dem Tisch. Hier das Ergebnis: http://home.arcor.de/rainer.hoenle/forum/Fanta.jpg Da wird nichts auch nur annähernd blau (habe ich auch nicht erwartet). Ich glaube erst wenn kurzwelliges Blau im Spektrum ist, wird es kritisch.


Falls ja, so wäre das ein klares Zeichen für Streulicht, was neben/unter der Farbmaske in Nachbarpixel eindringt.
Das können wir glaube ich eh ausschließen. Wenn das Licht unter der Farbmaske durch passt, dann wären alle Farben gleich betroffen. Da es nur Blau trifft, muss es noch vor den Farbfiltern passieren. Also wenn, dann bei den Mikrolinsen, aber was soll das sein, das nur das blaue Spektrum beeinflussen kann? Für Rayleigh-Streuung passen die Wellenlängen nicht.


Mal sehen, demnächst haben wir einen aufgeweiteten Argon-Gaslaser hier ...
Im Nachbarlabor steht ein Laser für die Natriumline. Da traue ich mich aber nicht ran, sonst bläst der mir aufgeweitet noch den Sensor um die Ohren. Mit dem erzeugen wir virtuelle Sterne in 80 km Höhe.


... interessanter wäre aber für mich, ob sich demnächst mal eine Gelegenheit herstellen lässt, zu der ich mich mit einer 5D o.ä. beschenken darf. ;)
Och, braucht es dafür einen eigenen Grund? Ich finde die pure Existenz der Kamera ist schon Grund genug sie haben zu müssen :D

Micha67
19.11.2005, 02:03
Und genau das habe ich jetzt mal versucht und das Ergebnis ist nicht so, wie ich es mir ausgemalt habe. Im Frontfokus gibt es keinen blauen Saum, im Fokus natürlich (darum machen wir die Übung), aber im Backfokus verschwindet er nicht mehr. :confused: Also hier habe ich noch keine Theorie des Tages gefunden, aber seht selbst: http://home.arcor.de/rainer.hoenle/forum/Fokustest.jpg Zum "Versuchsaufbau": Eine Halogenlampe leuchtet auf ein Stück Papier und der Schatten ist einfach ein Bleistift. Objektiv war das Sigma 18-50@2.8 und das ganze Bild sieht so aus: http://home.arcor.de/rainer.hoenle/forum/Versuchsaufbau.jpg
räusper: Das ist aber nicht purple fringing, sondern "stinknormale" transversale CA einer mittelprächtigen kurzen Brennweite, was Du hier zeigst. Kein Wunder also, dass Du einen komplementärfarbigen Saum nur auf der Gegenseite ausmachen kannst.


Das Spannende kommt aber jetzt. Ich konnte im Sucher schon den blauen Saum erkennen! Alles was der Chip aufgezeichnet hat, habe ich so auch schon im Sucher gesehen und muss also vom Objektiv kommen. Warum sieht man das sonst nicht?Das laterale CA ein Objektivfehler *ist*, war die gemachte Beobachtung ganz richtig und nicht unerwartet.

Tipp: longitudinale CA und purple fringing gibt es auch im Bildzentrum, eine transversale CA hingegen nicht.


Ich habe ein 800mm/f=4.0 Spiegeltele. Reicht das zum Antesten?Lass den Test, das Objektiv wird keine purple fringes erzeugen.


Ein typischer Fall von, ändere im Experiment nie zwei Parameter auf einmal. Könnte das Mikrolinsendesign den ISO Wert hochgetrieben haben und der Filter das finging Problem beseitigt?Mag sein, aber soo genau kenne ich mich in den Siechma-Interna nun auch nicht aus.


Da hätte ich durchaus Interesse dran. Meine Aperaturen hier messen nur von 30 bis 300 Mikrometer Wellenlänge und da ist sicher auch dicht :D Mal sehen, ob ich das mal dazwischenschieben kann ...


(Empfindlichkeit von Sensoren unter 450 nm bis 390 nm) Das könnte ich so jetzt nicht behaupten:
http://www.pbase.com/terrylovejoy/image/29755088/original
http://www.micron.com/products/imaging/technology/lux.html
1. Link bestätigt doch die Aussage. 2. Link arbeitet mit Silikon (!), das kann ich nicht ernst nehmen ;-)

{QUOTE]Das dachte ich mir auch und habe das Halogenlicht duch einen Liter Fanta geschickt, um das grüne und blaue Spekturm raus zu filtern. Ein Monochromator wäre mir auch lieber gewesen, aber der stand nicht rum und Fanta war gerade auf dem Tisch. Hier das Ergebnis: http://home.arcor.de/rainer.hoenle/forum/Fanta.jpg Da wird nichts auch nur annähernd blau (habe ich auch nicht erwartet). Ich glaube erst wenn kurzwelliges Blau im Spektrum ist, wird es kritisch.[/QUOTE]Geil, der Fanta-Test ist erfunden! Wenn die beobachtete Bildstörung nur wirklich purple fringing gewesen wäre, so hätte der Test und in der Tat weitergebracht ...


Das können wir glaube ich eh ausschließen. Wenn das Licht unter der Farbmaske durch passt, dann wären alle Farben gleich betroffen. Da es nur Blau trifft, muss es noch vor den Farbfiltern passieren. Also wenn, dann bei den Mikrolinsen, aber was soll das sein, das nur das blaue Spektrum beeinflussen kann? Für Rayleigh-Streuung passen die Wellenlängen nicht.Die Farbzuweisung geschieht bekanntlich im Rahmen der Bayer-Demosaic-Rechnung. Da beschichtete Siliziumsensoren ihr Empfindlichkeitsmaximum im Grün-gelben haben, müssen die wenigen Signale, die in den Rot- und Blau-Pixeln landen, für die Chroma-Bewertung überbetont werden. Wenn also überall z.B. 1000 Elektronen in allen Pixeln (R, G und B) landeten, so würde der Bayer-Demosaic daraus einen vornehmlich Rot-Blauen, also Violetten Farbton produzieren. Ich möchte hier nicht behaupten, dass es wirklich an Strulicht unter der Farbmaske liege, aber ausgeschlossen ist diese Möglichkeit erst, wenn ein Test mit realem purple fringing zeigt, dass die blauvioletten Säume unbedingt auch blauviolette Lichtanteile benötigen. Die Fanta-Flasche ist prima, nun nich ein Objektiv, welch4es wirklich zuverlässig PF auslöst, und dann wäre es zu klären.


Och, braucht es dafür einen eigenen Grund? Ich finde die pure Existenz der Kamera ist schon Grund genug sie haben zu müssen :D
Lieb gesagt, ob Du dies auch nochmal meiner Frau zuflüstern könntest? ;)

Nightshot
20.11.2005, 21:13
räusper: Das ist aber nicht purple fringing, sondern "stinknormale" transversale CA einer mittelprächtigen kurzen Brennweite, was Du hier zeigst.
Hmm, zurück räusper... also tCA ist das auf jeden Fall nicht, denn die sieht bei diesem Objektiv so aus: http://home.arcor.de/rainer.hoenle/forum/TCA.jpg
Der Saum hat die Breite von einem Pixel, ist bei jeder Blende gleich und hat die Farben blau-grün. Das was in dem Fokustestbild zu sehen ist, hat deutlich größere Dimensionen und das typische grün auf der anderen Seite fehlt. Zudem (was du nicht wissen konntest) habe ich das auch in der Bildmitte aufgenommen, mit dem gleichen Ergebnis und mit Abblenden wurde es besser. Ich behaupte nun nicht, dass wir hier klassische lCA sehen, aber tCA spielt keine Rolle. Und mittelprächtig stimmt bei dem Objektiv auch nicht. Canon würde der Rechnung ein L verpassen. Ab Blende 4.0 ist der 6Mpix Chip schon überfordert und die Maximalauflösung erreicht. Canons 17-40 ist auch nicht besser.


Lass den Test, das Objektiv wird keine purple fringes erzeugen.
Ich wollte ja das 50/1.4er nehmen, aber das lag zu Hause. Dann mache ich den Spaß bei Gelegenheit mit dem 50er in der Bildmitte, denn von dem wissen wir, dass es PFs liefert.


Wenn also überall z.B. 1000 Elektronen in allen Pixeln (R, G und B) landeten, so würde der Bayer-Demosaic daraus einen vornehmlich Rot-Blauen, also Violetten Farbton produzieren.
Gut, das sehe ich ein. Vom RAW Konverter dcraw bekomme ich die Multiplikatorwerte für rot, grün und blau angezeigt (zumindest in der alten 6.xx Version). Je nach Weißabgleich sind die Werte für blau zwischen 1,5 und 2,2 und für rot zwischen 1,1 und 1,5 (grün ist auf 1 fixiert). Ich kann dem Konverter jetzt auch sagen, dass er alle Farben mit 1 gewichten soll. Die PFs bleiben aber blau!!! Das Beweisbild später.

Mir ist eingefallen, dass ich ja noch ein ganz spezielles Bild in der Schublade habe. Vor einem Jahr hab ich in meinem Zyklus „Alpen bei Nacht“ ein Testbild gemacht, ob das auch ohne Mondlicht geht und dabei kam folgendes Bild raus: http://home.arcor.de/rainer.hoenle/forum/Tanheimertal.jpg
Und gleich hinterher ein 100% Crop der Ortschaften: http://home.arcor.de/rainer.hoenle/forum/Skaliert_normal.jpg
Aufgenommen wurde es mit dem 50/1.4er bei Blende 1,8. Wir sehen PFs in allen möglichen Variationen (sind wir uns diesmal einig?). Bei genauer Betrachtung sehe ich drei unterschiedliche Erscheinungen, die ich auf drei unterschiedliche Lampentypen und damit Spektren zurückführen möchte. Das gelbe ist leicht, das sind Natriumdampflampen und zeigen auch nur diesen gelben Saum. Beim Rest tippe ich auf Quecksilberdampf (blau) und Halogenlampen (pink), ich kenne mich mit Straßenbeleuchtung und eingesetzter Leuchtmittel aber nicht wirklich aus.
Können wir die Theorie mit Lichtausbreitung unter den Farbmasken damit zu den Akten legen?

Zum Schluss noch das schuldige Beweisbild und zwar der Bildausschnitt von oben mit allen Farben gleich gewichtet: http://home.arcor.de/rainer.hoenle/forum/Skaliert_1-1-1.jpg



Lieb gesagt, ob Du dies auch nochmal meiner Frau zuflüstern könntest? Ach, waren die guten Objektive leichter durchzusetzen? ;)

Micha67
21.11.2005, 00:51
Hmm, zurück räusper... also tCA ist das auf jeden Fall nicht, denn die sieht bei diesem Objektiv so aus: http://home.arcor.de/rainer.hoenle/forum/TCA.jpg
Der Saum hat die Breite von einem Pixel, ist bei jeder Blende gleich und hat die Farben blau-grün. Das was in dem Fokustestbild zu sehen ist, hat deutlich größere Dimensionen und das typische grün auf der anderen Seite fehlt. Zudem (was du nicht wissen konntest) habe ich das auch in der Bildmitte aufgenommen, mit dem gleichen Ergebnis und mit Abblenden wurde es besser. Ich behaupte nun nicht, dass wir hier klassische lCA sehen, aber tCA spielt keine Rolle.Ich würde Dir ja zu gerne glauben, wenn ich nicht wüsste, dass bei so kurzen Brennweiten eine LCA so gut wie nie zum Tragen kommt. TCA oder purple fringing sind die eindeutig wahrscheinlicheren Ursachen. Das klassischste Merkmal der LCA ist der Farmumschlag beim Durchpendeln der Fukusebenen. War dies denn der Fall?


Ich wollte ja das 50/1.4er nehmen, aber das lag zu Hause. Dann mache ich den Spaß bei Gelegenheit mit dem 50er in der Bildmitte, denn von dem wissen wir, dass es PFs liefert.Im Vergleich mit 85/1.8 oder gar 85/1.2 ist das 50/1.4 in Sachen PF sogar noch ziemlich zahm.


Bei genauer Betrachtung sehe ich drei unterschiedliche Erscheinungen, die ich auf drei unterschiedliche Lampentypen und damit Spektren zurückführen möchte. Das gelbe ist leicht, das sind Natriumdampflampen und zeigen auch nur diesen gelben Saum. Beim Rest tippe ich auf Quecksilberdampf (blau) und Halogenlampen (pink), ich kenne mich mit Straßenbeleuchtung und eingesetzter Leuchtmittel aber nicht wirklich aus.
Können wir die Theorie mit Lichtausbreitung unter den Farbmasken damit zu den Akten legen?Ich denke, damit hast Du es nahezu bewisen. Das Licht der Purple Fringes scheint nicht unter der Farbmaske durchzukrauchen.


Ach, waren die guten Objektive leichter durchzusetzen? ;)Zu dieser Zeit gab es einen guten Anlass ... :)

Nightshot
21.11.2005, 13:17
Ich würde Dir ja zu gerne glauben, wenn ich nicht wüsste, dass bei so kurzen Brennweiten eine LCA so gut wie nie zum Tragen kommt.
Ich sage ja selbst, dass das keine LCA sein kann. Das müsste beim Fokussieren viel schneller umschlagen und vor allem, es muss umschlagen und das tut es nun mal nicht.

Wäre ein anderes Szenario vorstellbar? Kann es sein, dass ein Objektiv die Wellenlänge von sagen wir mal 400nm in keiner Fokuseinstellung sauber abbilden kann und immer ein großer Streukreis übrig bleibt? Eher nicht, oder? Aber was wäre, wenn die Fokusebene zum UV so schnell abbricht, dass ich nie 400nm und 450nm gleichzeitig scharf bekomme? Das würde bedeuten, dass egal wohin ich fokussiere ich immer einen blauen unscharfen Rand in meine blauen Pixel bekomme.




Im Vergleich mit 85/1.8 oder gar 85/1.2 ist das 50/1.4 in Sachen PF sogar noch ziemlich zahm. [Quote]
Mit der 5D muss dann eh eines der beiden Objektive her. Das 1,2er würde mich schon reizen, aber diese fly by wire Fokussierung finde ich nicht so prickelnd.

[Quote]Das Licht der Purple Fringes scheint nicht unter der Farbmaske durchzukrauchen.
Ok, dann brauchen wir aber etwas anderes. Fassen wir zusammen: Es passiert vor den Farbmasken und es ist von der Wellenlänge abhängig. Da wären Objektiv, Mikrolinsen und bisher nicht beachtet der AA-Filter. Gibt es zu dem irgendwelche verlässliche Informationen nach welchem Prinzip der arbeitet?

Micha67
21.11.2005, 15:13
Wäre ein anderes Szenario vorstellbar? Kann es sein, dass ein Objektiv die Wellenlänge von sagen wir mal 400nm in keiner Fokuseinstellung sauber abbilden kann und immer ein großer Streukreis übrig bleibt? Eher nicht, oder?Nee, das geht kaum. Wenn überhaupt, dann wäre so etwas durch Astigmatismus/Koma bedingt und wäre dann auch nicht farbselektiv und sähe zudem anders aus.


Aber was wäre, wenn die Fokusebene zum UV so schnell abbricht, dass ich nie 400nm und 450nm gleichzeitig scharf bekomme? Das würde bedeuten, dass egal wohin ich fokussiere ich immer einen blauen unscharfen Rand in meine blauen Pixel bekomme.Also doch wieder eine LCA, aber immer zwischen kurzem blau und längerem blau grottenschlecht? Nicht undenkbar, aber auch nicht gerade wahrscheinlich, da dies dann vermutlich auch analog sichtbar würde.


>Im Vergleich mit 85/1.8 oder gar 85/1.2 ist das 50/1.4
> in Sachen PF sogar noch ziemlich zahm.
Mit der 5D muss dann eh eines der beiden Objektive her. Das 1,2er würde mich schon reizen, aber diese fly by wire Fokussierung finde ich nicht so prickelnd.Mit liegt das auch nicht. In meinem 28-80er hat genau dieser Mechanismus die Grätsche gemacht. Daher bin ich jetzt für den Freistellungszweck auf 135/2 und 50/1.4 unterwegs und habe mir dazwischen die feine und dennoch sehr tragbare 85/1.8 gelegt. Hie und da schwanke ich sogar, ob ich auch noch auf die f/1.8 verzichte und die Brennweite als Makro nehme (z.B. das Tamron 90er).


Ok, dann brauchen wir aber etwas anderes. Fassen wir zusammen: Es passiert vor den Farbmasken und es ist von der Wellenlänge abhängig. Da wären Objektiv, Mikrolinsen und bisher nicht beachtet der AA-Filter. Gibt es zu dem irgendwelche verlässliche Informationen nach welchem Prinzip der arbeitet?Nicht zu vergessen noch der IR-Sperrfilter. Zum Aufbau und der Physik des Antialiasing-Filters bin ich zugegebenermassen überfragt. Gleiches gilt leider auch für das Mikrolinsen/-prismen-Design. Da aber solche Elemente meist auf eine bstimmte numerische Apertur hin spezifiziert sind und im Grunde die einzigen Komponenten darstellen, die neben dem Sensor selbst eine Abhängigkeit von Abstand und Durchmesser der Austrittspupille zeigen, halte ich sie für sehr geeignete Kandidaten.

Nightshot
22.11.2005, 20:36
Also doch wieder eine LCA, aber immer zwischen kurzem blau und längerem blau grottenschlecht? Nicht undenkbar, aber auch nicht gerade wahrscheinlich, da dies dann vermutlich auch analog sichtbar würde.
Nicht, wenn sich der Film für die wirklich kurzen Wellenlängen nicht interessiert. Ich habe dann heute den gleichen Test wie oben mit der Lampe und Bleistift (diesmal war es eine Schieblehre als Schatten) mit meinem 50er bei 1,4 gemacht. Diesmal in der Bildmitte und ohne große Erwartungen, aber die Überraschung folgte prompt. Es reichte ein wirklich minimaler Frontfokus und der lila Rand schwenkte um in grün. Nicht ganz so eindrucksvoll wie der lila Rand, aber doch klar grün. Bei Backfokus ändert sich nichts und es bleibt lila. Ich brauche Dir jetzt sicher keinen Vortrag über Komplementärfarben und Lage der Schärfeebenen halten, denn das weißt wahrscheinlich eh besser als ich, aber war es nicht das, was als Beweis für LCA gelten würde? Jetzt lässt sich nur noch streiten ob wir hier PF oder halt stinknormale LCA sehen.

Mit der oben gemachten Äußerung, dass man den blauen Saum schon vorher im Sucher sehen kann muss ich zurück rudern. Es zeigte sich, dass diese Farbverschiebungen von den nicht gerade hochwertigen Linsen im Sucher stammten. Also man sieht schon etwas, aber das ist kein Fehler vom Objektiv.

Jetzt hätte ich beinahe das Beweisbild vergessen:
http://home.arcor.de/rainer.hoenle/forum/50mm.jpg



Hie und da schwanke ich sogar, ob ich auch noch auf die f/1.8 verzichte und die Brennweite als Makro nehme (z.B. das Tamron 90er).
Nachvollziehbar! Mir reichen allerdings die 2,8 für meine Nachtbilder nicht aus, da sehe ich im Sucher nichts mehr (vielleicht wird das mit der 5D ja besser). Sind die Bilder mit dem Makro einer Nahlinse wirklich so sehr überlegen?


Nicht zu vergessen noch der IR-Sperrfilter. Zum Aufbau und der Physik des Antialiasing-Filters bin ich zugegebenermassen überfragt.
Der IR Filter ist zu dünn glaube ich. Wenn das allerdings so ein dicker Absorptionsfilter ist, muss der auch noch auf die Rechnung. Zum AA-Filter hat Canon selbst mal was raus gegeben, aber inzwischen wieder vom Netz genommen. Die Italiener hosten das noch, aber wirklich verstehen tu ich das nicht. http://www.nadir.it/digitale/canon_1DSMKII/foto_mkII/low_cut_filter.gif Vor allem was die Lambda/4 Platte da drin soll versteh ich nicht. Ohne Linearpolarisator bringt das doch nichts und Licht würde es dann auch ohne Ende schlucken.


Da aber solche Elemente meist auf eine bstimmte numerische Apertur hin spezifiziert sind und im Grunde die einzigen Komponenten darstellen, die neben dem Sensor selbst eine Abhängigkeit von Abstand und Durchmesser der Austrittspupille zeigen, halte ich sie für sehr geeignete Kandidaten.
Jetzt hab ich doch glatt verbummelt, was die numerische Apertur war. :confused: Bei CD und DVD Laufwerken taucht das auch immer wieder auf...

Micha67
22.11.2005, 22:48
Nicht, wenn sich der Film für die wirklich kurzen Wellenlängen nicht interessiert. Ich habe dann heute den gleichen Test wie oben mit der Lampe und Bleistift (diesmal war es eine Schieblehre als Schatten) mit meinem 50er bei 1,4 gemacht. Diesmal in der Bildmitte und ohne große Erwartungen, aber die Überraschung folgte prompt. Es reichte ein wirklich minimaler Frontfokus und der lila Rand schwenkte um in grün. Nicht ganz so eindrucksvoll wie der lila Rand, aber doch klar grün. Jetzt lässt sich nur noch streiten ob wir hier PF oder halt stinknormale LCA sehen.
Ebend. Das *ist* LCA. Deswegen ist aber immer ncoh nicht das PF-Phänomen mit LCA gleichzusetzen. Bei Bildern, in denen die PF´s zugeschlagen haben, müssten doch sonst Reflexe, die auf der jeweilig anderen Seite der Fokusebene liegen, komplementärfarben umgetüncht sein.


Der IR Filter ist zu dünn glaube ich. Wenn das allerdings so ein dicker Absorptionsfilter ist, muss der auch noch auf die Rechnung. Zum AA-Filter hat Canon selbst mal was raus gegeben, aber inzwischen wieder vom Netz genommen. Die Italiener hosten das noch, aber wirklich verstehen tu ich das nicht. Vor allem was die Lambda/4 Platte da drin soll versteh ich nicht. Ohne Linearpolarisator bringt das doch nichts und Licht würde es dann auch ohne Ende schlucken.
Die erste Lowpass-Filter-Schicht bewirkt eine Teilpolarisierung, die durch das Lambda/4-Plättchen aufgehoben wird. Das Lambda/4-Element ist nicht mit einem Intensitätsverlust verbunden. Im Polfilter selbst schluckt auch nicht das Lambda/4-Element des cirkularen Polfilters das Licht, der lineare Polfilter ohne Lambda/4 schluckt genau gleich viel. In diesem Fall wird die Polarisations-Präferenz wieder aufgehoben, damit das zweite Zerstreuungselement des Antialiasing-Filters wiederum nicht-polarisiertes Licht erhält und damit unter gleichen Bedingungen arbeitet wie die erste Schicht. Leider kenn ich nicht das Funktionsprinzip der Lowpass-Filter. Sind das kleinste Zylinderlinsen?


Jetzt hab ich doch glatt verbummelt, was die numerische Apertur war. :confused: Bei CD und DVD Laufwerken taucht das auch immer wieder auf...Das ist der Sinuswert des max. von der Senkrechten abweichenden Einfallswinkels, der durch ein optisches System noch aufgefangen werden kann. Die numerische Apertur von Mikrolinsen-Arrays liegt üblicherweise in Bereichen um 0,15-0,4, entsprechend einem Abweichungswinkel von 9°-24° von der Senkrechten. Dies bedeutet, dass bei einem Abstand der Austrittspupille von ca. 55 mm und einer Brennweite von 50 mm selbst bei optimaler Apertur der Mikrolinsen und im Bildzentrum der Durchmesser der Austrittspupille 48 mm nicht überschreiten sollte. Dies entspräche bei einem Pupillenmaßstab von 1 (bei doppel-Gauss so in etwa gültig) einer Lichtstärke von f/1.0. Wir sind also in Unkenntnis der tatsächlichen numerischen Apertur der Mikrolinsen zumindest nicht soo weit weg von den Werten, die ein lichtstarkes Normalobjektiv tatsächlich liefert und mit dem Unterkante-Weret von 0,15 kämen wir auf eine max. erlaubte Öffnung von etwa f/2.8. Der Rest würde dann - vagabundieren?

Quellenangabe zur num. Apertur von Mikrolinsen:
http://www.microscopy.fsu.edu/primer/digitalimaging/concepts/microlensarray.html

Nightshot
23.11.2005, 19:14
Bei Bildern, in denen die PF´s zugeschlagen haben,
müssten doch sonst Reflexe, die auf der jeweilig anderen Seite der
Fokusebene liegen, komplementärfarben umgetüncht sein.
Also da blicke ich jetzt nicht mehr durch. Was bedeutet auf der anderen Seite der Fokusebene? Du verwechselst jetzt nicht Ghosting mit PF’s? Neeee, kann ich mir bei Dir nicht vorstellen. :) Nach Deiner Erklärung müsste ja dann zu jedem PF ein grüner Fleck existieren. Sorry, aber das habe ich noch NIE gesehen und gibt es nur bei TCA. Hast du irgendwo mal ein Beispielbild dazu gefunden und kannst mir das erklären?


Die erste Lowpass-Filter-Schicht bewirkt eine Teilpolarisierung, die durch das Lambda/4-Plättchen aufgehoben wird.
Und genau bei der ersten Teilpolarisation würde doch der Intensitätsverlust schon passieren. Klar, das Lambda/4 Plättchen ändert an der Intensität dann nichts mehr.


Leider kenn ich nicht das Funktionsprinzip der Lowpass-Filter.
Sind das kleinste Zylinderlinsen?
Wozu sollten Zylinderlinsen denn polarisiertes Licht brauchen? Ich hab gelesen, dass das Material Lithiumniobat sein soll, ich hab aber keine Ahnung was das für optische Eigenschaften hat. Also ich finde das höchst seltsam. Laut Canon’s Zeichnung ist der AA-Filter und IR-Filter ein Stück, aber man hat noch von keinem, der den IR-Filter ausgebaut hat gehört, dass er sich über mehr moire beschwert hat. Da die Sigma SD9 aber heftig mit PF zu kämpfen hat und keinen AA Filter hat, scheidet der wohl für unser gesuchtes Phänomen eh aus.


Wir sind also in Unkenntnis der tatsächlichen
numerischen Apertur der Mikrolinsen zumindest nicht soo weit weg von den
Werten, die ein lichtstarkes Normalobjektiv tatsächlich liefert und mit
dem Unterkante-Weret von 0,15 kämen wir auf eine max. erlaubte Öffnung von
etwa f/2.8. Der Rest würde dann - vagabundieren?
Eine wirklich gute und realistische Rechnung. Zwei Sachen stören mich in Sachen PF aber dennoch.

Alle Strahlen, die es auf Grund des großen Winkels nicht auf das Pixel schafften, sollten an der Oberfläche wie ein Spiegel reflektiert werden. Kommt er zum Beispiel mit 35° an, passiert die Grenzschicht Luft-Mikrolinse und wir auf der Oberfläche reflektiert, so geht er auch wieder unter dem gleichen Winkel weg. Die Form der Linse wird den Austrittswinkel noch mal deutlich aufweiten, aber ohne weitere Reflexion an der Rücklinse vom Objektiv oder dem IR-Filter kommen die Strahlen nicht mehr auf den Sensor zurück und auf die große Strecke hin sind die auf dem ganzen Bild dann schon fast zufällig verteilt und nicht mehr so scharf, dass es sich auf hell-dunkel Übergange beschränken würde.

Lichtstrahlen, die gleich an der Oberfläche der Mikrolinse reflektiert werden, konnten parallel zum Sensor entlang streifen, bin sie auf ihrem Weg von einer anderen Linse eingefangen werden. Hier habe ich aber das Problem mit der Selektion der Wellenlängen. Warum soll das nur mit blau und rot passieren (wir wollen schließlich pink sehen), aber nicht mit grün? So eine Abhängigkeit setzt ein kompliziertes optisches System voraus, wie es eigentlich nur von einem optimierten Objektiv erfüllt werden kann.

Micha67
23.11.2005, 20:11
Also da blicke ich jetzt nicht mehr durch. Was bedeutet auf der anderen Seite der Fokusebene? Du verwechselst jetzt nicht Ghosting mit PF’s? Neeee, kann ich mir bei Dir nicht vorstellen. :) Nach Deiner Erklärung müsste ja dann zu jedem PF ein grüner Fleck existieren. Sorry, aber das habe ich noch NIE gesehen und gibt es nur bei TCA. Hast du irgendwo mal ein Beispielbild dazu gefunden und kannst mir das erklären?Ich meine das anders: bei vielen Bildern hast Du nicht nur einen Reflex, der PF macht, sondern sie tauchen an mehreren Stellen auf. Wenn nun manche dieser Reflexe von Motivanteilen kommen, die hinter der Fokusebene liegen und wiederum andere Reflexe aus Bildanteilen stammen, die vor der Fokusebene gelegen sind, dann sollten doch im Falle einer LCA als Auslöser die Farben der Säume komplementär zueinander sein, oder nicht? Es ist ja schliesslich egal, ob Du mit dem Fokus variierst, oder ob Du gleich mehrere verschiedene Punkte im Bild analysierst, die sich teils vor und teils hinter der Fokusebene befinden.



Und genau bei der ersten Teilpolarisation würde doch der Intensitätsverlust schon passieren. Klar, das Lambda/4 Plättchen ändert an der Intensität dann nichts mehr.
...
Wozu sollten Zylinderlinsen denn polarisiertes Licht brauchen? Ich hab gelesen, dass das Material Lithiumniobat sein soll, ich hab aber keine Ahnung was das für optische Eigenschaften hat. Also ich finde das höchst seltsam. Laut Canon’s Zeichnung ist der AA-Filter und IR-Filter ein Stück, aber man hat noch von keinem, der den IR-Filter ausgebaut hat gehört, dass er sich über mehr moire beschwert hat. Da die Sigma SD9 aber heftig mit PF zu kämpfen hat und keinen AA Filter hat, scheidet der wohl für unser gesuchtes Phänomen eh aus.
Wie gesagt, mit der Technologie des Antialiasing kenne ich micht nicht wirklich aus. Dein Tipp mit dem Lithiumniobat scheint aber absolut in die richtige Richtung zu gehen. Zumindest lässt sich zu älteren DSLRs eine Beschreibung zu einem Lithiumniobat-gestützten AA-Filter finden:
http://www.lonestardigital.com/earlier_generation_cameras.htm


(bez. Mikrolinsen) Eine wirklich gute und realistische Rechnung. Zwei Sachen stören mich in Sachen PF aber dennoch.
Alle Strahlen, die es auf Grund des großen Winkels nicht auf das Pixel schafften, sollten an der Oberfläche wie ein Spiegel reflektiert werden. Kommt er zum Beispiel mit 35° an, passiert die Grenzschicht Luft-Mikrolinse und wir auf der Oberfläche reflektiert, so geht er auch wieder unter dem gleichen Winkel weg. Die Form der Linse wird den Austrittswinkel noch mal deutlich aufweiten, aber ohne weitere Reflexion an der Rücklinse vom Objektiv oder dem IR-Filter kommen die Strahlen nicht mehr auf den Sensor zurück und auf die große Strecke hin sind die auf dem ganzen Bild dann schon fast zufällig verteilt und nicht mehr so scharf, dass es sich auf hell-dunkel Übergange beschränken würde.
Vorsicht, die numerische Apertur und der kritische Winkel zur Totalreflexion sind nicht gleichzusetzen! Liegt der Winkel des ankommenden Lichtes oberhlab des Limits der numerischen Apertur, so kann er dennoch in die Mikrolinse eindringen, wird aber nicht erfolgreich in die APertur des Pixels fokussiert. Wohin das Licht nun marschiert, wo es in welcher Richtung es hin- und/oder rückreflektiert wird, ist nochmal eine andere Frage.


Lichtstrahlen, die gleich an der Oberfläche der Mikrolinse reflektiert werden, konnten parallel zum Sensor entlang streifen, bin sie auf ihrem Weg von einer anderen Linse eingefangen werden. Hier habe ich aber das Problem mit der Selektion der Wellenlängen. Warum soll das nur mit blau und rot passieren (wir wollen schließlich pink sehen), aber nicht mit grün? So eine Abhängigkeit setzt ein kompliziertes optisches System voraus, wie es eigentlich nur von einem optimierten Objektiv erfüllt werden kann.Wegen der Umfärbung hatte ich ja daher den Gedanken, dass das von den Mikrolinsen eingefangene, aber nicht korrekt in das Pixel geleitete Licht irgendwo "unter der Farbmaske" oder vielleicht sogar im Sensor selbst diagonal weiterpropagieren könnte. War aber nur so eine Idee.

Was die Unabhängigkeit von der Anwesenheit eines AA-Filters (Foveon-Sensor) angeht, könnte man noch sagen, dass ja der Foveon-Sensor selbst schon mal aufgrund seiner wunderlichen Konstruktion nicht repräsentativ ist. Wenn aber z.B. bei den AA-Filter-freien Kodak-DSLRs oder dem Leica-Rückteil auch PF zu finden sein sollte, dann wäre das AA-Filter als Ursache für PF in der Tat auszuschliessen.


... und ich dachte immer, ich sei ein harter und Theorie-lastiger Brocken! ;) :D

Nightshot
24.11.2005, 12:47
Es ist ja schliesslich egal, ob Du mit dem Fokus variierst, oder ob Du gleich mehrere verschiedene Punkte im Bild analysierst, die sich teils vor und teils hinter der Fokusebene befinden.
Ach soooo, jetzt verstehe ich das. Sag doch gleich, dass du von mir den Klassiker, die zerknitterte Alufolie sehen willst :D Kein Problem. Zusätzlich sieht man noch das recht starke Koma, das das 50er bei Offenblende am Bildrand zeigt. Jetzt bin ich aber mal auf Deinen Kommentar gespannt, wenn das keine PF’s UND GF’s sind, muss ich noch mal zur Schule...
http://home.arcor.de/rainer.hoenle/forum/Alu.jpg
Mir ist dann noch eine Möglichkeit eingefallen, warum wir das auf Film weniger sehen. Für PF’s braucht es immer eine Überbelichtete oder zumindest sehr reichlich belichtete Stelle. Wenn dieser helle Fleck auf Film etwas weitet „aufblüht“, so würde er die farbigen Stellen einfach überdecken.



Vorsicht, die numerische Apertur und der kritische Winkel zur Totalreflexion sind nicht gleichzusetzen!
Hab ich das wirklich? Ich wollte lediglich eine worst case Abschätzung machen und zeigen, dass es gar nicht so einfach ist, das Licht am Sensor entlang zu schicken, da die Vorzugsrichtung für gestreutes Licht vom Sensor weg ist.


Wegen der Umfärbung hatte ich ja daher den Gedanken, dass das von den Mikrolinsen eingefangene, aber nicht korrekt in das Pixel geleitete Licht irgendwo "unter der Farbmaske" oder vielleicht sogar im Sensor selbst
diagonal weiterpropagieren könnte. War aber nur so eine Idee.
Ja ich dachte aber, dass wir oben doch schon gesehen haben, dass die Farbmasken nicht außer Gefecht gesetzt werden und die registrierte Farbe auch der Wellenlänge entspricht.



Wenn aber z.B. bei den AA-Filter-freien Kodak-DSLRs oder dem Leica-Rückteil auch PF zu finden sein sollte, dann wäre das AA-Filter als Ursache für PF in der Tat auszuschliessen.
Du glaubst doch nicht wirklich, dass wir von einem Leica DMR Besitzer ein Bild zusehen bekommen auf dem man PF’s sehen kann? Der würde doch eher seine Speicherkarte verbrennen, als das Bild raus rücken.


... und ich dachte immer, ich sei ein harter und Theorie-lastiger Brocken! ;) :D
Ich sehe es so: Zwei Hobbies zum Preis von einem. Würde ich Fotografieren und noch alte Uhren sammeln, wäre das deutlich teurer. Ich gebe zu, ich verwende nicht gerne Dinge, die ich nicht zumindest in ihren Grundzügen verstanden habe. Das Magnetron im Mikrowellenherd ist mir immer noch nicht geheuer. :o

Kann es sein, dass wir die anderen Mitleser und Schreiber jetzt etwas verschreckt haben? Sollte doch noch ein Besitzer eines 85er da sein, so würde ich mich über ein Alufolientestbild freuen. Aber die Folie schön der Tiefe nach auslegen :)

Micha67
24.11.2005, 13:11
Ach soooo, jetzt verstehe ich das. Sag doch gleich, dass du von mir den Klassiker, die zerknitterte Alufolie sehen willst :D Kein Problem. Zusätzlich sieht man noch das recht starke Koma, das das 50er bei Offenblende am Bildrand zeigt. Jetzt bin ich aber mal auf Deinen Kommentar gespannt, wenn das keine PF’s UND GF’s sind, muss ich noch mal zur Schule...
http://home.arcor.de/rainer.hoenle/forum/Alu.jpg
Mir ist dann noch eine Möglichkeit eingefallen, warum wir das auf Film weniger sehen. Für PF’s braucht es immer eine Überbelichtete oder zumindest sehr reichlich belichtete Stelle. Wenn dieser helle Fleck auf Film etwas weitet „aufblüht“, so würde er die farbigen Stellen einfach überdecken.Genau dieses Bild wollte ich sehen! Ja, hier ist es in der Tat eindeutig, es *ist* eine satte LCA-Komponente! Ob Film "aufblüht"? Ich glaube eher nicht, denn sonst wären diese Farbstörungen ja bereits längst bekannt und zu Tode diskutiert gewesen. ;)

Ich hätte sonst auch noch eine Alternative: die schiere Dicke der Sensor-vorgelagerten Schutz-, IR-Filter-, AA-Filter- und Mikrolinsenstrukturen könnte dazu führen, dass in der verbleibenden Wegstrecke (schätzungsweise gut 1 mm in einem für die auf Luft gerechneten Objektive falschen Brechungsindex) die Farbdispersion entsteht. Diese wäre dann bei großen Abweichungswinkeln von der Senkrechten entsprechend größer, würde dann allerdings auch eine TCA bei nicht-telezentrisch gerechneten WW in den Bildecken machen. Macht das Sinn?


Ja ich dachte aber, dass wir oben doch schon gesehen haben, dass die Farbmasken nicht außer Gefecht gesetzt werden und die registrierte Farbe auch der Wellenlänge entspricht.Klar, ich wollte nur gesagt haben, wie ich mal früher auf die Idee kam, dass es vielleicht zu einem Unterwandern der Farbmaske kommen könnte - die Idee ist durch Deine Befunde nun zu Grabe getragen.



Du glaubst doch nicht wirklich, dass wir von einem Leica DMR Besitzer ein Bild zusehen bekommen auf dem man PF’s sehen kann? Der würde doch eher seine Speicherkarte verbrennen, als das Bild raus rücken.
Aber bei den Kodaks? Dort gehörte es doch schon fast zum guten Ton, auf deren Schwächen herumzuhacken (und die Stärken zu ignorieren). ;)


Kann es sein, dass wir die anderen Mitleser und Schreiber jetzt etwas verschreckt haben? Sollte doch noch ein Besitzer eines 85er da sein, so würde ich mich über ein Alufolientestbild freuen. Aber die Folie schön der Tiefe nach auslegen :)
Und gut zerkrünkeln und möglichst mit weissem (Tageslicht oder Blitz) Licht beleuchten.

Gartenmann
24.11.2005, 13:36
Versuch mal die RAW-Konvertierung mit RAW-shooter zu machen. Schon in der Grundeinstellung rechnet RAW-shooter das purple-fringing recht zuverlässig heraus. Besser meines Erachtens, als beispielsweise DCR aus Photoshop.

Gruß
Frank

Nightshot
24.11.2005, 20:07
Genau dieses Bild wollte ich sehen! Ja, hier ist es in der Tat eindeutig, es *ist* eine satte LCA-Komponente!
Sind wir nun soweit und ich darf zusammenfassen? Ich tu es einfach mal:

Das Phänomen der purple fringes (PF) ist eine Sonderform von linearer Chromatischer Aberraton. In diesem Fall sind die Fokusebenen für rot und blau zwar identisch, aber von der grünen Fokusebene abweichend. Ist der grüne Kanal sauber fokussiert (ist schließlich der Hauptkanal), so sind die Farben rot und blau leicht defokussiert und ragen von hellen Bildpartien ausgehend in die Schattenregionen hinein. Wandert das betrachtete Objekt aus der eigentlichen Fokusebene (z.B. zum Objektiv hin), so wird auch der grüne Kanal unscharf, aber rot und blau behalten ihren Unschärfevorsprung und es bleibt beim pinken Rand. Wandert das Objekt in die andere Richtung (die Richtungen können sich von Objektiv zu Objektiv umkehren), so sind rot und blau besser fokussiert und grün hat einen Unschärfevorsprung. Der Farbring wechselt dabei die Farbe, er wird grün und damit unauffälliger.
Purple Fringes lassen sich mit Photoshop RAW (und ähnlichen darauf aufbauenden Programmen) NICHT korrigieren, da nur transversale Chromatische Aberration behoben werden kann. Hier findet eine unterschiedliche radiale Streckung (von der Bildmitte) der einzelnen Farben statt. Auf die Ursache von PF, der falschen Fokusebenen für unterschiedliche Farben, hat dies keinen Einfluss.
Warum der Effekt auf analogem Film nicht so sehr zu sehen ist, kann noch nicht befriedigend geklärt werden.


Ob Film "aufblüht"? Ich glaube eher nicht, denn sonst wären diese Farbstörungen ja bereits längst bekannt und zu Tode diskutiert gewesen. ;)
Nein, nein, ich meine, dass die hellen weißen Flächen sich etwas vergrößern und dabei die farbigen Ringe schlicht überdecken.


Ich hätte sonst auch noch eine Alternative: die schiere Dicke der sensor-vorgelagerten Schutz-, IR-Filter-, AA-Filter- und Mikrolinsenstrukturen könnte dazu führen, dass in der verbleibenden Wegstrecke (schätzungsweise gut 1 mm in einem für die auf Luft gerechneten Objektive falschen Brechungsindex) die Farbdispersion entsteht.
Das hatte ich auch mal in Verdacht, da ich nicht verstanden habe, warum die noch mal 2,9mm!!! Extraglas vor den Sensor spannen. Die damit verbundene, nach hinten verschobene Fokusebene wird von den Kameraherstellern, schon beachtet, aber zum Bildrand hin ist es eben mehr als nur eine verschobene Ebene. Ich hab das mal ein Optik Programm rechnen lassen und das Ergebnis war, dass es einen Effekt nur auf Subpixelniveau hat und von daher wohl keine weitere Beachtung findet. Bei diesen kleinen superhoch auflösenden Sensoren spielt das schon eine Rolle und da müsste der Filter bereits in die Optikrechnung mit einfließen, aber da stört sich wahrscheinlich auch keiner dran.


Aber bei den Kodaks? Dort gehörte es doch schon fast zum guten Ton, auf deren Schwächen herumzuhacken (und die Stärken zu ignorieren). ;)
Oh ja, aber leider gibt es da nicht so viele im Umlauf.

Nightshot
24.11.2005, 20:16
Versuch mal die RAW-Konvertierung mit RAW-shooter zu machen. Schon in der Grundeinstellung rechnet RAW-shooter das purple-fringing recht zuverlässig heraus.

Du hast jetzt nicht zufällig ein Beispielbild parat? Es gibt nämlich schon Möglichkeiten das Bild per Software zu rekonstruieren und die PF’s zu entfernen. Das sind aber enorm rechenaufwändige Verfahren und gehen ein wenig zu Lasten des Rauschens. Das fällt unter das Stichwort „Lucy-Richardson deconvolution“ und kommt aus der Astronomie. Ich glaube nicht, dass der RAW-Shooter das kann.

Micha67
24.11.2005, 21:03
Sind wir nun soweit und ich darf zusammenfassen?Meine Bestätigung galt im Grunde erst mal nur dem von Dir gezeigten Fall des 50/1.4. Ob das Geschriebene für *alle* PF-Situationen Gültigkeit hat, würde ich jetzt noch nicht unterschreiben wollen.


Das hatte ich auch mal in Verdacht, da ich nicht verstanden habe, warum die noch mal 2,9mm!!! Extraglas vor den Sensor spannen. Die damit verbundene, nach hinten verschobene Fokusebene wird von den Kameraherstellern, schon beachtet, aber zum Bildrand hin ist es eben mehr als nur eine verschobene Ebene. Ich hab das mal ein Optik Programm rechnen lassen und das Ergebnis war, dass es einen Effekt nur auf Subpixelniveau hat und von daher wohl keine weitere Beachtung findet. Bei diesen kleinen superhoch auflösenden Sensoren spielt das schon eine Rolle und da müsste der Filter bereits in die Optikrechnung mit einfließen, aber da stört sich wahrscheinlich auch keiner dran.
3 mm Material mit massiv falschem Brechungsindex und kein Problem? Wow! :eek:


Oh ja, aber leider gibt es da nicht so viele im Umlauf.
Dafür für fast jedes Einzelmodell Bilder mit phantastischem Moirée. Manchmal hatte man den Eindruck, dass diese Kameras nur gekauft wurden, um damit Moirées abzulichten. ;) :D

Nightshot
25.11.2005, 15:40
Ob das Geschriebene für *alle* PF-Situationen Gültigkeit hat, würde ich jetzt noch nicht unterschreiben wollen.
Kein Problem, dann mach ich halt weiter. :D

Um zum Ausgangsproblem zurück zu kehren, im ersten Beitrag haben wir ja drei Bilder erhalten, die es zu beurteilen ging. Ich fange mit dem Porschebild an und zeige einmal die Stoßstange:
http://home.arcor.de/rainer.hoenle/forum/Stossstange.jpg
mit pinken Rändern, das Dach
http://home.arcor.de/rainer.hoenle/forum/Dach.jpg
mit grünen Rändern und den Grill
http://home.arcor.de/rainer.hoenle/forum/Grill.jpg
mit dem Punkt, wo es umschlägt. Ich glaube genauer kann man die Schärfeebene nicht bestimmen :)

Beim Bild mit dem netten Buben finde ich leider nichts und das Bild mit dem 24-105er ist ein Sonderfall. Wir haben nur Dinge, die hinter der Fokusebene liegen (und daher eher grün sein sollten), aber wenn das Exif stimmt (30.10.05 und 16:43) dann hat der Himmel zu diesem Zeitpunkt fast nur noch blauen Spektralanteil und grün ist kaum mehr vorhanden.

Hier (http://www.sd3.info/pf828/Sony_828_Purple_Fringe_Analysis.html) habe ich noch einige Beispiele für PF’s mit der Sony 828 gefunden, aber leider hat der Autor nicht die richtigen Schlüsse gezogen, da er LCA und TCA nicht sauber unterscheiden konnte.
Ein Bild (http://www.sd3.info/pf828/cornerLeaf1.jpg) aus der Seite zeigt schöne PF’s und im Hintergrund kann man auch die grünen Ringe erahnen.

Langsam finde ich es beängstigend, dass immer der Hintergrund zur grünen Farbe neigt, das sollte es doch auch mal anders herum geben oder ist das eine Objektiveigenschaft, die sich aus der Optimierung ergibt? Die Infraroteinstellung ist ja auch bei jedem Objektiv in die gleiche Richtung verschoben.

Zeig mir Bilder, die ich nicht mit LCA erklären kann.

Micha67
25.11.2005, 18:45
Zeig mir Bilder, die ich nicht mit LCA erklären kann.BIn selber gerade am Suchen, und finde meist nur Bilder, die halt nur PF zeigen, aber bei denen keine bewertbaren Reflexe auf der anderen Seite der Fokusebene mit gezeigt werden.

Ein Beispiel, welches in Deine Interpretation passen würde vom 85/1.2L:
http://www.photo.net/bboard/q-and-a-fetch-msg?msg_id=00BN1w&unified_p=1

Ein Bild mit dem 50/1.4, in dem über recht weite Strecken das violette Ausbrechen dominiert:
http://patternassociates.com/rico/d30/misc/lca50ef.jpg
... oder die gleiche Szene mit einem Zeiss 50/1.4:
http://patternassociates.com/rico/d30/misc/lca50cy.jpg
... und dennoch zeigte wohl ein Fokus-Bracketing ein Umschlagen ins Grüne, wobei das für mich als Grün-schwacher Seher schwer zu sagen ist, schau´ mal lieber selbst:
http://www.fredmiranda.com/forum/topic2/135331/0

Weitere Samples sollten wir ja noch auftreiben können ...

Nightshot
25.11.2005, 20:55
BIn selber gerade am Suchen, und finde meist nur Bilder, die halt nur PF zeigen, aber bei denen keine bewertbaren Reflexe auf der anderen Seite der Fokusebene mit gezeigt werden.
Jep, ich suche auch noch, aber meist bekommt man nicht mehr das ganze Bild zu sehen. Zum 85/1.2 habe ich noch eines gefunden:
http://www.pbase.com/stephenl/image/36841899

Ein Beispiel, welches in Deine Interpretation passen würde vom 85/1.2L: http://www.photo.net/bboard/q-and-a-fetch-msg?msg_id=00BN1w&unified_p=1
Das ist ja wie aus dem Bilderbuch :D

Ein Bild mit dem 50/1.4, in dem über recht weite Strecken das violette Ausbrechen dominiert:http://patternassociates.com/rico/d30/misc/lca50ef.jpg... oder die gleiche Szene mit einem Zeiss 50/1.4:http://patternassociates.com/rico/d30/misc/lca50cy.jpg
Selbst bei den ersten beiden Bildern ohne Fokus-Bracketing sieht man es, denn ich glaube nicht, dass die Tasten vom Telefon grün sind.
Ich hab den Alufolientest mit meinem 50er für mehrere Blenden gemacht, da ich wissen wollte wann das verschwindet und das erstaunliche war, dass es nie verschwindet. Der Bereich, in dem das Bild scharf ist, wird recht schnell sauber, aber das Bokeh bleibt immer entweder grün oder lila lastig. Eine Farbe hat immer einen Unschärfevorsprung. Das fällt unter normalen Bedingungen natürlich nie auf, aber wenn man es darauf anlegt kann man es sehen.

Nightshot
28.11.2005, 15:51
Auch wenn es mir noch nicht gelungen ist, Dich vollständig von meiner Interpretation zu überzeugen, so hab ich doch versucht noch etwas mehr Theorie in die Sache zu bekommen.
Das ist jetzt nichts bahnbrechend Neues, aber wie so häufig kommt es darauf an, wie die Informationen zusammengestellt werden. Erst mal ein Link zu einer wirklich guten Seite von Zeiss ( http://www.zeiss.de/C12567A8003B0478/Contents-Frame/6B745691B0DC810AC12569BC0044FD78) über die Möglichkeiten der chromatischen Korrektur bei Objektiven, oder wer es anschaulicher braucht hier die Abbildung 3 ( http://www.microscopyu.com/tutorials/java/aberrations/chromatic/).

Unter Einsatz von „normalen“ Glassorten, d.h. Glas mit normaler Dispersion ist lediglich eine achromatische Korrektur möglich. Hier fallen für zwei Wellenlängen die Fokusebenen zusammen und direkt daraus resultiert dieses typische grün-pinke Verhalten der Unschärfe. Da grün in der Mitte der beiden Wellenlängen liegt, ist die mögliche Abweichung von der gewünschten Fokusebene nicht sonderlich groß, wodurch die nur geringe Neigung zu grünen fringes erklärbar wird. Sind hingegen auch sehr lange (tiefes rot) und sehr kurze (tiefes blau) Wellenlängen vorhanden, so kann die Abweichung beträchtliche Ausmaße annehmen. Erst durch Einsatz von Gläsern mit anormaler Dispersion wie Fluoridglas oder UD-Glas, kann dieses sekundäre Spektrum verringert werden.
Um jetzt etwas Canon konkreter zu werden, erstaunlich viele Objektive sind hier noch ohne diese speziellen Glassorten. Selbst das berühmte rote "L" ist kein Garant für apochromatische Korrektur. So hat keines der 85mm Objektive Gläser mit anormaler Dispersion. Erst die neueren L-Rechnungen können dies vorweisen, was aber nicht bedeutet, dass diese automatisch frei von Farbfehlern sind. Bei Canons "normalen" Objektiven, die ohne Fluoridglas auskommen mussen, gehören die PFs damit aber auch zur Tagesordnung.

Micha67
28.11.2005, 16:57
Auch wenn es mir noch nicht gelungen ist, Dich vollständig von meiner Interpretation zu überzeugen, ...
Du bist diesbezüglich aber auf einem sehr guten Weg!


Erst durch Einsatz von Gläsern mit anormaler Dispersion wie Fluoridglas oder UD-Glas, kann dieses sekundäre Spektrum verringert werden.
Um jetzt etwas Canon konkreter zu werden, ...
Selbst das berühmte rote "L" ist kein Garant für apochromatische Korrektur. So hat keines der 85mm Objektive Gläser mit anormaler Dispersion. Erst die neueren L-Rechnungen können dies vorweisen, was aber nicht bedeutet, dass diese automatisch frei von Farbfehlern sind. Bei Canons "normalen" Objektiven, die ohne Fluoridglas auskommen mussen, gehören die PFs damit aber auch zur Tagesordnung.Die apochromatische Korrektur wird umso wichtiger, je länger die Brennweite ist, da sich natürlich Winkelfehler (eben die Farbdispersion) auf längere Laufstrecken hin deutlicher auswirken. Mit "alter" oder "neuer" Rechnung hat dies allerdings nur sehr wenig zu tun, da Fluoritgläser mit anormaler Teildispersion im Hause Canon schon seit den 70ern eingeführt sind: das FL (!) 300/2.8 S.S.C. fluorite hat 1974 den Anfang gemacht, UD-Gläser gehören seit 1978 mit dem Chromring-FD 300/4 L zum Programm. Die Abwesenheit von Fluoritelementen/UD-Glas in den 85ern hat also weniger mit deren Alter zu tun, sondern war vermutlich ein bewusster Entschluss, um die Produktionskosten durch die Sonderschmelzen bzw. Kunstkristalle nicht zu sehr nach oben zu treiben.

Der Grund, warum diese Gläser erst ab 135 mm Brennweite routinemäßig verbaut wurden, dürfte in den üblichen Toleranzen von 0,03 mm Z-Kreisdurchmesser liegen, die auch ohne UD-Glas oder Fluorit zu stemmen waren. Dass man mittlerweile die Pixel mit der Lupe nach solchen Farbstörungen absucht und dass in der Digitalära die Farbtönung dieser Pixel an ausgefressenen Kontrastkanten so ultrahart verläuft, hat man wohl nicht bedacht.

Es könnte in der Tat sein, dass bei neueren Rechnungen, die dann auch hoffentlich in Produkte umgesetzt werden, genau diese Punkte bedacht werden, allerdings ist es auch möglich, dass man sich von den ganz extremen Öffnungsverhältnissen wieder wegbewegt. Die eingestellten Objektive 50/1.0 (vernünftigerweise) und 200/1.8 (leider) deuten in diese Richtung.

Nightshot
28.11.2005, 18:28
Die Abwesenheit von Fluoritelementen/UD-Glas in den 85ern hat also weniger mit deren Alter zu tun, sondern war vermutlich ein bewusster Entschluss, um die Produktionskosten durch die Sonderschmelzen
bzw. Kunstkristalle nicht zu sehr nach oben zu treiben.
Der Preis spielt bestimmt immer eine Rolle, aber das 85er ist auch schon von 1989. Wenn ich mir die neueren Rechnungen / Objektive so ansehe wie: 24/1,4L (1997), 16-35/2,8L (2001), 17-40/4L (2003), 24-70/2,8L (2002) und 24-105/4L (2005), dann scheint Canon erkannt zu haben, dass auch kürzere Brennweiten damit bestückt werden sollten.
Das neue 24-105 zeigt noch recht schöne TCA ( http://galleriet.akam.no/album1615/aah?full=1), aber bezüglich LCA ( http://galleriet.akam.no/album1615/aab?full=1) scheint die besondere Glassorte Wirkung zu zeigen. Ist zwar leider schon mit f=6,3 aufgenommen, aber in Bokeh würde man die Farben noch sehen.

Dass man mittlerweile die Pixel mit der Lupe nach solchen Farbstörungen absucht und dass in der Digitalära die Farbtönung dieser Pixel an ausgefressenen Kontrastkanten so ultrahart verläuft, hat man wohl nicht bedacht.
Die Chips fordern die Linsen wirklich bis über ihre Grenzen, aber dadurch kommt hoffentlich wieder etwas Bewegung in das Linsendesign und das nicht nur bei den langen Brennweiten.

Die eingestellten Objektive 50/1.0 (vernünftigerweise) und 200/1.8 (leider) deuten in diese Richtung.
Ich träume immer noch von einem 50/1,2L oder zumindest ein 50/1,4L (APO) :D

Micha67
28.11.2005, 22:26
Der Preis spielt bestimmt immer eine Rolle, aber das 85er ist auch schon von 1989. Wenn ich mir die neueren Rechnungen / Objektive so ansehe wie: 24/1,4L (1997), 16-35/2,8L (2001), 17-40/4L (2003), 24-70/2,8L (2002) und 24-105/4L (2005), dann scheint Canon erkannt zu haben, dass auch kürzere Brennweiten damit bestückt werden sollten.
OK, Du spielst vor allem auf die Zooms an. Hier könnte es sein, dass man die hochbrechenden Gläser gar nicht wegen der Dispersionseigenschaften, sondern wegen deren hohen Brechungsindex verbaut, der eine Platz-sparendere Konstruktion der Elemente und Gruppen erlaubt.


Das neue 24-105 zeigt noch recht schöne TCA ( http://galleriet.akam.no/album1615/aah?full=1), aber bezüglich LCA ( http://galleriet.akam.no/album1615/aab?full=1) scheint die besondere Glassorte Wirkung zu zeigen. Ist zwar leider schon mit f=6,3 aufgenommen, aber in Bokeh würde man die Farben noch sehen.
Bei den Brennweiten und f/4 ist das nicht so dramatisch, dass die Korrektur unbedingt apochromatisch sein müsste.


Die Chips fordern die Linsen wirklich bis über ihre Grenzen, aber dadurch kommt hoffentlich wieder etwas Bewegung in das Linsendesign und das nicht nur bei den langen Brennweiten.
... oder ist doch durch die knapp 3 mm falschem Brechungsindex diese etwas untypische CA provoziert? Kennst Du Beispiele aus Analogzeiten, die diese Säume zeigen?


Ich träume immer noch von einem 50/1,2L oder zumindest ein 50/1,4L (APO) :DGrrrr, das ist MEIN Traum (ersetze Apo durch Asph.)! ;-)

Nightshot
02.12.2005, 17:15
So, da bin ich wieder :D

OK, Du spielst vor allem auf die Zooms an.
Ich würde gerne Festbrennweiten nehmen, aber Canon hat sich da in den letzten Jahren ja vornehm zurück gehalten.


Hier könnte es sein, dass man die hochbrechenden Gläser gar nicht wegen der Dispersionseigenschaften, sondern wegen deren hohen Brechungsindex verbaut, der eine Platz-sparendere Konstruktion der Elemente und Gruppen erlaubt.
Bist Du dir sicher, dass diese Gläser mit anormaler Teildispersion einen höheren Brechungsindex haben? (Fluorit = 1,439 und normales Glas = ca. 1,5)


... oder ist doch durch die knapp 3 mm falschem Brechungsindex diese etwas untypische CA provoziert?
So untypisch finde ich das gar nicht. Man muss sich von der Vorstellung der drei Farben und drei Fokusebenen lösen. Es gibt keine unkorrigierten Einlinser mehr und jedes Objektiv wird inzwischen mindestens eine verkittete Linsengruppe zum Achromaten haben.

Das Programm zur Berechnung des 3mm Sperrfilters vor dem Sensor habe ich wieder ausgegraben und etwas verfeinert. Als Annahme habe ich das Objektiv durch eine idealisierte 50mm Linse ersetzt und der Filter soll aus normalem optischem Glas (BK7) bestehen. Drei Lichtpunkte sollen abgebildet werden, einmal in der Bildmitte (Field1), in der Ecke vom Vollformat (Field2) und dann noch die Ecke eines Crop 1,6 CCDs (Field3). Der Abstand Objektiv / Sensor wurde für den zentralen Bildpunkt bei 550nm optimiert. Unter diesen Bedingungen ist die Auswirkung der 3mm dicken Glasplatte doch enorm. :eek:
Während die Abbildung in der Bildmitte bei Blende 2,8 immer noch nahezu Punktförmig (http://home.arcor.de/rainer.hoenle/forum/Matrix_2,8.gif) ist, so wird die Abbildung zum Bildrand hin doch stark komaförmig (Mitte ist FF und unten ist Crop an der gegenüberliegenden Sensorseite, daher das Koma in die andere Richtung). Hier (http://home.arcor.de/rainer.hoenle/forum/Spot_2,8.gif) sind die Spots mit Maßen versehen und die Unschärfe in der Ecke vom FF beträgt immerhin 4 Pixel. RMS Radius ist 27 Mikrometer und wenn man sogar den geometrischen nimmt, so sind es gar 66 (ca 8 Pixel).
Das zuerst perfekt angenommene Objektiv verschlechtert sich durch den Filter doch recht beachtlich. Von dem System habe ich mal den MTF Chart (http://home.arcor.de/rainer.hoenle/forum/MTF_2,8.gif) plotten lassen. Der eigentliche MTF Chart vom Objektiv muss also noch mit diesem hier multipliziert werden. Da geht es schon ziemlich ans Eingemachte. Bleibt nur zu hoffen, dass der Filter bei FF Kameras deutlich dünner ausfällt.
Geht man noch weiter zu Blende 1,4, so wird es fast unerträglich. Hier die Matrix (http://home.arcor.de/rainer.hoenle/forum/Matrix_1,4.gif), die Spotdiagramme (http://home.arcor.de/rainer.hoenle/forum/Spot_1,4.gif)und der beängstigende MTF Chart (http://home.arcor.de/rainer.hoenle/forum/MTF_1,4.gif).

Eigentlich ging es ja darum, ob man diesen Filter für die CA’s verantwortlich machen kann. Ich hab hier die RMS Werte bei Blende 1,4 für den zentralen Bildpunkt: blau = 12,1 grün = 9,9 und rot = 8,7. So schlimm die Auswirkungen auf das Bild vor allem in den Ecken auch sind, die spektrale Aufspaltung bleibt im Subpixelbereich. Der Unterschied bezüglich der Farben bleibt auch am Bildrand minimal (66,8/64,8/63,7). Die Strecke von 3mm reicht bei dem Brechungsindex von normalem Glas nicht aus, um größere Dispersion hervorrufen zu können.
Generell fällt mir kein physikalisches Prinzip ein, dass auf so kurzer Stecke eine dermaßen große dispersive Wirkung entfalten könnte, wie wir es bei den PF’s sehen. Das können nur längere Strecken in Glas bewirken.


Kennst Du Beispiele aus Analogzeiten, die diese Säume zeigen?
Die Beispiele vom Analogfilm müssen etwas anders aussehen, da Analogfilm eine deutlich höhere Empfindlichkeit für langwelligeres Rot hat, als wir es bei CCD kennen. Ich bin noch auf der Suche in meinem Archiv. Meine Oma hat noch einen analogen Canon Body, den werde ich mir demnächst mal schnappen und richtige Vergleichsbilder gegen Digital machen. Man weiß ja inzwischen, wie man die PF’s provozieren kann.
Ich glaube wir sollten uns auf der Suche nach Wahrheit nun mehr darauf spezialisieren, woher die unterschiedlichen Auswirkungen je nach Aufnahmemedium kommen, also spektraler Response von Film ver. CCD.


Grrrr, das ist MEIN Traum (ersetze Apo durch Asph.)! ;-)
Hast ja recht, das Koma ist störender als die CA's, aber nach den Rechnungen oben, bin ich gar nicht mehr so sicher, dass bei den Filterdimensionen noch was von übrig bleibt.

Micha67
02.12.2005, 18:49
Bist Du dir sicher, dass diese Gläser mit anormaler Teildispersion einen höheren Brechungsindex haben? (Fluorit = 1,439 und normales Glas = ca. 1,5)Calciumfluorit-Linsen sind ja auch in den kurzbrennweitigen Zoomobjektiven nicht zu finden. Hier setzt man auf UD-Glas, also "ultralow-dispersion", aber keinesfalls auf die "dick auftragenden" Fluoritelemente, deren anormale Teildispersion zur apochromatischen Korrektur langer Brennweiten eingesetzt wird. Das Verhalten zwischen refraktivem Index und Dispersion, aka. Abbe-Zahl, geht nicht wirklich linear miteinander einher. Noch weniger korreliert die nicht-Linearität der Dispersion, das "sekundäre Spektrum" mit den Brechungsindices. Als Beispiel kannst Du ja mal die Glassorten von Schott ansehen (Auftragung des Brechungsindex verschiedener Gläser versus deren Dispersion/Abbe-Zahl):
http://www.schott.com/optics_devices/german/products/flash/abbediagramm_flash.html


So untypisch finde ich das gar nicht. Man muss sich von der Vorstellung der drei Farben und drei Fokusebenen lösen. Es gibt keine unkorrigierten Einlinser mehr und jedes Objektiv wird inzwischen mindestens eine verkittete Linsengruppe zum Achromaten haben.
Hier geht es doch noch nicht einmal um ein einfaches Linsenelement, sondern lediglich um eine Planoptik, in der sich natürlich die Brennweite des Objektivs unnatürlich verlängert, und dies umso mehr, wie durch verschiedene Einfallswinkel unterschiedlich lange Wegstrecken im "falschen Brechungsindex" zurückgelegt werden müssen.


Das Programm zur Berechnung des 3mm Sperrfilters vor dem Sensor ...
Das zuerst perfekt angenommene Objektiv verschlechtert sich durch den Filter doch recht beachtlich.Das beruhigt mich zumindest insofern, als der "normale Menschenverstand" dies ja auch nahelegen würde. In der Tat dürfte es wichtig sein, das AA-Filter gerade bei Situationen mit geringem Abstand der Austrittspupille vom Sensor und/oder hohen Öffnungen der verwendeten Objektive nicht gar so dick zu gestalten, da man sonst dieses zusätzliche Element eigentlich in die Korrektur der Optik hineinrechnen müsste.


Eigentlich ging es ja darum, ob man diesen Filter für die CA’s verantwortlich machen kann. Ich hab hier die RMS Werte bei Blende 1,4 für den zentralen Bildpunkt: blau = 12,1 grün = 9,9 und rot = 8,7. So schlimm die Auswirkungen auf das Bild vor allem in den Ecken auch sind, die spektrale Aufspaltung bleibt im Subpixelbereich. Der Unterschied bezüglich der Farben bleibt auch am Bildrand minimal (66,8/64,8/63,7). Die Strecke von 3mm reicht bei dem Brechungsindex von normalem Glas nicht aus, um größere Dispersion hervorrufen zu können.OK, also die Lauflänge hinter dem provozierten Winkelfehler reicht nicht aus. Ergo wird es nicht ein am Filterelement entstehender Winkelfehler sein. Dann bleibt die nicht-Übereinstimmung der numerischen Apertur der Mikrolinsen mit dem Lichteinfall hochgeöffneter kurzer Brennweiten aber immer noch als lokal einwirkender Störfaktor übrig.


Generell fällt mir kein physikalisches Prinzip ein, dass auf so kurzer Stecke eine dermaßen große dispersive Wirkung entfalten könnte, wie wir es bei den PF’s sehen. Das können nur längere Strecken in Glas bewirken.Sicher, durch Refraktion geht es - wie Du gezeigt hast - nicht. Was aber mit Reflexion und Streuung?



Die Beispiele vom Analogfilm müssen etwas anders aussehen, da Analogfilm eine deutlich höhere Empfindlichkeit für langwelligeres Rot hat, als wir es bei CCD kennen. Ich bin noch auf der Suche in meinem Archiv. Meine Oma hat noch einen analogen Canon Body, den werde ich mir demnächst mal schnappen und richtige Vergleichsbilder gegen Digital machen. Man weiß ja inzwischen, wie man die PF’s provozieren kann. Ich glaube wir sollten uns auf der Suche nach Wahrheit nun mehr darauf spezialisieren, woher die unterschiedlichen Auswirkungen je nach Aufnahmemedium kommen, also spektraler Response von Film ver. CCD.Tja, vielleicht ist es ja wirklich so und man hat nur nicht so genau hingesehen? So ganz klar ist mir aber dennoch nicht, wieso das Spektralverhalten dabei so entscheidend sein kann. Immerhin ist ja das Spektralverhalten der Sensoren durch das Bayer-Mosaic und die demosaic-Matritzenrechnung dem Verhalten des Filmes angenähert ...


Hast ja recht, das Koma ist störender als die CA's, aber nach den Rechnungen oben, bin ich gar nicht mehr so sicher, dass bei den Filterdimensionen noch was von übrig bleibt.
Du meinst, Du bezweifelst, ob man durch eine asphärische Fläche überhaupt relevant das Gesamt-Koma reduziert, was ja in dem Fall schon deutlich von der dicken Filterschicht herrührt? Das mag sein. Da ich aber mein 50/1.4 derzeit noch zu 100% analog einsetze und dort schon das Koma störend sehe, fände ich es dennoch schön, ein besser für Offenblende auskorrigiertes Normalobjektiv zu sehen. Es müsste ja gar nicht f/1.2 oder gar f/1.0 sein. Als "stinknormales" 50/1.4L Asph. wäre es schon absolut ein Fortschritt. Aber wie Du bereits bemerktest: die Festbrennweiten sind bei Canon in der letzten Zeit kaum mehr mit Neuerungen bedient worden ...

Nightshot
02.12.2005, 23:12
Hier setzt man auf UD-Glas, also "ultralow-dispersion", aber keinesfalls auf die "dick auftragenden" Fluoritelemente, deren anormale Teildispersion zur apochromatischen Korrektur langer Brennweiten eingesetzt wird.
Spannende Sache, aber was verwendet Canon wenn sie von UD-Glas sprechen? Entweder lowdispersion, also große Abbezahl oder hohen Brechungsindex? Laut dem Schottdiagramm geht nicht wirklich beides zusammen. Mit anderen Worten bedeutet die werbewirksame Aussage "wir verwenden UD-Glas" dann: Wir setzen hoch brechende Gläser ein, um klein bauen zu können, aber damit die Qualität nicht zu schlecht wird haben sie immerhin eine geringe Dispersion???
Sind die einzigen APO korrigierten Objektive von Canon die mit CaF2 und alle anderen sind "nur" achromatisch und nach meiner Theorie PF anfällig?

Hier geht es doch noch nicht einmal um ein einfaches Linsenelement, sondern lediglich um eine Planoptik, in der sich natürlich die Brennweite des Objektivs unnatürlich verlängert
Da haben wir uns jetzt missverstanden. Ich glaubte, Du meinst, dass die PFs als LCA eine unnatürliche Erscheinungsform wären, da die Farben nicht gestaffelt auftreten, so wie man das in der Schule lernt (erst blau, dann grün und dann rot scharf). Aber sobald eine Optik achromatisch ist, gibt es eben Überschneidungen.

In der Tat dürfte es wichtig sein, das AA-Filter gerade bei Situationen mit geringem Abstand der Austrittspupille vom Sensor und/oder hohen Öffnungen der verwendeten Objektive nicht gar so dick zu gestalten, da man sonst dieses zusätzliche Element eigentlich in die Korrektur der Optik hineinrechnen müsste.
Und da liegt der Hund begraben. Habe ich eine große Öffnung, so ist die Grundunschärfe bereits ausreichend und ich brauche keinen AA-Filter. Mache ich die Blende zu, dann brauche ich einen Filter. Dieser Glasklotz als Filter arbeitet genau in die falsche Richtung.

Dann bleibt die nicht-Übereinstimmung der numerischen Apertur der Mikrolinsen mit dem Lichteinfall hochgeöffneter kurzer Brennweiten aber immer noch als lokal einwirkender Störfaktor übrig.
Willst Du damit sagen, dass das nicht einzufangende Licht ja irgendwo hin muss, also vagabundieren? Da stimme ich sofort zu, aber ich suche eben nach einem Mechanismus, um dieses Licht spektral zu zerlegen und das auf kleinstem Raum. Und da finde ich nicht.

Sicher, durch Refraktion geht es - wie Du gezeigt hast - nicht. Was aber mit Reflexion und Streuung?
Beginnen wir mit Streuung. Die einzige mir bekannte Streuung mit dispersiver Wirkung ist die Rayleigh-Streuung. Dafür brauchen wir Partikel, deren Ausdehnung kleiner als die Wellenlänge ist. Ich finde da in der Nähe der Pixel aber nichts in der Größenordnung von 10 bis 100nm, das in ausreichender Dichte vorhanden wäre und zudem ist die Wegstrecke viel zu klein. Ich brauche mehrere km Luft Wegstrecke, um Licht (den Himmel) blau zu machen.
Nun zur Reflexion, die ist dafür bekannt, dass sie kaum selektiv für Wellenlängen ist. Ich könnte auf die Mikrolinsen mehrere Interferenzschichten aufbringen, die spektral aufspalten und dabei reflektieren. Jetzt wird’s aber schon sehr hypothetisch und wenn Du das weiter verfolgen willst, dann musst Du mir den Stahlengang aufzeichnen :D

So ganz klar ist mir aber dennoch nicht, wieso das Spektralverhalten dabei so entscheidend sein kann. Immerhin ist ja das Spektralverhalten der Sensoren durch das Bayer-Mosaic und die demosaic-Matritzenrechnung dem Verhalten des Filmes angenähert ...
Das Spektralverhalten in der Mitte des optischen Bereiches auf jeden Fall, da erwarte ich keinen Unterschied. Mir geht es mehr um die Randbereiche, also sehr kurzwellig und langwellig, denn da werden die LCA Abweichungen ja am größten. Wenn ein CCD z.B. 400nm noch wahr nimmt und das Objektiv da ein schönes weiches Bild zaubert, so haben alle hellen Punkte einen blauen Saum. Kümmert sich der Film aber nicht mehr um die 400nm, so zeichnet er den blauen Saum einfach nicht auf.

Als "stinknormales" 50/1.4L Asph. wäre es schon absolut ein Fortschritt.
Klar, je besser das Objektiv, umso besser wird auch das Ergebnis sein, auch wenn der Filter noch eine Portion Koma dazu mischt. Ich muss es an Crop auf 2,5 abblenden, um fast komafrei zu sein.

Micha67
03.12.2005, 15:38
Spannende Sache, aber was verwendet Canon wenn sie von UD-Glas sprechen? Entweder lowdispersion, also große Abbezahl oder hohen Brechungsindex? Laut dem Schottdiagramm geht nicht wirklich beides zusammen. Mit anderen Worten bedeutet die werbewirksame Aussage "wir verwenden UD-Glas" dann: Wir setzen hoch brechende Gläser ein, um klein bauen zu können, aber damit die Qualität nicht zu schlecht wird haben sie immerhin eine geringe Dispersion??? Sind die einzigen APO korrigierten Objektive von Canon die mit CaF2 und alle anderen sind "nur" achromatisch und nach meiner Theorie PF anfällig?Man muss die Dispersion immer in Relation zur Brechkraft sehen. Haben wir also ein Glas mit hoher Brechkraft, so benötigt die Linse weniger enge Radien (sie kann dünner ausgeführt werden) und erzeugt damit wiederum weniger Dispersion. Der Achromat beherrscht eben nur die Korrektur auf zwei Farben, mit zusätzlichem Fluorid und dessen anormaler Teildispersion kann der Winkelfehler weiter reduziert und eine dritte Farbe in den gleichen Fokus gebracht werden. Letzteres gelingt mit den UD-Elementen nicht ganz so perfekt. Welches Glas nun "UD" oder "super-UD" nun wirklich ist, kann ich Dir leider nicht sagen, zumindest verwendet man heutzutage nicht mehr radioaktive Geschichten wie Thorium o.ä. zur Herstellung hochbrechender Gläser.


Willst Du damit sagen, dass das nicht einzufangende Licht ja irgendwo hin muss, also vagabundieren? Da stimme ich sofort zu, aber ich suche eben nach einem Mechanismus, um dieses Licht spektral zu zerlegen und das auf kleinstem Raum. Und da finde ich nicht.das einfachste wäre schon mal die Farbmaske selbst, die ja reflektierende Anteile besitzt. Dann das AA-Filter, welches ja im Rahmen seiner Funktionsweise noch mehr Wellenlängenabhängigkeit zeigen könnte, als es durch "klassische Dispersion" zu begründen wäre.

Micha67
07.12.2005, 17:02
Was haltet Ihr von dem Beispiel unter:
http://www.dslr-forum.de/showthread.php?t=65319 (2. Beitrag)?

Hier sehe ich sowohl vor (Lenkradreif) als auch hinter (Blinkerhebel) der Fokusebene blauviolette Säume und in diesem Fall keinen Farbumschlag.

PF = LCA???

Nightshot
08.12.2005, 00:27
Jetzt haben die mich doch glatt auf eine Tagung ohne Internetanschluss verschleppt. Das ist kalter Entzug, wenn man nicht gerade auf einem Berg ist. :p

Haben wir also ein Glas mit hoher Brechkraft, so benötigt die Linse weniger enge Radien (sie kann dünner ausgeführt werden) und erzeugt damit wiederum weniger Dispersion.
Also da holt mich die Geschichte doch wieder ein. Klar, ich kann die Linse dünner bauen, da der Brechungsindex höher ist. Damit habe ich aber auch wieder eine höhere Dispersion (zwar auf kürzerer Strecke) aber die Auffächerung der Farben ist wieder die gleiche. Mit diesen hoch brechenden Gläsern kann ich Linsensysteme bauen, die ohne nicht gingen, da ich die Linsenradien entweder beim Fertigen oder beim Zusammenbauen (Linsen würden sich überlappen) nicht in den Griff bekommen würde. An der Anfälligkeit für CA ändert das doch herzlich wenig oder?

Letzteres gelingt mit den UD-Elementen nicht ganz so perfekt.
Ich dachte UD-Elemente sind nur einzelne Linsen und keine gekitteten Gruppen.

Dann das AA-Filter, welches ja im Rahmen seiner Funktionsweise noch mehr Wellenlängenabhängigkeit zeigen könnte, als es durch "klassische Dispersion" zu begründen wäre.
Wenn der AA-Filter wirklich mit dem IR Sperrfilter zusammen deutlich vor dem Sensor liegen, dann kann der auch nicht Schuld sein. Woher sollte er denn „wissen“, dass die Lichtstrahlen, die er gerade unter einem bestimmten Winkel verarbeitet vor oder hinter der Fokusebene liegen wird? Nur wenn ich nahe am Fokus bin, könnte ich unterscheiden zwischen konvergierenden und divergierenden Strahlen und so entweder pinke oder grüne Ringe produzieren.

Das einfachste wäre schon mal die Farbmaske selbst, die ja reflektierende Anteile besitzt.
Das sind wirklich gute Kandidaten, wobei sich mir da schon wieder eine Frage stellt. Der Sensor erscheint grün, wenn ich ihn mir ansehe. Das meiste sind ja auch für grün empfindliche Sensoren, aber die sollen doch grün durchlassen und das rote und blaue Spektrum reflektieren. Somit sollte der Sensor doch lila aussehen? Da er das nicht tut, muss es anders sein. Die grüne Farbmaske absorbiert rot und blau, lässt grün durch, wird am eigentlichen Sensorelement reflektiert und kann als grüner Lichtstrahl wieder die Farbmaske passieren. Der Hauptanteil an vagabundierendem Licht müsste damit aber grün sein. Das deckt sich dann aber auch mit keiner von mir gemachten Beobachtung.

Hier sehe ich sowohl vor (Lenkradreif) als auch hinter (Blinkerhebel) der Fokusebene blauviolette Säume und in diesem Fall keinen Farbumschlag.
Also ich sehe in dem Bild auch keinen wirklichen Farbumschlag, aber mir fällt es auch schwer eine echte Fokusebene ausmachen zu können. Das ganze Bild hat einen untypischen Weichzeichnereffekt und ist durch die spiegelnde Seitenscheibe aufgenommen worden. Die blauen Flecken tauchen auch an recht ungewöhnlichen Stellen auf (oberster Bildrand am Lenkrad). Das Exif scheint ja komplett zerschossen zu sein, aber mein Tipp ist folgender: Der Weißabgleich steht auf Kunstlicht, da das Auto wohl in einer Garage oder Halle steht. Die hellen Reflexe würde ich dem Tageslicht zuordnen und das gibt einen ziemlich blauen Eindruck und die schräge Glasscheibe macht den Weichzeichner.
Geh doch mal zum anderen Bild gleich daneben (das mit dem Koala am Hebel) und achte auf den gelbumrandeten Reflex am „Türgriff???“ im Hintergrund. Der bekommt weniger Tagslicht ab und ist auch weiter aus der Fokusebene verschoben. Aber bei dem Mischlicht ist es schwer eine genaue Aussage zu treffen.

Micha67
08.12.2005, 01:30
Klar, ich kann die Linse dünner bauen, da der Brechungsindex höher ist. Damit habe ich aber auch wieder eine höhere Dispersion (zwar auf kürzerer Strecke) aber die Auffächerung der Farben ist wieder die gleiche.Sie ist aus 2 Gründen nicht gleich: 1. sinkt die Abbé-Zahl nicht proportional mit ansteigendem Brechungsindex und 2. kann die folgende Linse eben näher verbaut werden, so dass die Wegstrecke bis zur folgenden Auskorrektur der Dispersion geringer ausfällt und damit der Winkelfehler weniger ins Gewicht fällt.


Mit diesen hoch brechenden Gläsern kann ich Linsensysteme bauen, die ohne nicht gingen, da ich die Linsenradien entweder beim Fertigen oder beim Zusammenbauen (Linsen würden sich überlappen) nicht in den Griff bekommen würde. An der Anfälligkeit für CA ändert das doch herzlich wenig oder?Freilich ändert es etwas, und die Begründung hast Du bereits selbst angeführt: mit UD-Linsen sind Konstruktionen möglich, die sonst nicht gingen: damit erhöhen sich auch die Möglichkeiten zur Farbkorrektur.


Ich dachte UD-Elemente sind nur einzelne Linsen und keine gekitteten Gruppen.... weswegen ich ja auch von UD-Elementen und nicht von Gruppen sprach.


Wenn der AA-Filter wirklich mit dem IR Sperrfilter zusammen deutlich vor dem Sensor liegen, dann kann der auch nicht Schuld sein. Woher sollte er denn „wissen“, dass die Lichtstrahlen, die er gerade unter einem bestimmten Winkel verarbeitet vor oder hinter der Fokusebene liegen wird? Nur wenn ich nahe am Fokus bin, könnte ich unterscheiden zwischen konvergierenden und divergierenden Strahlen und so entweder pinke oder grüne Ringe produzieren.Du gehst in dieser Argumentation bereits von 100%-iger Sicherung des Befundes aus, dass PF auf der Gegenseite zur Fokusebene *immer* umschlage.
Nimm mal für einen kurzen Moment an, dass PF wirklich rein purple wären, so würde eine Dispersion im AA-Filter durchaus möglich sein. Selbst wenn der Farbumschlag regelmäßig stattfände, so könnte immer noch die deutlich höhere Dispersion von Blauviolett durch eine andere Fokuslage kompensiert werden können. Was auch für einen Effekt des AA-Filters spräche, ist die Beobachtung, dass PF nur an ausgefressenen Reflexen mit idealerweise dunkler Umgebung sichtbar wird. Dies spricht nicht für homogene Farbdispersion, da ja in dem Fall der Komplette Farbanteil ausbrechen müsste. Vielmehr haben wir eine Störung, deren laterale Dämpfung zwar noch hoch ist, aber eben bei lokalen Spitzlichtern nicht mehr ganz ausreichend ist.


Der Sensor erscheint grün, wenn ich ihn mir ansehe. Das meiste sind ja auch für grün empfindliche Sensoren, aber die sollen doch grün durchlassen und das rote und blaue Spektrum reflektieren. Somit sollte der Sensor doch lila aussehen? Da er das nicht tut, muss es anders sein. Die grüne Farbmaske absorbiert rot und blau, lässt grün durch, wird am eigentlichen Sensorelement reflektiert und kann als grüner Lichtstrahl wieder die Farbmaske passieren. Der Hauptanteil an vagabundierendem Licht müsste damit aber grün sein. Das deckt sich dann aber auch mit keiner von mir gemachten Beobachtung.Von der Farbe eines Filters direkt auf dessen Reflexionseigenschaftern zu schliessen, ist riskant, da Du ja nicht weisst, ob die Transmissionseigenschaften durch reine Absorption zustandekommen, oder duch Farb-selektive Reflexion. Ein 500 nm Langpassfilter sieht z.B. beim Durchsehen oder aud ein weisses Blatt Papier gelegt gelb aus. Schaut man aber flach auf das Filter und sieht damit die Lichtanteile, die vom Filter reflektiert werden, so erscheint das Filter hellblau. Wenn Du also die Farbe eines Sensors bewertes, der mit einer RGB-Farbmaske ausgestattet ist, so hast Du eine wilde Mischung aus Transmissions- und Reflexionseigenschaften der drei einzelnen Grundfarben vor Dir.

Nightshot
08.12.2005, 19:09
mit UD-Linsen sind Konstruktionen möglich, die sonst nicht gingen: damit erhöhen sich auch die Möglichkeiten zur Farbkorrektur.
Da hast wieder mal recht. Ich hätte nur einen Schritt weiter denken müssen. :o

Nimm mal für einen kurzen Moment an, dass PF wirklich rein purple wären, so würde eine Dispersion im AA-Filter durchaus möglich sein. Selbst wenn der Farbumschlag regelmäßig stattfände, so könnte immer noch die deutlich höhere Dispersion von Blauviolett durch eine andere Fokuslage kompensiert werden können.
Also in dem Abschnitt hast mich inhaltlich abgehängt und da hab ich mir gedacht, bevor ich hier mein Hirn verrenke suche ich Bilder von dem Leica DMR. Und tataaa... ich hab auch welche gefunden. Nur glücklich machen sie mich auch nicht. Also hier aufgenommen mit dem 21-35er eines aus der Bildmitte (http://home.arcor.de/rainer.hoenle/forum/Leica_mitte.jpg) und eines aus der Bildecke (http://home.arcor.de/rainer.hoenle/forum/Leica_ecke.jpg) (beide 250%). Somit sollte der hier nicht vorhandene AA-Filter vom Tisch sein, aber erklären kann ich das hier gezeigte auch nicht. Das von der Bildmitte ändert den Saum von blau auf grün, je nach Hintergrundbeleuchtung (das bekomme ich noch halbwegs gebacken mit der Gaußerklärung unten), aber bei der Bildecke setzt es aus. Das ist weder TCA noch LCA! Und bevor ich es vergesse, die Bilder habe ich hier ( http://www.leicaphoto.net/Download/DMR_Raw/index.html) "geklaut".

Was auch für einen Effekt des AA-Filters spräche, ist die Beobachtung, dass PF nur an ausgefressenen Reflexen mit idealerweise dunkler Umgebung sichtbar wird. Dies spricht nicht für homogene Farbdispersion, da ja in dem Fall der Komplette Farbanteil ausbrechen müsste. Vielmehr haben wir eine Störung, deren laterale Dämpfung zwar noch hoch ist, aber eben bei lokalen Spitzlichtern nicht mehr ganz ausreichend ist.
Und schon wieder Bahnhof von meiner Seite. Ich versuche es mal mit meinen Worten auszudrücken: Jeder Lichtpunkt wird als näherungsweise gaußförmiges Scheibchen abgebildet. Eigentlich ist es ja die point-spread function, aber als Näherung tut es der Gauß zumindest in der Bildmitte auch. Die weiten seitlichen Flügel der Verteilung sind im Normalfall nie zu sehen, da schon der nächste Lichtpunkt daneben abgebildet werden muss. Habe ich nun eine überbelichtete Stelle, so blase ich die Amplitude vom Gauß in nie da gewesene Höhen auf. So weit, dass die eigentlich sehr schwachen Flügel über das Detektionslimit wachsen. Habe ich nun eine schön dunkle Stelle direkt am Rand, so kann ich die Gaußflügel als leichten Saum sehen, da sie durch keine neue Information überlagert werden. Die überbelichtete Stelle ist schon lange geclipped und rein weiß, aber im Flügel kann ich die ursprüngliche Farbe noch sehen.

Von der Farbe eines Filters direkt auf dessen Reflexionseigenschaftern zu schliessen, ist riskant, da Du ja nicht weisst, ob die Transmissionseigenschaften durch reine Absorption zustandekommen, oder duch Farb-selektive Reflexion.
Ist mir schon klar, aber da ich null Informationen über diese Filter habe, muss halt eine erste einfache Abschätzung her. Da gibt es noch viele Details und das ist viel komplizierter, aber den Hauptwellenlängenbereich kann ich damit bis zu einem gewissen Grenzwinkel abschätzen. Und wenn ich knapp über das Bajonett schaue und er immer noch grün wirkt, dann kann es so falsch nicht sein.

Wenn Du also die Farbe eines Sensors bewertes, der mit einer RGB-Farbmaske ausgestattet ist, so hast Du eine wilde Mischung aus Transmissions- und Reflexionseigenschaften der drei einzelnen Grundfarben vor Dir.
Ich bin mir auch sicher, dass es eine Mischung sein muss und die ist bestimmt auch winkelabhängig, aber ich denke, dass wir nicht bis zu einem Winkel kommen, an dem die Reflexionseigenschaften überhand gewinnen. Zudem wird jeder Hersteller versuchen, die Reflexion so weit wie möglich zu unterdrücken, denn das reflektierte Licht hat im Spiegelkasten nichts verloren.

Micha67
09.12.2005, 19:25
Also in dem Abschnitt hast mich inhaltlich abgehängt und da hab ich mir gedacht, bevor ich hier mein Hirn verrenke suche ich Bilder von dem Leica DMR. Und tataaa... ich hab auch welche gefunden. Nur glücklich machen sie mich auch nicht. Also hier aufgenommen mit dem 21-35er eines aus der Bildmitte (http://home.arcor.de/rainer.hoenle/forum/Leica_mitte.jpg) und eines aus der Bildecke (http://home.arcor.de/rainer.hoenle/forum/Leica_ecke.jpg) (beide 250%). Somit sollte der hier nicht vorhandene AA-Filter vom Tisch sein, aber erklären kann ich das hier gezeigte auch nicht. Das von der Bildmitte ändert den Saum von blau auf grün, je nach Hintergrundbeleuchtung (das bekomme ich noch halbwegs gebacken mit der Gaußerklärung unten), aber bei der Bildecke setzt es aus. Das ist weder TCA noch LCA!Und warum sollte das nicht eine geharnischte TCA sein? Vermisst Du nur den "Gegensaum"?


Und schon wieder Bahnhof von meiner Seite. Ich versuche es mal mit meinen Worten auszudrücken: Jeder Lichtpunkt wird als näherungsweise gaußförmiges Scheibchen abgebildet. Eigentlich ist es ja die point-spread function, aber als Näherung tut es der Gauß zumindest in der Bildmitte auch. Die weiten seitlichen Flügel der Verteilung sind im Normalfall nie zu sehen, da schon der nächste Lichtpunkt daneben abgebildet werden muss. Habe ich nun eine überbelichtete Stelle, so blase ich die Amplitude vom Gauß in nie da gewesene Höhen auf. So weit, dass die eigentlich sehr schwachen Flügel über das Detektionslimit wachsen. Habe ich nun eine schön dunkle Stelle direkt am Rand, so kann ich die Gaußflügel als leichten Saum sehen, da sie durch keine neue Information überlagert werden. Die überbelichtete Stelle ist schon lange geclipped und rein weiß, aber im Flügel kann ich die ursprüngliche Farbe noch sehen. Das ist korrekt und auch der Grund für die blauen Ränder, wenn die Himmelfarbe eines hoffnungslos überbelichteten Himmels hinter Ästen oder zwischen Haaren durchbricht. Dann hat es allerdings auch nicht unbedingt mit LCA zu tun, da es ja die "echte" Grundfarbe des Himmels ist, die dort unscharf in dunkle Nachbarstrukturen überläuft. Ein klassisches Beispiel hast Du ja mit dem DMR (im Bildzentrum) gezeigt, wo der unscharfe Saum in der Farbe umschlägt, obgleich die Fokusebene nicht dazwischen verläuft. Es *kann* also keine LCA gewesen sein, es handelt sich vielmehr zum großen Teil um das ganz normale Unschärfe-Bokeh, welches zumindest im dem Bereich, der grün erscheint, die Färbung des überstrahlten Hintergrundes trägt.

Nightshot
09.12.2005, 20:18
Und warum sollte das nicht eine geharnischte TCA sein? Vermisst Du nur den "Gegensaum"?Nicht nur den. Öffne das Bild mal im Photoshop und schau Dir die isolierten Farbebenen an. Die drei Farbkanäle liegen absolut exakt aufeinander. Das ist auch der Grund, warum hier die RAW Korrektur kläglich versagt. Hätten wir das Bild noch mit einer anderen Blende wäre es einfach zu unterscheiden.
Mir ist beim Mittagessen noch eine Erklärung für das hier eingefallen. Ich finde es selbst relativ weit her geholt, aber es ist mal ein Versuch. Beim anderen Bild haben wir schon gesehen was passiert, wenn das Unscharfe-Bokeh in den Schatten greift. Hier am Bildrand ist die point-spread function aber nicht mehr als Gauß anzunehmen, sondern sie wird schon deutlich komaförmig sein (und sei es schon wegen dem IR Sperrfilter). Hat die überbelichtete Stelle nun mehrheitlich blaue Anteile, so wird auch nur der blaue Komaschweif sichtbar und genau so sieht es in dem Bild aus. Ist nur ein Versuch, ich würde hier auch Streulicht auf dem Sensor glauben. Diese Art von blauem Saum habe ich bisher nur bei recht weitwinkligen Objektiven gefunden.

Es *kann* also keine LCA gewesen seinAlso wenn ich den Endruck erweckt haben sollte, ich will alles mit LCA erklären, dann widerrufe ich hiermit feierlich und behaupte das Gegenteil. :D Mir war schon klar, dass das keine LCA sein kann. Überhaupt muss man inzwischen sehr genau unterscheiden, was die Ursache ist. Wir werden nicht den Schluss machen können, dass ein farbiger Ring immer die gleiche Begründung hat. Bei dem blauen Saum in der Leicaecke bin ich durchaus gewillt einen Sensoreffekt nicht kategorisch abzulehnen. Aber alles das zwei Farbebenen zum Entstehen braucht, also rot UND blau, kann ich nicht dem Sensor in die Schuhe schieben. Das können nur korrigierte Linsensysteme.

Micha67
09.12.2005, 21:00
Mir ist beim Mittagessen noch eine Erklärung für das hier eingefallen. Ich finde es selbst relativ weit her geholt, aber es ist mal ein Versuch. Beim anderen Bild haben wir schon gesehen was passiert, wenn das Unscharfe-Bokeh in den Schatten greift. Hier am Bildrand ist die point-spread function aber nicht mehr als Gauß anzunehmen, sondern sie wird schon deutlich komaförmig sein (und sei es schon wegen dem IR Sperrfilter). Hat die überbelichtete Stelle nun mehrheitlich blaue Anteile, so wird auch nur der blaue Komaschweif sichtbar und genau so sieht es in dem Bild aus. Ist nur ein Versuch, ich würde hier auch Streulicht auf dem Sensor glauben. Diese Art von blauem Saum habe ich bisher nur bei recht weitwinkligen Objektiven gefunden.Die Erklärung wäre durchaus eine Möglichkeit. Ich denke aber, dass man durch gezielte Probeaufnahmen, so wie Du sie gemacht hast, viel klarere Aussagen bekommen kann. Da das DMR also "andersartige" Farbstörungen verursacht haben könnte, sind weder die AA-Filter-Hypothese noch die Mikrolinsen-Hypothese wirklich vom Tisch.


Also wenn ich den Endruck erweckt haben sollte, ich will alles mit LCA erklären, dann widerrufe ich hiermit feierlich und behaupte das Gegenteil. :D Mir war schon klar, dass das keine LCA sein kann. Überhaupt muss man inzwischen sehr genau unterscheiden, was die Ursache ist. Wir werden nicht den Schluss machen können, dass ein farbiger Ring immer die gleiche Begründung hat. Bei dem blauen Saum in der Leicaecke bin ich durchaus gewillt einen Sensoreffekt nicht kategorisch abzulehnen. Aber alles das zwei Farbebenen zum Entstehen braucht, also rot UND blau, kann ich nicht dem Sensor in die Schuhe schieben. Das können nur korrigierte Linsensysteme.Ich muss gestehen, dass ich in der Erklärung der Hintergründe von "digitalen Farbsäumen" keinen 100% schlüssigen Plan entwickeln kann. Hier fehlen mir zu viele Detailkenntnisse, die hierbei zu beachten sein könnten. Mal sehen, vielleicht sind wir ja in einiger Zeit schlauer ... :)

Nightshot
11.12.2005, 00:59
Ich denke aber, dass man durch gezielte Probeaufnahmen, so wie Du sie gemacht hast, viel klarere Aussagen bekommen kann.Ich bin gerade dabei. Den blauen Saum hin zu bekommen ist recht einfach, aber Testbilder zu machen, die keine anderen Effekte zeigen ist sehr schwer. Bei geänderter Fokuslage habe ich auch schon ein nach innen gerichtetes Koma im roten Kanal gesehen, aber noch ist es zu früh um Aussagen treffen zu können. Das wird noch ein wenig dauern...

Da das DMR also "andersartige" Farbstörungen verursacht haben könnte, sind weder die AA-Filter-Hypothese noch die Mikrolinsen-Hypothese wirklich vom Tisch.DMR User verwenden "leider" sehr viele APO Objektive und nach meiner Theorie sind die ja fast frei von PF und von daher wundert es mich nicht, dass ich dort nichts finde. Ein NonAPO bei Offenblende, das wäre das Richtige.

Mal sehen, vielleicht sind wir ja in einiger Zeit schlauer ... :) Ach, Du hast auch gerade die 5D bestellt??? :D

Micha67
11.12.2005, 02:24
DMR User verwenden "leider" sehr viele APO Objektive und nach meiner Theorie sind die ja fast frei von PF und von daher wundert es mich nicht, dass ich dort nichts finde. Ein NonAPO bei Offenblende, das wäre das Richtige.APO gibbet es bei Leica erst ab 90 mm aufwärts. Die 35/50/85mm Summilux-Objektive mit f/1.4 sollten doch geeignete Testkandidaten sein, zur Not tut es vielleicht auch ein einfaches 50er Summicron.


Ach, Du hast auch gerade die 5D bestellt??? :DNot yet.

Nightshot
15.12.2005, 12:37
APO gibbet es bei Leica erst ab 90 mm aufwärts. Die 35/50/85mm Summilux-Objektive mit f/1.4 sollten doch geeignete Testkandidaten sein, zur Not tut es vielleicht auch ein einfaches 50er Summicron.
Gestern war bei uns wieder mal eine Leicapromotion und da bin ich dann mit Alufolie aufgetaucht und hab Testbilder mit dem DMR gemacht. Leider war nur wenig Zeit und ich konnte nicht eigens ausleuchten, aber ich glaube man kann sehen um was es geht (ich hatte wenig blau im Licht). Beginnen wir mit dem Leica 50/1,4 (http://home.arcor.de/rainer.hoenle/forum/Leica50.jpg). Es zeigt sich wieder dieser rot – grün Übergang im Bokeh, nicht so deutlich wie schon mal gesehen, aber da hätte ich wohl etwas weiter überbelichten oder alternativ die Spitzlichter schärfer setzen müssen. Weiter mit dem APO 90/2.0 (http://home.arcor.de/rainer.hoenle/forum/Leica90.jpg) sieht man, dass die APO Korrektur zumindest im Nahbereich nicht das erhoffte Ergebnis bringt, denn das Bild ist mit dem 50er vergleichbar. Als logische Konsequenz musste das APO Makro 100/2,8 (http://home.arcor.de/rainer.hoenle/forum/Leica100.jpg) her halten und so wünscht man sich das. Mit 2,8 Anfangsöffnung ist es für eine Festbrennweite schon etwas moderat, aber wenn ich das Bild nicht verwackelt hätte wäre es optimal. Man sieht einen intensiven einen Pixel breiten Saum, aber der riecht verdächtig nach einem Aliasingartefakt.

Not yet.
Sei froh, ich bin wahrscheinlich einem Betrüger aufgesessen :mad:

Nightshot
18.12.2005, 00:00
So, nun habe ich auch die andere Form der PFs untersucht, die auf den Leicabildern am Bildrand so deutlich blau aufleuchteten. Als Versuchsaufbau habe ich in eine Pappschachtel ein Loch gestanzt und es ans Fenster gehängt. Ich sehe mir also einen leicht überbelichteten Himmel vor einer dunklen runden Maske an und fokussiere vom Front zum Backfokus durch. Ich beginne mit dem Sigma 18-50/2,8 jeweils bei Offenblende und zeige immer die obere rechte Ecke vom Bild. Bei der Brennweite von 18mm (http://home.arcor.de/rainer.hoenle/forum/Sigma18.jpg) zeigt sich dieser blaue Saum, der bei Frontfokus die Seite wechselt und auch die Komplementärfarbe zeigt. Bei 50mm (http://home.arcor.de/rainer.hoenle/forum/Sigma50.jpg) ist der Saum schon deutlich weniger ausgeprägt, aber das 50er von Canon (http://home.arcor.de/rainer.hoenle/forum/Canon50.jpg) ist schon bei Blende 1,4 sehr symmetrisch und hat sogar die Tendenz zum blauen Saum nach innen.
Woher kommt dieses Farbschauspiel nun? Es ist eine Überlagerung von LCA mit TCA (http://home.arcor.de/rainer.hoenle/forum/CA.gif). Zeichnet man es sich auf, so kann man es leichter sehen. Durch die vielen unterschiedlichen Kombinationsmöglichkeiten von Fokusebenen mit Fokuslagen hat fast jedes Objektiv seinen eigenen charakteristischen Fingerabdruck. Besonders störend ist dieser einseitig blaue Rand, der bisher nur bei weitwinkligen Objektiven gefunden werden konnte. Dies scheint mit der Bauweise dieser Objektive zusammen zu hängen.
Da ich nun alle Farbringe auf Objektivfehler zurückführen kann, steht für mich nun nur noch der direkte Vergleich mit analogem Film an.

Nightshot
03.02.2006, 17:16
Nun wärme ich dieses eigentlich stetes aktuelle Thema noch einmal auf, denn meine Vergleichsbilder Chip gegen Film sind fertig. Gleich mal eines vorweg, hier geht es nur um die PFs und nicht um einen Vergleich von Auflösung und Dynamikumfang. Die Filmbilder wurden ganz normal auf Fotopapier entwickelt und mit einem Scanner digitalisiert und das ist gegenüber dem CCD ziemlich unfair. Um die Auflösung und Dynamik zu vergleichen sollte man zumindest einen hochwertigen Negativscanner nehmen. Eines ist mir aber schnell klar geworden, ein Negativfilm verliert in jeder Hinsicht und was wir heute mit unseren Chips von den Objektiven verlangen ist schon Wahnsinn.
Aber jetzt zum eigentlichen Thema. Ich habe alle bisher gefundenen Arten von PFs nachgebaut und konnte sie auch auf Film wieder finden. Einen Unterschied gibt es aber dann doch. Dieses sonst so einprägsame violett wird beim Film eher gegen rot verschoben und rein blaue Farbfehler sind nur schwer nachzuweisen. Die Rotverschiebung hatte ich auch so erwartet, denn dass Film bei 650nm noch empfindlich ist, der Chip durch seinen IR Sperrfilter aber schon abriegelt ist kein Geheimnis. Im Gegensatz dazu muss der Chip anscheinend noch für kürzere Wellenlängen empfänglich sein als der Film oder wir haben es hier mit Photonenstatistik zu tun und der Film brauch einfach mehr Photonen, bis es zu einem Farbnachweis kommt, nach dem Beispiel, erst wenn drei oder mehr Photonen das für blau zuständige Molekül getroffen haben findet eine Reaktion statt.
Aber was wäre der ganze Spaß ohne Beispielbilder. Beginnen wir mit normaler LCA auf der Alufolie mit dem 50/1,4 bei Offenblende. Film (http://home.arcor.de/rainer.hoenle/forum/Alu_Film.jpg) gegen CCD (http://home.arcor.de/rainer.hoenle/forum/Alu_CCD.jpg) zeigt hier ein sehr ähnliches Verhalten. Noch mal zur Erinnerung, damit haben wir alle Farbringe erschlagen, die ihre Farbe je nach Fokuslage ändern.
Dann gab es da noch die radial nach außen gerichteten rein blauen Säume, die am Bildrand von bevorzugt weitwinkligen Objektiven zu finden sind. Diese sind auf Film nicht sonderlich ausgeprägt und werden erst dann wirklich sichtbar, wenn die Farbsättigung etwas aufgedreht wird. Auch hier das gesagte im Bild (http://home.arcor.de/rainer.hoenle/forum/Rand2.jpg), aufgenommen mit dem 24-105 bei Blende 4.
Und zum Schluss noch mal den Nachttest (http://home.arcor.de/rainer.hoenle/forum/Nacht.jpg) mit entfernten Lampen unterschiedlicher spektraler Charakteristik. Auch hier zeigt sich ein ähnliches Verhalten.

Fazit: Purple fringing ist eigentlich ein altes Problem, nämlich chromatische Abberation in unterschiedlichen Zusammensetzungen, nur hatte der Film bisher nicht das „Potential“ die Farbfehler darzustellen und hat das eigentliche Objektivproblem beschönigt dargestellt.

Henry (15)
03.02.2006, 17:54
@Nightshot danke für Deine Mühe, sehr aufschlussreich.
Analog hab ich noch gar nicht so genau betrachtet.


Gruß Herny

Micha67
14.02.2006, 22:43
Aber was wäre der ganze Spaß ohne Beispielbilder. Beginnen wir mit normaler LCA auf der Alufolie mit dem 50/1,4 bei Offenblende. Film (http://home.arcor.de/rainer.hoenle/forum/Alu_Film.jpg) gegen CCD (http://home.arcor.de/rainer.hoenle/forum/Alu_CCD.jpg) zeigt hier ein sehr ähnliches Verhalten. Noch mal zur Erinnerung, damit haben wir alle Farbringe erschlagen, die ihre Farbe je nach Fokuslage ändern.Gute Beispiele! Ich stimme mit Deiner Deutung, dass die Farbstörungen nicht auf die Digitalaufzeichnung beschränkt sind, aber dort besonders auffällige Störfarben in der Nachbarschaft von Überstrahlungen produzieren, völlig überein.
Zur Urachenforschung bin ich mir dennoch immer noch nicht sicher, ob man dies als LCA bezeichnen kann und darf. Die LCA (also ein FarblängsFEHLER) ist ja klassischerweise für Farbsäume *in* der Fokusebene verantwortlich und schlägt auch dort beim leichten Durchpendeln durch die Fokuslage in der Färbung um. Das was Du zeigst, sind Farbsäume weit *ausserhalb* der Fokusebene. Nun wird es schwerlich Objektive geben können, die nicht nur *in* der Fokusebene perfekt farbkorrigiert sind, sondern auch noch in iher Bokeh-Zeichnung. Ob hier also ein Farblängsfehler vorliegt, oder ob z.B. die sphärische Abberation, Koma, Astigmatismus oder was auch immer die zusätzliche Wellenlängen-Abhängigkeit bedingt, die zu den klar zu beobachtenden Störungen führen, scheint mir damit allerdings noch nicht geklärt.


Fazit: Purple fringing ist eigentlich ein altes Problem, nämlich chromatische Abberation in unterschiedlichen Zusammensetzungen, nur hatte der Film bisher nicht das „Potential“ die Farbfehler darzustellen und hat das eigentliche Objektivproblem beschönigt dargestellt.Wieder stimme ich Dir in der Deutung völlig zu und frage noch zusätzlich: müsste ein Objektiv überhaupt im Bereich seiner Unschärfezeichnung über ein höheres Maß an Farbkorrektur verfügen, oder ist eine solch perfekte Farbkorrektur auch bei einem "perfekten Objektiv" schlicht physikalisch nicht erzielbar? In letzterem Fall würde ich daher den Wortzusatz "Fehler" oder "Problem" meiden und statt dessen einfach nur die Farbsäume als eine Eigenschaft des Bokeh bezeichnen und werten.

Vielen Dank für Deine detektivische Tätigkeit, die klar zeigt, dass ich bislang die Farbsäume vermutlich falsch gedeutet hatte!

AndreasR
14.02.2006, 23:03
Hallo,

das ist doch harmlos. Schau mal, was die Powershot G1 in kritischen Situationen macht:

http://www.liegerad-fernweh.de/temp/PURPLE.jpg

Gruß, Andreas

Nightshot
15.02.2006, 18:01
Zur Urachenforschung bin ich mir dennoch immer noch nicht sicher, ob man dies als LCA bezeichnen kann und darf. Die LCA (also ein FarblängsFEHLER) ist ja klassischerweise für Farbsäume *in* der Fokusebene verantwortlich und schlägt auch dort beim leichten
Durchpendeln durch die Fokuslage in der Färbung um.
Also bei den analogen Bildern habe ich dieses Durchpendeln nicht gemacht, denn das hätte mit Belichtungsabstimmung einen Film pro Testbild bedeutet. Bei den Digitalaufnahmen habe ich das aber immer gemacht und genau dieses Verhalten gefunden. Die Beispielbilder in den vorherigen Beiträgen zeigen das.

Das was Du zeigst, sind Farbsäume weit *ausserhalb* der Fokusebene. Nun wird es schwerlich Objektive geben können, die nicht nur *in* der Fokusebene perfekt
farbkorrigiert sind, sondern auch noch in iher Bokeh-Zeichnung.
Das bedingt sich doch gegenseitig. Durch die unterschiedliche Fokuslage der Farben ergibt sich für das Bokeh ein Unschärfevorsprung. Bilde ich außerhalb der Fokuslage einen Lichtpunkt ab, so ist er ein kleines Scheibchen. Durch die unterschiedlichen Fokusebenen hat an dieser Stelle zum Beispiel Grün einen Unschärfevorsprung, da es bereits weiter defokussiert ist. Es zeigt sich ein grüner Saum. Gehe ich noch weiter aus der Fokusebene, so wird zwar auch das Beugungsscheibchen größer, aber das Grüne behält seinen Größenvorsprung und somit den grünen Rand. Ist also *in* der Fokusebene alles in Ordnung, dann gibt es auch keine Fehler im Bokeh. Zeichnet man die Strahlengänge auf, wird es schnell klar.

Ob hier also ein Farblängsfehler vorliegt, oder ob z.B. die sphärische Abberation,
Koma, Astigmatismus oder was auch immer die zusätzliche Wellenlängen-Abhängigkeit bedingt, die zu den klar zu beobachtenden Störungen führen, scheint mir damit allerdings noch nicht geklärt. Mal ne Gegenfrage, sind die von dir genannten Abbildungsfehler nicht per Definition wellenlängenunabhängig? Schließlich gibt es die auch bei Spiegeloptiken. Für die blauen Farbsäume am Bildrand muss ich auch LCA (da Fokuslagenabhängig) mit einem anderen Effekt kombinieren. Ich dachte da auch zuerst an so Dinge wie Bildfeldkrümmung, bis ich bemerkte, dass das TCA Verhalten darüber entscheidet, ob der blaue Saum nach innen oder nach außen gerichtet ist. Glücklicherweise zeigt genau das 1,4/50 dieses eher untypische umgekehrte Verhalten und so konnte ich es erkennen.

...oder ist eine solch perfekte Farbkorrektur auch bei einem "perfekten Objektiv" schlicht physikalisch nicht erzielbar? Verwende ich für meine Optikrechnung ideale dispersionsfreie Linsen, so gibt es diesen Fehler nicht. Auch wenn diese idealen Linsen nicht existieren, so glaube ich doch, dass das Wort Fehler legitim ist.

Micha67
15.02.2006, 23:50
Das bedingt sich doch gegenseitig. Durch die unterschiedliche Fokuslage der Farben ergibt sich für das Bokeh ein Unschärfevorsprung. Bilde ich außerhalb der Fokuslage einen Lichtpunkt ab, so ist er ein kleines Scheibchen. Durch die unterschiedlichen Fokusebenen hat an dieser Stelle zum Beispiel Grün einen Unschärfevorsprung, da es bereits weiter defokussiert ist. Es zeigt sich ein grüner Saum. Gehe ich noch weiter aus der Fokusebene, so wird zwar auch das Beugungsscheibchen größer, aber das Grüne behält seinen Größenvorsprung und somit den grünen Rand. Ist also *in* der Fokusebene alles in Ordnung, dann gibt es auch keine Fehler im Bokeh.[QUOTE]Du sprichst wieder lediglich aus dem Blickwinkel der LCA. Dabei wäre es freilich so, wie Du beschreibst. Allerdings müssten dann auch die Farbäume immer *in* der Fokusebene gut beobachtbar sein. Dies ist ja durchaus möglich, kommt aber vermutlich sehr auf die verwendete Optik an. Wenn die Korrektur der Farbkonvergenz *in* der Fokusebene perfekt ist, so muss dies doch nicht zwangsläufig auch für defokussierte Bildanteile gelten.
[QUOTE]Zeichnet man die Strahlengänge auf, wird es schnell klar.[/QOUTE]Wenn Du die Strahlengänge für einen 6-Linser berechnest und dabei die verschiedenen Grundfarben betrachtest, dann kommen gerade im Nahbereich durchaus Situationen zustande, in denen die Grundfarben aus verschiedenen Winkeln kommend in der Bildebene zusammengeführt werden. In der Bildebene ist das Resultat dann noch hinlänglich gut, Ausserhalb der Bildebene wird es durch Winkel-Ungleichheiten der Grundfarb-Bündelung deutlich schlechter. Sog. "floating elements" konnten dem (und auch der Bildfeldkrümmung)entgegenwirken, sind aber eher bei retrofokalen Weitwinkeln ein Konstruktionsmerkmal.

[QUOTE]Mal ne Gegenfrage, sind die von dir genannten Abbildungsfehler nicht per Definition wellenlängenunabhängig? Schließlich gibt es die auch bei Spiegeloptiken.*in* der Fokusebene sicherlich, aber wie sieht die Situation ausserhalb aus, sobald die Dispersion einet Linse mit einer zweiten oder dritten Linse für die Fokusebene auskorrigiert wird?


Verwende ich für meine Optikrechnung ideale dispersionsfreie Linsen, so gibt es diesen Fehler nicht. Auch wenn diese idealen Linsen nicht existieren, so glaube ich doch, dass das Wort Fehler legitim ist.Klar, ohne Dispersion bekommst Du die Farben ohnehin nie auseinander. Daß die Dispersion der Optikkomponenten in der einen oder anderen Weise ursächlich für die beobachteten Effekte ist, kann wohl kaum mehr bezweifelt weredn.

Nightshot
16.02.2006, 12:10
Du sprichst wieder lediglich aus dem Blickwinkel der LCA. Dabei wäre es freilich so, wie Du beschreibst. Allerdings müssten dann auch die Farbäume immer *in* der Fokusebene gut beobachtbar sein. Dies ist ja durchaus möglich, kommt aber vermutlich sehr auf die verwendete Optik an.
Jetzt verstehe ich deinen Einwand. Hat ein Objektiv Farbfehler in der Fokusebene, dann wird es die auch im Bokeh nicht los, aber ein Objektiv das nur im Bokeh Fehler hat, könnte immer noch in der Fokusebene alles richtig machen. Hmmm, das wäre möglich, wenn auch ziemlich unwahrscheinlich. Die Objektive sind ja auf unendlich optimiert und werden im Nahbereich schlechter (Makroobjektive jetzt mal ausgenommen). Diesen Alufolientest machen wir damit im ungünstigsten Bereich vom Objektiv. Betrachten wir nun vom Bokeh den extremsten Nahbereich, so könnte dort ein Farbfehler auftreten, der im Fokus noch nicht vorhanden ist. Das wäre dann ein einseitig verfälschtes Bokeh. Zeigt es aber sowohl vor als auch hinter der Fokusebene Farbfehler, so muss es die wohl auch in der Fokusebene zeigen. Nein, nicht ganz richtig, ich kann auch ein Objektiv bauen das diese Bedingungen mit vor und hinter der Fokusebene erfüllt, aber das könnte es dann nur bei exakt einer Objektdistanz.


*in* der Fokusebene sicherlich, aber wie sieht die Situation ausserhalb aus, sobald die Dispersion einet Linse mit einer zweiten oder dritten Linse für die Fokusebene auskorrigiert wird? Dann wird es vogelwild. Aber mal ehrlich, über lediglich am Bildrand außerhalb der Fokusebene auftretende Farbränder könnte sogar ich gnädig hinweg sehen :)

Nightshot
16.02.2006, 12:13
das ist doch harmlos. Schau mal, was die Powershot G1 in kritischen Situationen macht:
http://www.liegerad-fernweh.de/temp/PURPLE.jpg

Das lässt sich mit Software aber noch recht erfolgreich korrigieren:
http://home.arcor.de/rainer.hoenle/forum/PURPLE.jpg

AndreasR
16.02.2006, 12:23
Hallo,


Das lässt sich mit Software aber noch recht erfolgreich korrigieren:
http://home.arcor.de/rainer.hoenle/forum/PURPLE.jpg

Oh ja, nicht schlecht.
Abgesehen davon sind die feinen Strukturen zuviel für das Auflösungsvermögen der Kamera (Powershot G1), dazu die Überstrahlung. Aber darum ging es ja eigentlich nicht.

Gruß, Andreas

David Weber
16.02.2006, 13:07
Das lässt sich mit Software aber noch recht erfolgreich korrigieren:
http://home.arcor.de/rainer.hoenle/forum/PURPLE.jpg

Erst mal vielen Dank für den Test gegen Film. Ich war schon fast so weit meine 5D zum Service zu bringen, da ich mit der 20D nie PF Probleme hatte (Ich hatte damals aber auch andere Optiken).

Welche Software benutzt ihr um das Problem zu eliminieren?

Ich habe die PS Action von Olav (Seite 2 des Thread / Vielen Dank auch an Ihn) nachgebaut, teilweise mit sehr guten Erfolgen. Das Problem an der Sache ist nur, die Farbe darf sonst im Bild nicht vorkommen, sonst wird sie ebenfalls gelöscht. Magenta Säume lassen sich deshalb meistens noch ganz gut entferen. Grüne Säume sind dagegen bei Aussenaufnahmen mit diesem Script nicht bearbeitbar (alle Grüntone wären betroffen). Gibt es noch eine andere (automatisierbare) Lösung?

Übrigens eine ultimatve Linse für dieses Problem scheint mir das 24 1,4 L zu sein.

Micha67
17.02.2006, 00:47
Jetzt verstehe ich deinen Einwand. Hat ein Objektiv Farbfehler in der Fokusebene, dann wird es die auch im Bokeh nicht los, aber ein Objektiv das nur im Bokeh Fehler hat, könnte immer noch in der Fokusebene alles richtig machen.Sei es wie es sei, Du hast ja immerhin sehr schlüssig gezeigt, dass ein ganz beträchtlicher Anteil der Farbsäume in der Tat in den Beispielen durch die Optik erzeugt werden kann und nicht ein auf die Digitalaufzeichnung beschränktes Problem ist.

Nightshot
17.02.2006, 12:52
Ich habe die PS Action von Olav (Seite 2 des Thread / Vielen Dank auch an Ihn) nachgebaut, teilweise mit sehr guten Erfolgen. Das Problem an der Sache ist nur, die Farbe darf sonst im Bild nicht vorkommen, sonst wird sie ebenfalls gelöscht. Magenta Säume lassen sich deshalb meistens noch ganz gut entferen. Grüne Säume sind dagegen bei Aussenaufnahmen mit diesem Script nicht bearbeitbar (alle Grüntone wären betroffen). Gibt es noch eine andere (automatisierbare) Lösung?
Also wenn man das als Action abgespeichert hat, dann ist es doch schon so gut wie eine Vollautomatik. Ich gebe zu, es funktioniert nur mit dem Magenta wirklich gut. Man könnte das Script noch ein wenig verfeinern, indem es nur in der Nähe von überbelichteten (sehr hellen) Stellen nach der eingestellten Farbe sucht. Man würde dann eine Überbelichtungsmaske auf die Magenta-(Grün) Maske anwenden und die dann auf das eigentliche Bild los lassen. Ich muss mal mein Photoshop Kompendium aus dem Schrank holen wie man das machen kann.

David Weber
17.02.2006, 13:07
Gute Idee!

Vordergundfarbe #FFFFFF
Farbbereich Auswählen (Toleranz ???)
Auswahl Vergrössern (10 Pixel?)

Vordergrundfarbe #c8025f
(Hier lohnt es sich vermutlich für jede optik eigene Werte zu definieren)
Farbbereich Auswählen (130 - mein Wert)
Auswahl Vergrössern (3 Pixel)
Weiche Auswahlkante (2 Pixel)

ich habs noch nicht probiert, aber so werden nur magenta pixel am rand einer überstrahlung ausgewählt

David Weber
17.02.2006, 14:06
es funktioniert ganz gut für den weiss bereich habe jetzt folgende werte definiert:

Vordergundfarbe #FFFFFF
Farbbereich Auswählen (Toleranz 100)
Auswahl Vergrössern (10 Pixel)
weiche Auswahlkante (2 Pixel)

Sas selektiert relativ grosszügig die Lichter.

Das einzige Manko ist noch: Die Farben der Farbsäume variieren je nach Optik , Lichtsituation und Weissabgleich.

D.h. man legt sich am besten mehere Actions für verschiedene Farbtöne an.