PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Dynamik-Umfang



HKO
16.12.2005, 17:27
Was hier seltsamerweise bislang kaum diskutiert wurde, sind von Phil Askey veröffentlichte Meßergebnisse (http://www.dpreview.com/reviews/canoneos5d/page23.asp) des Dynmaik-Umfangs verschiedener Kameras. Auch bei dem recht aktuellen Test der Sony R1 hat er hierzu einen Graphen gezeigt. M.E. ist gerade dies der Punkt, wo neuere Kameras entscheidende Verbesserungen bieten können.
Was ich immer vermutet hatte nach bisherigen Beispielbildern und was auch z.B. beim Vergleich der D2X mit der 5D (bei B&U Steinmüller, siehe unten) herauskommt bewahrheitet sich recht eindeutig bei Phil Askey: da fehlt den Sony/Nikon-Chips einfach etwa ein Blendenwert zu den Canon-Bodies. Das könnte ein Collateralschaden der Weichspülerei sein.

DLDS
16.12.2005, 17:34
seh ich zum ersten mal, sehr interessant. Danke Dir!

Vito
16.12.2005, 17:36
Hallo Horst,

mich wundert auch, daß Themen wie "Rauscharmut" und ähnliche Themen (die natürlich für einige Fotografen sehr wichtig sind), hier nicht nur als wichtig betrachtet werden, sondern scheinbar so sehr im Vordergrund stehen, daß über den Dynamikumfang von Kameras kaum geredet wird...

In dem Zusammenhang fiel mir dieser Artikel zum Thema ein:
http://www.digitalkamera.de/Info/News/30/69.htm
Ich weiß nicht, ob das hier schon gepostet wurde, aber die Zukunft scheint noch einige Überraschungen zu bieten.

Viele Grüße
Stefan

HKO
16.12.2005, 17:39
@Vito: das ist halt Zukunft: warten wir es ab. Das ist ja sehr allgemein gehalten.

Gartenmann
16.12.2005, 17:44
... wo neuere Kameras entscheidende Verbesserungen bieten können.

"Bieten können" ist richtig ausgedrückt. Leider tun sie es in den seltensten Ausnahmefällen.

Gruß
Frank

HKO
16.12.2005, 19:08
...seltensten Fällen...?

Du wie ich nehmen jedenfalls das bestmögliche Produkt. Mehr kannst Du ja nicht machen.

Alfons W.
16.12.2005, 19:36
Was hier seltsamerweise bislang kaum diskutiert wurde, sind von Phil Askey veröffentlichte Meßergebnisse (http://www.dpreview.com/reviews/canoneos5d/page23.asp) des Dynmaik-Umfangs verschiedener Kameras. Auch bei dem recht aktuellen Test der Sony R1 hat er hierzu einen Graphen gezeigt. M.E. ist gerade dies der Punkt, wo neuere Kameras entscheidende Verbesserungen bieten können.
Was ich immer vermutet hatte nach bisherigen Beispielbildern und was auch z.B. beim Vergleich der D2X mit der 5D (bei B&U Steinmüller, siehe unten) herauskommt bewahrheitet sich recht eindeutig bei Phil Askey: da fehlt den Sony/Nikon-Chips einfach etwa ein Blendenwert zu den Canon-Bodies. Das könnte ein Collateralschaden der Weichspülerei sein.

Sehr schön, dass Du mit diesem Thema kommst, welches für mich sehr viel entscheidender für die Bildqualität ist als andere Dinge wie Rauscharmut usw. Ich habe das Thema schon öfter angeschnitten, aber keiner will da so recht einsteigen. Natürlich habe ich mir die neuen Tests auf DPREVIEW zum Punkt Dynamikumfang mit großem Interesse angesehen und ich finde die auch sehr aussagekräftig. Und es ist tatsächlich so: keiner kann den Canons da z.Zt. das Wasser reichen. Aber offensichtlich findet das Thema immer noch nicht den verdienten Stellenwert. Weiß der Teufel, warum...

DLDS
16.12.2005, 19:44
ich denke das liegt an der community... rauschen fällt besonders dem ungeübten augen subjektiv schneller auf als die dynamic range. Besonders wenn sie bilder von nikon vs. canon vergleichen.

Gartenmann
16.12.2005, 20:22
...seltensten Fällen...?

Du wie ich nehmen jedenfalls das bestmögliche Produkt. Mehr kannst Du ja nicht machen.
Leider nicht nur das beste, sondern auch das teuerste. Speziell wir beide.

Aber es ist tatsächlich so: Mein Umstieg von der 1Ds Mark 1 auf die 1Ds Mark 2 hing im Wesentlichen mit dem erheblich gesteigerten Dynamikumfang der 1Ds2 zusammen. Meine immer noch gerne genutzte CCD-1D ist beim Dynamikumfang eher noch auf Kompaktknipsenniveau.

Ulrich Natge
16.12.2005, 20:47
Nun ich habe noch die 1D vorher hatte ich die Nikon D1 als ist schon gewaltiger anstieg des Dynamik-Umfngs. Der unterschied zur 1Ds mk2 ist leider genau so groß wie erfahren durfte (ein guter Freund hat sie mir gelichen).

Ich vermute das dort auch in Zukunft sich erheblich was tun wird bin gespannt auf die Photokina in Köln.

Mich wundert es ebenfals das kum jemand über den Dynamik-Umfang nach denkt, zu Duka Zeiten war das anders Rodinal, X-Tol, Stilstandsentwicklung und und und kenne ich immer noch und das ist für mich das Maß der Digi.

Gartenmann
16.12.2005, 21:11
ich denke das liegt an der community... rauschen fällt besonders dem ungeübten augen subjektiv schneller auf als die dynamic range. Besonders wenn sie bilder von nikon vs. canon vergleichen.

Klar fällt Rauschen jedem Laien auf. Guckst du beispielsweise hier: http://forums.dpreview.com/forums/read.asp?forum=1021&message=16300265

Micha67
16.12.2005, 22:43
Was hier seltsamerweise bislang kaum diskutiert wurde, sind von Phil Askey veröffentlichte Meßergebnisse (http://www.dpreview.com/reviews/canoneos5d/page23.asp) des Dynmaik-Umfangs verschiedener Kameras. Auch bei dem recht aktuellen Test der Sony R1 hat er hierzu einen Graphen gezeigt. M.E. ist gerade dies der Punkt, wo neuere Kameras entscheidende Verbesserungen bieten können.Sorry, dass ich schon wieder mit meiner Meckerei beginne: was Phil dort misst, ist mitnichten der Dynamikumfang. Was wir dort sehen ist das Signal-/Antwortverhalten. Dieses Signal-Antwort-Verhalten lässt genauso zuverlässig auf den Dynamikumfang zurückschliessen, wie das Bild einer Tachoskala auf den Bremsweg.

Ohne in die komplexeren Zusammenhänge einsteigen zu wollen nur ein einziger Punkt, der dies schnell klarmacht: im zweiten Bild von oben zeigt er, dass die Kurve bei ISO-1600 flacher und damit über einen "breiteren Dynamikbereich" verläuft. Das hat aber mit Dynamik nichts zu tun, die ja bekanntlich bei höherem ISO sinkt. Vielmehr bedingt der höhere Noise einen flacheren Signal-/Antwort-Verlauf, was gerade in den Lichtern dazu führt, dass die Signal-/Response-Kurve in den Lichtern flacher ausläuft. In den extremen Schatten wäre ähnliches zu erwarten, wenn nicht der Schwarzpunkt zur partiellen Kompensation des zunehmendem Noise weiter nach oben gesetzt wäre.

Um einen Dynamikbereich zu bestimmen, müsste die gemessene Signal-/Antwort-Kurve mit der Streuung (dem Noise) verglichen werden. Erst dann würde Phil das messen, was er zu messen vorgibt.

HKO
16.12.2005, 23:11
Schreibs ihm mal...

Benutzer
16.12.2005, 23:49
Horst, er muss es ihm nicht schreiben, Micha67 hat recht. Ich weis auch nicht was an dem Test Dynamik sein sein soll oder darf. Fakt ist aber, das die D2x den gleichen Dynamikumfang vorweisen kann, die Weichspülerei der Bilder ist nur dann gegeben, wenn man bestimmte Modien eingestellt hat an der Kamera. Naturbelassene Rohformatdaten, sofern man davon sprechen kann bei den Herstellern, stellen den gesamten Dynamikumfang dar, und eine D2x ist da nicht schlechter.

Wenn du einen hohen Dynamikumfang erreichen möchtest kannst du das heute schaffen aus mehreren Belichtungen, mit dem Nachteil, das du den Tonwertumfang reduzierst, während der ursprüngliche Kontrast jedoch erhalten bleibt. Das widerum hat nichts mit dem Kontrastumfang zu tun, was einige hier so gerne anwenden, dem "DRI" Effekt.

Der Dynamikumfang ist bestimmten Grenzen derzeit unterworfen. Je nach Hersteller könnte man darauf per eigener Software mehr oder weniger eingreifen...

VG Roman
unterwegs mit Canon (http://www.photospaziergang.de/)

Micha67
16.12.2005, 23:50
Schreibs ihm mal...Hab´ ich bereits getan, aber ich glaube nicht, dass es zu Reaktionen führt. In manchen Sachen lernt halt auch er Schritt für Schritt ...

JAKOB
17.12.2005, 02:23
zumindest die von phil erwähnten "AI Servo interference banding" artefakte kann ich bestätigen. ich kenn die nun auch an der 5D! nicht gar so störend wie an der testweise an der 1dsmk2 festgestellten (vielleicht erinnert sich der eine oder andere an meine mit dem 85er/1.2 gemachten bilder....z.b. HKO?)

jedenfalls habe ich diese artefakte unter bestimmten umständen (hohe iso, ai-servo) ebenfalls.

Lucas
17.12.2005, 08:41
Ich stimme auch zu, dass der Dynamikumfang wichtiger ist. Das ist auch der Bereich wo sich die digitalen Rückteile wirklich abheben! Die Empfindlichkeit geht ungefähr bis 800 ASA und das juckt niemanden. Wenn man die beste Qualität will benötigt man sowieso genügend Licht. Wer schon mal ein Brautpaar im Sonnenlicht fotografiert hat, weiß warum mehr Blendenstufen Kontrast einfach besser sind als ISO 3200!

Allerdings gibt es Bereiche wie Presse und Hallensport... wo die hohen verwendbaren ISO Werte natürlich ein Segen sind!

So hat hat jedes Produkt seine Berechtigung... außer Canomatic ;-)

mfg
Lucas

GS2
17.12.2005, 08:55
Was hier seltsamerweise bislang kaum diskutiert wurde, sind von Phil Askey veröffentlichte Meßergebnisse (http://www.dpreview.com/reviews/canoneos5d/page23.asp) des Dynmaik-Umfangs verschiedener Kameras. Auch bei dem recht aktuellen Test der Sony R1 hat er hierzu einen Graphen gezeigt. M.E. ist gerade dies der Punkt, wo neuere Kameras entscheidende Verbesserungen bieten können.
Was ich immer vermutet hatte nach bisherigen Beispielbildern und was auch z.B. beim Vergleich der D2X mit der 5D (bei B&U Steinmüller, siehe unten) herauskommt bewahrheitet sich recht eindeutig bei Phil Askey: da fehlt den Sony/Nikon-Chips einfach etwa ein Blendenwert zu den Canon-Bodies. Das könnte ein Collateralschaden der Weichspülerei sein.

Weshalb ich ungeachtet obiger Pauschalierung immer noch auf Fuji setze. Wichtiger ist dennoch die Wahl digital tauglicher Optiken. Farbfilmoptimierte KB-Rechnungen mit hoher Kontrastübertragung bei moderater Schärfe sind heute genauso deplaziert, wie Tests, die nach alten Zielen streben.

GS2
17.12.2005, 08:59
... und solange Phil durch Optiken mit teils recht unterschiedlichen Prämissen testet, darf er sich über bestimmte Unterschiede in den Ergebnissen nicht wundern.

Micha67
17.12.2005, 10:01
Ich weis auch nicht was an dem Test Dynamik sein sein soll oder darf.Ich hatte mal vor Urzeiten mit meiner Powershot G2 eine Messung ganz ähnlich wie die von Phil gemacht und kam auf eine nahezu deckungsgleiche Kurve. Nun würde mich hier jeder zu recht auslachen, wenn ich behaupten würde, die Kompaktknipse habe den selben Dynamikumfang wie die 5D. Was ich gemessen hatte, waren mittlere Graustufen-Helligkeiten in unterschiedlichen Bildarealen, die verschieden dichte Neutralgraufilter auf einem homogenen Leuchtpult (flach gelegtes TFT-Display) abbildeten. Eine intensiv geführte Diskussion (damals behauptete ich auch, dass ich den Dynamikumfang gemessen habe) machte klar, dass ich lediglich die Umsetzung der JPEG/sRGB-Farbraumdefinition seitens des Canon Powershot G2 JPEG-Engines bestimmt hatte.


Fakt ist aber, das die D2x den gleichen Dynamikumfang vorweisen kann, die Weichspülerei der Bilder ist nur dann gegeben, wenn man bestimmte Modien eingestellt hat an der Kamera. Naturbelassene Rohformatdaten, sofern man davon sprechen kann bei den Herstellern, stellen den gesamten Dynamikumfang dar, und eine D2x ist da nicht schlechter.
Nicht schlechter als was und wie gemessen?


Wenn du einen hohen Dynamikumfang erreichen möchtest kannst du das heute schaffen aus mehreren Belichtungen, mit dem Nachteil, das du den Tonwertumfang reduzierst, während der ursprüngliche Kontrast jedoch erhalten bleibt. Das widerum hat nichts mit dem Kontrastumfang zu tun, was einige hier so gerne anwenden, dem "DRI" Effekt.

Der Dynamikumfang ist bestimmten Grenzen derzeit unterworfen. Je nach Hersteller könnte man darauf per eigener Software mehr oder weniger eingreifen... Klar kann man den Dynamikumfang durch Belichtungs-Reihen wesentlich dramatischer steigern als durch die technische Entwicklung bei der Kameraherstellung. Für den "Ottonormalfotograf" ist dennoch der "single-shot"-Dynamikumfang das Wichtigere, und die Kameras unterscheiden sich diesbezüglich sehr wohl. Ob nun eine Fuji S3 mit erweiterter Dynamik in Lichtern oder eine Kamera mit feinster Ausleseelektronik und maximal großem Sensor zur Erweiterung der Dynamik in den Schatten, beides sind Wege zur realen Steigerung des nutzbaren Dynamikumfanges. Wenn nun noch eine Bedienungshilfe für richtiges "expose-to-the-right" hinzukäme, dann wäre auch die Rolle des Bedieners bei der Ausnutzung des gebotenen Dynamikumfanges ideal unterstützt.

Achim_65
17.12.2005, 11:14
Der Dynamikumfang war auch einer der Gründe, warum ich digital von Nikon nach Canon gewechselt habe (analog bleibe ich meiner F100 treu ;)). Und nun habe ich weniger Probleme mit ausgefressenen Lichtern, auch wenn ich einen recht gut funktionierenden Workaround bei meiner D70 hatte...da ich noch sehr analog denke, stört mich das Rauschen nicht, so lange es noch unter den Einflüssen des Filmkorns liegt...

Ich kann allerdings Deine Aussage nicht ganz nachvollziehen, denn ist es nicht die Fuji S3 Pro, der keiner das Wasser reichen kann, was den Dynamikumfang angeht? ;)

Schön wäre es natürlich, wenn die Sensoren irgendwann mal den Dynamikumfang eines guten Negativfilms hätten...das wäre dann der Zeitpunkt, an dem ich mit dem Gedanken spielen würde, mir ein neues Gehäuse zuzulegen...derzeit bin ich sowas von happy mit meiner 1DMKII, auch wenn der Hochformatsensor defekt ist und der AF meiner F100 noch einen Tick besser ist...zumindest was Reitsport angeht...


Sehr schön, dass Du mit diesem Thema kommst, welches für mich sehr viel entscheidender für die Bildqualität ist als andere Dinge wie Rauscharmut usw. Ich habe das Thema schon öfter angeschnitten, aber keiner will da so recht einsteigen. Natürlich habe ich mir die neuen Tests auf DPREVIEW zum Punkt Dynamikumfang mit großem Interesse angesehen und ich finde die auch sehr aussagekräftig. Und es ist tatsächlich so: keiner kann den Canons da z.Zt. das Wasser reichen. Aber offensichtlich findet das Thema immer noch nicht den verdienten Stellenwert. Weiß der Teufel, warum...

Alfons W.
17.12.2005, 19:48
Sorry, dass ich schon wieder mit meiner Meckerei beginne: was Phil dort misst, ist mitnichten der Dynamikumfang. Was wir dort sehen ist das Signal-/Antwortverhalten. Dieses Signal-Antwort-Verhalten lässt genauso zuverlässig auf den Dynamikumfang zurückschliessen, wie das Bild einer Tachoskala auf den Bremsweg.

Ohne in die komplexeren Zusammenhänge einsteigen zu wollen nur ein einziger Punkt, der dies schnell klarmacht: im zweiten Bild von oben zeigt er, dass die Kurve bei ISO-1600 flacher und damit über einen "breiteren Dynamikbereich" verläuft. Das hat aber mit Dynamik nichts zu tun, die ja bekanntlich bei höherem ISO sinkt. Vielmehr bedingt der höhere Noise einen flacheren Signal-/Antwort-Verlauf, was gerade in den Lichtern dazu führt, dass die Signal-/Response-Kurve in den Lichtern flacher ausläuft. In den extremen Schatten wäre ähnliches zu erwarten, wenn nicht der Schwarzpunkt zur partiellen Kompensation des zunehmendem Noise weiter nach oben gesetzt wäre.

Um einen Dynamikbereich zu bestimmen, müsste die gemessene Signal-/Antwort-Kurve mit der Streuung (dem Noise) verglichen werden. Erst dann würde Phil das messen, was er zu messen vorgibt.

Kein Ahnung, was Du da zu meckern hast, zudem Du auch Nichts mit dem, was Du da sagt (soweit ich das verstehen kann) wiederlegst, was da in DPREVIEW zu lesen ist. Natürlich ist das, was Du als Signal-Antwortverhalten bezeichnest, eine Funktion, die den Dynamikumfang erst messbar macht. Was soll denn sonst zu messen sein? Na ja, ich verstehe ehrlich gesagt nicht, was Du da schreibst. Vielleicht bin ich ja zu dumm. Dennoch finde ich den Test auf DPREVIEW nicht schlecht, da er sowohl erstens die Leistung der Tonwerttrennung (was häufig mißverständlich als Dynamikumfang bezeichnet wird) mit dem Auflösungsvermögen in den extremen Lichtern (also dem Clipping) und den Schatten in Beziehung setzt und grafisch darstellt.

Micha67
17.12.2005, 20:40
Kein Ahnung, was Du da zu meckern hast, zudem Du auch Nichts mit dem, was Du da sagt (soweit ich das verstehen kann) wiederlegst, was da in DPREVIEW zu lesen ist. Natürlich ist das, was Du als Signal-Antwortverhalten bezeichnest, eine Funktion, die den Dynamikumfang erst messbar macht. Was soll denn sonst zu messen sein? Na ja, ich verstehe ehrlich gesagt nicht, was Du da schreibst.Ich wollte ja eigentlich nicht ins Detail gehen, weil eben dabei viele Leute aussteigen und die tatsächlichen Zusammenhänge eher noch verwirrender finden. Daher zweigeteilt nochmal ausführlicher die Beschreibung, was Phil (falsch) macht, gefolgt von den Definitionen und Messparametern des Dynamikbereiches.

Was macht Phil denn wirklich? Er fotografiert ein Target mit verschiedensten Dichten. Soweit sogut. Die erste Crux allerdings ist bereits, dass er JPEG als Aufnahmeformat wählt. Ein JPEG-File trägt bereits die Farbraum- und Gamma-Definition von sRGB und zeigt schon aus diesem Grund eine typische Kennlinie, die eine in JPEG speichernde Billigknipse ganz genauso zeigt. Ich hatte vor Urzeiten schonmal getestet und hier im Forum beschrieben, dass eine Canon Powershot G2 (wahrlich kein Dynamik-Wunder!) in die 8 Bit Farbtiefe eines JPEG-Files ca. 9,5 Blendenstufen Helligkeitsunterschiede verpackt. Hat nun die Kompaktknipse den gleichen Dynmaikumfang? Keinesfalls. Also was war falsch gelaufen? Phil nimmt über jedes Feld gemittelte Intensitätswerte (ebenso wie ich es an der Powershot tat) und trägt diese gegenüber der Target-Dichte auf. Daher ist das, was er und damals ich taten, eine Aufzeichnung einer Signal-/Response-Funktion.

Was aber ist dann der Dynamikumfang, der ja zwischen der Powershot und der 5D dramatisch anders sein sollte? Hier gibt es zwei mögliche Definitionen, eine rein technische, die zwar wirklich den Dynamikbereich kennzeichnet, die wir aber aus Mangel an Kenntnis über Sensor- und Wandlerdaten leider nicht messen können. Als weitere Kenndaten kann man den Signal-Rauschabstand als Kennziffer für die Leistungsfähigkeit der Aufzeichnungseinheit angeben, wobei dies einer Messung zugänglich ist, die allerdings durch Glättungsalgorithmen in der Kamerasoftware auch verzerrt wird, daher also nur eingeschränkt direkte Vergleiche zwischen Kameras zulässt.

1. technische Definition ("echte Definition" des Dynamikbereiches):
Sie ist deiniert als: Maximale Elektronenzahl im Pixel / Ausleserauschen
siehe z.B.:
http://www.pco.de/download/?url=%2Fdata%2Fpco_cooKe_kb_dynamic_0504.pdf

2. "fotografische" Definition (Signal-Rauschabstand):
Der Signal-/Rauschabstand muss neben der Signalhöhe (äquivalent zur von Phil gemessenen Funktion) auch das Noise-Niveau berücksichtigen, wobei grob gesagt drei Rausch-Klassen auftreten: das Signal selbst rauscht (Photonenrauschen), die Ausleseeinheit der Kamera rauscht (Ausleserauschen) und die Digitalisierung kann nur diskrete Werte annehmen (Digitalisierungsrauschen). Für die genauen Zusammenhänge und Formel-Freaks sei auch hier ein entspr. Link genannt:
http://www.pco.de/download/?url=%2Fdata%2Fpco_cooKe_kb_snr_0504.pdf


Vielleicht bin ich ja zu dumm. Dennoch finde ich den Test auf DPREVIEW nicht schlecht, da er sowohl erstens die Leistung der Tonwerttrennung (was häufig mißverständlich als Dynamikumfang bezeichnet wird) mit dem Auflösungsvermögen in den extremen Lichtern (also dem Clipping) und den Schatten in Beziehung setzt und grafisch darstellt.
... und dass ISO-1600 den selben "Dynamikumfang" haben soll wie ISO-100, das macht Dich nicht stutzig? Da er die Wiedergabefunktion über gemittelte Messfelder verschiedener Dichte (in JPEG aufgenommen) zeigt, ist das, was wir sehen, die Tonwertkurve des JPEG-Engine mit seinem charakteristischen Gamma. Einzig die in verschiedenen picture-styles aufgenommenen Bilder enthalten eine gewisse Zusatzinformation. Sorry, dass ich das so explizit sagen muss, aber Phils Test als "Test des Dynamikbereiches" zu bezeichnen, ist schlicht Humbug.

Benutzer
17.12.2005, 21:22
Gemessen worden direkt über ein Spektralphotometer mit Kantenfilter. Gegenüber was gemssen? Ach so, hatte ich vergessen zu erwähnen, entschuldige: gegenüber einer 1D Mk II N und einer 20D.


Man könnte zusätzlich noch ein Dichteverfahren anwenden...

Würde das dann wirklich das Meßergebnis beeinflussen? Es würde, denn wir wissen nicht inwiefern die Hersteller bei den "Rohformaten" eingreifen. Eigentlich müssten wir tatsächlich einen Rohling messe, das möglich machbare an den entsprechenden Sensoren. Doch auch diese Messung würde hinken: schließlich müssten wir dann dieselber Querschnitte verwenden wie auf den Leiterbahnen, nur um Verfälschungen jeglicher Art abzuwenden.

Mit einem Spektralphotometer, welcher schon recht genau ist und mehr als ausreichend m.E., sind die Nikonen und die Canonen gleich zu betrachten. Wie bereits erwähnt, kann der User Einfluss nehmen, und sei es durch das Formatwechsel JPG zu "Rohformat". Ich setze "Rohformat" absichtlich in "", weil ich sage, es gibt kein wirkliches Rohformat! Zumindestens nicht das, was technisch betrachtet, darunter zu verstehen ist.

Das hier Reserven bestehen, derzeit nicht umsetzbar aus rein technischer Machbarkeit, sofern wir von der Fotografie als soches ausgehen. Das es ein Traum ist, den Kontrast- und Dynamikumfang dem des menschlichen Auge anzugleichen, ist technisch betrachtet eine irrsinnige Herausforderung.


VG Roman
unterwegs mit Canon (http://www.photospaziergang.de/)

Micha67
17.12.2005, 22:10
Gemessen worden direkt über ein Spektralphotometer mit Kantenfilter....
Man könnte zusätzlich noch ein Dichteverfahren anwenden...
Würde das dann wirklich das Meßergebnis beeinflussen?Wenn Du das machst, was ich vermute, nämlich mittlere Graustufenwerte aus einer definierten Region per Histogramm zu bestimmen, dann macht es keinerlei Unterschied, ob Du ein Dichteverfahren anwendest oder nicht. In jedem Fall ist das was herauskommt eine Signal-Antwort-Funktion, die erst unter gleichzeitiger Betrachtung des Noise zu einer Bestimmung des Signal-Rauschabstandes und damit immer noch nicht zu einer Messung des Dynamikbereiches umgewandelt werden könnte.

Ich schätze mal, dass eine verlässliche Bestimmung des "echten" Dynamikbereiches die apparativen Möglichkeiten eines Jeden von uns übersteigt.

Was man aber durchaus tun kann und gleichzeitig für fotografische Zwecke relevanter wäre ist, verschiedene Kameramodelle in ihren single-shot-DRI-Fähigkeiten zu prüfen. Die könnte z.B. bedeuten, bei gleichem Motiv in RAW fotografierend eine Belichtungsreihe in halben oder drittel-Blenden aufzuzeichnen. Man selektiert nun die Belichtungen, die jeweils in den Lichtern (z.B. abgebildeter Himmel) gerade noch nicht ausfressen und dann Schattenpartien definiert emporzuziehen. Die Kamera, die unter diesen Bedingungen die vernünftigere Schattendurchzeichnung bei geringerem Noise *und* erhaltener Detailstruktur liefert, hatte vermutlich den größeren Dynamikbereich.


Das es ein Traum ist, den Kontrast- und Dynamikumfang dem des menschlichen Auge anzugleichen, ist technisch betrachtet eine irrsinnige Herausforderung.
Ja, daran werden wir noch eine ganze Weile scheitern. Für den Beginn würde es allerdings mal genügen, die Technik so weit zu treiben, dass die konventionellen Filmmaterialien erreicht bzw. überholt werden. In diesem Punkt ist es als gesichert anzusehen, dass Diafilm in Sachen Dynamikumfang bereits längst eingeholt wurde. Bei klassischen S/W-Negativ-Emulsionen könnte es auch sein, dass die besten DSLRs bereits vorbeigezogen sind. Bei Farbnegativfilm könnte es sein, dass immer noch der Film vorne liegt.

Nightshot
18.12.2005, 01:36
Ich schätze mal, dass eine verlässliche Bestimmung des "echten" Dynamikbereiches die apparativen Möglichkeiten eines Jeden von uns übersteigt.
Aber der aus einer Datei nutzbare Dynamikumfang sollte doch zugänglich sein. Ist es falsch wenn ich behaupte, dass das Rauschen einer Kamera direkt den Dynamikumfang bestimmt? Ich sehe mir also die RAW Datei an und bestimme ab welchem Bit die Werte zufällig verteilt sind. Alle höheren Bits sind dann deterministisch von der Kamera gesetzt und es gilt „nicht statistisch verteilte Bits“ = „Dynamikumfang in Blenden“.

Für den Beginn würde es allerdings mal genügen, die Technik so weit zu treiben, dass die konventionellen Filmmaterialien erreicht bzw. überholt werden.
Also ich kann nur sagen, dass ich digital Nachtaufnahmen mache, die auf Film undenkbar wären, da der Dynamikumfang nicht reichen würde. Ich habe mal nachgerechnet, dass wenn ich wirklich die volle Dynamik in einem meiner Bilder aufzeichnen will, ich zwischen 18 und 20 Blendenstufen bräuchte. Keine Frage das wäre schön, aber wie soll ich das jemals auf ein Medium bringen?

Das es ein Traum ist, den Kontrast- und Dynamikumfang dem des menschlichen Auge anzugleichen, ist technisch betrachtet eine irrsinnige Herausforderung.
Sooo gut ist unser Auge in Bezug auf Dynamikumfang dann auch nicht. Ich glaube, wenn sich die Iris im Auge nicht der Helligkeit anpassen darf, dann ist es auch schnell am Ende. Wenn ich einen echten Vergleich machen will, dann muss ich bei beiden Kontrahenten die Blende entweder fest halten oder beiden gestatten die Blende zu ändern und wenn ich bei der Kamera alle Blenden verwenden darf, dann komme ich auch auf einen beachtlichen Umfang.

Micha67
18.12.2005, 09:40
Aber der aus einer Datei nutzbare Dynamikumfang sollte doch zugänglich sein. Ist es falsch wenn ich behaupte, dass das Rauschen einer Kamera direkt den Dynamikumfang bestimmt? Ich sehe mir also die RAW Datei an und bestimme ab welchem Bit die Werte zufällig verteilt sind. Alle höheren Bits sind dann deterministisch von der Kamera gesetzt und es gilt „nicht statistisch verteilte Bits“ = „Dynamikumfang in Blenden“.Ein immerhin sehr guter Ansatz, der in Richtung der Bestimmung eines Signal-Rauschabstandes führt. Dies könnte so aussehen, dass man - ähnlich wie Phil - eine Signal-Übertragungsfunktion aufnimmt, dazu dann aber noch eine Signal-Noise-Funktion und dann die beiden Funktionen ins Verhältnis setzt (Signalübertragung / Noiseübertragung). Dort, wo die Funktion den Wert 1 überschreitet bis hin zum Ausfressen der Lichter liegt die Spanne, innerhalb derer die "nutzbaren Blendenstufen" liegen. Dies wäre in meinen Augen eines der am wenigsten schlechten Messverfahren.

Einige Probleme bleiben allerdings:
- Was, wenn man an die echten "Rohdaten" nicht herankommt, sondern nur kameraintern geglättetes Datenmaterial erhält?
- Wie gehe ich mit Kameras mit unterschiedlicher Pixeldichte vor? Gebe ich jetzt einen Signal-Rauschabstand für Einzelpixel an (der wäre ziemlich klein und würde hoch auflösenden Kameras automatisch den Nachteil geben), oder gebe ich einen Signal-Rauschabstand für eine konstante Sensorfläche an (dann verliere ich die Format-Unterschiede in der Dynamik).
- Wie behandle ich Luminanz-Dynamik versus Farbdynamik?


Also ich kann nur sagen, dass ich digital Nachtaufnahmen mache, die auf Film undenkbar wären, da der Dynamikumfang nicht reichen würde. Ich habe mal nachgerechnet, dass wenn ich wirklich die volle Dynamik in einem meiner Bilder aufzeichnen will, ich zwischen 18 und 20 Blendenstufen bräuchte. Keine Frage das wäre schön, aber wie soll ich das jemals auf ein Medium bringen?Genau so, wie bei Deinen Nachtaufnahmen: nach Dynamikkompression (DRI). Es geht keinesfalls darum, die Kontraste 1:1 in die Ausgabe zu übertragen, denn dabei würde selbst Diafilm spätestens nach 10 Blendenstufen schlapp machen.


Sooo gut ist unser Auge in Bezug auf Dynamikumfang dann auch nicht. Ich glaube, wenn sich die Iris im Auge nicht der Helligkeit anpassen darf, dann ist es auch schnell am Ende. Wenn ich einen echten Vergleich machen will, dann muss ich bei beiden Kontrahenten die Blende entweder fest halten oder beiden gestatten die Blende zu ändern und wenn ich bei der Kamera alle Blenden verwenden darf, dann komme ich auch auf einen beachtlichen Umfang.Unterschätze nicht die Adaptation auf Ebene der Sehzelle selbst. Wenn wir aus einem Raum durch ein Fenster in eine besonnte Landschaft schauen, dann sehen wir das Raum-Innere und die Landschaft gleichzeitig relativ gut (da spielt dan die Iris keine große Rolle). Eine solche Situation ist für Film oder Digitalsensoren schon extrem schwierig.

Karl Günter Wünsch
18.12.2005, 10:33
Wer hier über die fehlende Rauschbetrachtung nörgelt sollte den Test der R1 einmal durchlesen, hier wird von Phil auf das Problem eingegangen. Vielleicht im Test der 5D nicht so eindeutig weil hier das Rauschen bei beiden Probanden letztendlich auf gleichem Niveau lag aber bei der R1 spricht er eindeutige Worte diesbezüglich.
mfg
Karl Günter

Micha67
18.12.2005, 12:16
Wer hier über die fehlende Rauschbetrachtung nörgelt sollte den Test der R1 einmal durchlesen, hier wird von Phil auf das Problem eingegangen. Vielleicht im Test der 5D nicht so eindeutig weil hier das Rauschen bei beiden Probanden letztendlich auf gleichem Niveau lag aber bei der R1 spricht er eindeutige Worte diesbezüglich.Hier bin wohl ich gemeint? ;)
Habe nachgelesen und sehe, dass er das Problem zwar erkennt, aber gleichwohl nicht löst. Er sagt ja explizit, dass es keinen Sinn mache, die Messdaten heranzuziehen, lässt sie daher aber einfach aus seiner Kennlinie weg und verweist auf die Detailabbildung der Graupatches. Er umschifft dabei genau den kritischen Punkt. Mittle ich die rauschenden Bildflächen, so bliebe eine Abstufung durchaus erhalten, die dann sogar bei hohem ISO und Noise noch flacher verläuft. Welche Konsequenzen hätte dies auf seine Kennlinie? Klar, sie läuft ebenfalls flacher aus. Im Resultat würde er paradoxerweise eine größere "Dynamikbreite" bei hohem ISO messen. Um diesem "Problem" aus dem Weg zu gehen, hat er diese Messdaten aus dem Bild einfach weggelassen - damit man seinen Gedankenfehler in der Benennung der Signalübertragungsfunktion als "Messung der Dynamikbreite" einfach nicht sieht. Es ist nun mal so: die Dynamikbreite wird hier nicht zur Darstellung gebracht, es handelt sich lediglich um Übertragungsfunktionen.

Selbst der ehrenwerte Versuch, im "Raw-Headroom" die Dynamikbreite wiederzufinden, krankt an exakt dem selben Problem, da wiederum die Noise-Betrachtung fehlt und *mit* Noise eine überzogen hohe Dynamikbreite dargestellt wird. Die Sony DSC-R1 verfügt nie und nimmer über eine Dynamikbreite von > 1000:1! Es handelt sich wieder rein um eine Signalübertragungsfunktion gemittelter Flächen. In diesem Punkt wird sich eine stark rauschende Kamera sogar positiv auf die angebliche Dynamik auswirken, da sie zu flacheren Signalübertragungsverläufen führt: selbst in Abstufungen tiefster Schwarztöne rauschen einige Pixel noch eine kleine Signaldifferenz hinein, wo bei einer "rauscharmen" Kamera längst der Schwarzpunkt überschritten war. Ebenso in den Lichtern: in hellsten Weissabstufungen rauschen einige Pixel einer Kompaktknipse ein wenig unterschiedlich viel Signal hinein, wo eine "rauschfrei" abbildende Kamera mit eigentlich viel höherer Dynamikbreite schon längst homogen in ihrem Weisspunkt versunken ist. Bliebe also der irrige Schluss, dass meine Powershot G2 über eine höhere Dynamikbreite verfüge wie eine Canon 5D.

Würde Phil die über jeden Graupatch gemessene Standardabweichung mit darstellen würde, so wäre ein Helligkeits-abhängiger Signal-Rauschabstand definierbar, der uns einer Dynamikabschätzung sofort um Längen näher brächte (wie schon von anderer Seite in diesem Thread ganz richtig angemerkt wurde).

Zum Schluss: ich kann gut nachvollziehen, dass Ihr skeptisch reagiert, wenn ich mich hier auf den ersten Blick "gegen etablierte Stimmen" stelle, aber glaubt mir: ich habe mit diesem Kram beruflich zu tun und weiss sehr wohl, wovon ich hier rede. Wenn ich von einer Kamera mit hoher Dynamik schwärme, dann heisst diese nicht Canon 5D, 1DsII oder Sinarback, sondern z.B. "Andor iXon DV 887-BI" oder "Princeton Instruments PhotonMax".

Edit: Typos

Benutzer
18.12.2005, 13:52
Was man aber durchaus tun kann und gleichzeitig für fotografische Zwecke relevanter wäre ist, verschiedene Kameramodelle in ihren single-shot-DRI-Fähigkeiten zu prüfen. Die könnte z.B. bedeuten, bei gleichem Motiv in RAW fotografierend eine Belichtungsreihe in halben oder drittel-Blenden aufzuzeichnen. Man selektiert nun die Belichtungen, die jeweils in den Lichtern (z.B. abgebildeter Himmel) gerade noch nicht ausfressen und dann Schattenpartien definiert emporzuziehen. Die Kamera, die unter diesen Bedingungen die vernünftigere Schattendurchzeichnung bei geringerem Noise *und* erhaltener Detailstruktur liefert, hatte vermutlich den größeren Dynamikbereich.


Ja, daran werden wir noch eine ganze Weile scheitern. Für den Beginn würde es allerdings mal genügen, die Technik so weit zu treiben, dass die konventionellen Filmmaterialien erreicht bzw. überholt werden. In diesem Punkt ist es als gesichert anzusehen, dass Diafilm in Sachen Dynamikumfang bereits längst eingeholt wurde. Bei klassischen S/W-Negativ-Emulsionen könnte es auch sein, dass die besten DSLRs bereits vorbeigezogen sind. Bei Farbnegativfilm könnte es sein, dass immer noch der Film vorne liegt.


Der reine gemessene Umfang, im Vergleich mit dem analogen Material, sofern überhaupt möglich und machbar (lass uns nicht den Sinn diskutieren, da wir hier rein unterschiedliche Systeme vergleichen wollen), hat das digitale Material bereits für sich gewonnen.

Ja, mit deinem Vorschlag gehe ich dakor, das sollte man in Kameramodellen einsetzen, wie deren Umsetzung aussehen kann, sollen sich andere den Kopf zerbrechen. Zu dem Single DRI noch Tonwertreduzierungen und Spreizungen je nach Vorgabe frei wählbar, das ganze in der neuesten Version auf den RISC Kernen, dann, dann sind wir fast da. Auch nur getrickst, ich weis, dennoch wage ich die Äußererung, das alles was direkt per Hardware gemacht wird, höherwertig ist. Ich finde es immer schade wenn man per Software die Signale richten muss:-( Wenn auch ein guter Weg:-)

VG Roman
unterwegs mit Canon (http://www.photospaziergang.de/)

Micha67
18.12.2005, 14:36
Der reine gemessene Umfang, im Vergleich mit dem analogen Material, sofern überhaupt möglich und machbar (lass uns nicht den Sinn diskutieren, da wir hier rein unterschiedliche Systeme vergleichen wollen), hat das digitale Material bereits für sich gewonnen.Ich stimme prinzipiell zu, einzig Farbnegativfilm mit seiner enormen Belichtungstoleranz mag gegenüber digital die Nase noch etwas vorne haben.


Zu dem Single DRI noch Tonwertreduzierungen und Spreizungen je nach Vorgabe frei wählbar, das ganze in der neuesten Version auf den RISC Kernen, dann, dann sind wir fast da. Auch nur getrickst, ich weis, dennoch wage ich die Äußererung, das alles was direkt per Hardware gemacht wird, höherwertig ist. Ich finde es immer schade wenn man per Software die Signale richten muss:-( Wenn auch ein guter Weg:-) Irgendwann wird man um die Software nicht herumkommen, da ja (Reiner aka Nightshot hat es bereits richtig angesprochen) keines unserer Ausgabemedien in der Lage wäre, die volle Dynamik einer aktuellen Top-DSLR wiederzugeben. Wir können also nicht "Hardware-mässig" alles 1:1 durchschleifen von Sensor über Wandlung, Bayer-demosaic, Fileformat, Grafikkarten-Wandlung und Bildschirmausgabe oder Print. Es *müssen* vielmehr Tonkurvenanpassungen (z.B. Gammakorrekturen) erfolgen - und dies ist auch nicht wirklich ein "Getrickse", sondern schlicht eine unabwendbare Notwendigkeit. Würden wir allerdings kameraintern ("auch "Hardware-seitig"?) die Dynamik komprimieren und so in JPEG ablegen, dann würden die BIlder bei moderaterem Kontrastumfang des Motivs ziemlich flau aussehen und wir würden klar das Resultat einer Kamera bevorzugen, die nicht diese Dynamikkompression anwendet. Vernünftige Regler, die eine solche variable Dynamikkompression bei direkter JPEG-Kodierung direkt in der Kamera kontrollierbar machen, gehören noch zu den Bedienungselementen, die auf dem Weg ins Digitalzeitalter bislang noch vergessen wurden. Selbst eine Fuji S3 mit ihrem "high dynamic range"-Modus, der durchaus sehr interessant ist, ist hier in der Bedienungsführung nicht wirklich vorbildlich, da sie die Mixtur von R- und S-Pixeln nur im RAW-Konverter (erfordert die Speicherung von 24 MB pro Bild!) sehr flexibel anwendbar ist. In der JPEG-Ausgabe versucht man hingegen, die grundsätzliche JPEG-Bildqualität nicht zu stark zu verändern (kaum Schatten- und Mittenanpassung), sondern zusätzlichen Dynamik-Headroom nur höflich zurückhaltend in den Lichtern anzubieten.

Anderer Ansatz: Man könnte ja auch einfach ein Bild eines Innenraumes mit Blick aus einem Fenster auf eine besonnte Landschaft schiessen, die über Selektiv-Messung korrekt auf die Landschaft belichtet (Canon etwas knapper, Nikon etwas reichlicher) und in RAW gespeichert wird. Danach arbeitet man das Bild im Konverter mit z.B. +4 EV auf eine korrekte Belichtung des Innenraumes um und lässt halt die Lichter in der Landschaft gnadenlos ausfressen. Die Kamera, die nun eine feinere Zeichnung der Tonstufen des Innenraumes bei guter Beherrschung des Noise (ohne zusätzliches Noise-Filter) bietet, hat vermutlich den größeren nutzbaren Dynamikumfang.

Der Vorschlag mit dem single-shot-DRI kommt der Aufgabe ja auch ziemlich nahe, nur dass beim single-shot-DRI natürlich eine Tonwertkorrektur den Weisspunkt möglichst nicht verschiebt (Gammakorrektur mit Tiefenanhebung um z.B. +4 EV, Mittenanhebung um ca. +1 EV und Konstanz in den Lichtern), sodass die Zeichnung in fast allen Helligkeitsstufen erhalten bleibt. Dies ist dann eine klassische Dynamikkompression, die ja gerade in den Motiven mit zu harten Kontrasten der Wunschtraum ist. Genau solche Szenen soll ein hoher Dynamikumfang ja gerade beherrschbar machen.

Nightshot
18.12.2005, 22:00
Dies könnte so aussehen, dass man - ähnlich wie Phil - eine Signal-Übertragungsfunktion aufnimmt, dazu dann aber noch eine Signal-Noise-Funktion und dann die beiden Funktionen ins Verhältnis setzt (Signalübertragung / Noiseübertragung). Dort, wo die Funktion den Wert 1 überschreitet bis hin zum Ausfressen der Lichter liegt die Spanne, innerhalb derer die "nutzbaren Blendenstufen" liegen.
Noch was anderes. Wenn ich einfach eine Graukarte ein paar mal fotografiere und die Bilddaten statistisch auswerte, um das letzte echte Bit zu identifizieren, dann hab ich doch den Rauschlevel bestimmt und kann schon auf die Dynamik schließen. Mein Gefühl sagt mir, dass ich etwas übersehen habe, aber was? Setze ich dann voraus, dass der Sensor absolut linear noch oben und unten aufnimmt? Die richtige Software dazu gibt es auch schon und nennt sich IRIS (http://astrosurf.com/buil/us/iris/iris.htm). Nur schade, dass die Franzosen schneller programmieren als dokumentieren.
Mir ist aufgefallen, wie man Phil’s Graphen „retten“ kann. Bei niedrigen EV Werten wird die Kurve sehr flach (ISO Sensitivity and Dynamic Range). Zeichne ich als horizontale Linie den Wert ein, bis zu dem RGB Wert das Bild bei entsprechendem ISO Wert rauscht, dann bekomme ich einen Schnittpunkt, ab dem EV Wert die Kamera nutzbar wird. Dieser würde sich mit steigendem ISO Wert immer weiter nach recht verlagern, da der Rauschwert auf der y-Achse weiter nach oben wandert. Ich weiß, ich sage hier nichts neues, aber so finde ich es recht anschaulich.

- Was, wenn man an die echten "Rohdaten" nicht herankommt, sondern nur kameraintern geglättetes Datenmaterial erhält?
- Wie gehe ich mit Kameras mit unterschiedlicher Pixeldichte vor? Gebe ich jetzt einen Signal-Rauschabstand für Einzelpixel an (der wäre ziemlich klein und würde hoch auflösenden Kameras automatisch den Nachteil geben), oder gebe ich einen Signal-Rauschabstand für eine konstante Sensorfläche an (dann verliere ich die Format-Unterschiede in der Dynamik).
- Wie behandle ich Luminanz-Dynamik versus Farbdynamik?
- Ich habe noch nicht gemerkt, dass die Kamera bei RAW irgendetwas glättet. Das wäre auch mein absolutes ko Kriterium für eine Kamera. Dead Pixel und Bandingunterdrückung ist noch in Ordnung, aber vom Rest soll sie gefälligst die Finger lassen. Aus dem Grund habe ich mich nie für die Nikon D70 interessiert. Die komprimiert ihr RAW verlustbehaftet.
- Rauschabstand auf jeden Fall in Bezug auf das Einzelpixel. Wenn ich eine hohe Auflösung will, dann muss das zu Lasten der Dynamik gehen. In der Physik gibt es nichts umsonst (gleiche Sensortechnik vorausgesetzt).
- Nicht ganz leicht, aber ich denke, dass die Luminanz wichtiger ist.

Es geht keinesfalls darum, die Kontraste 1:1 in die Ausgabe zu übertragen, denn dabei würde selbst Diafilm spätestens nach 10 Blendenstufen schlapp machen.
Nur das Auge empfindet dann dieses komprimierte Bild als ziemlich kontrastarm. Wenn ich entweder nur die unteren oder nur die oberen Blendenstufen verwende, kann ich Dinge erkennen, die im komprimierten Bild einfach nicht auffallen. Ich habe ein Foto bei Mondlicht, das sieht je nach Gradationskurve entweder nach Tag oder nach Nacht aus. Da muss ich mich schon entscheiden, welchen Bits ich bei der Anpassung mehr Beachtung schenke.

Unterschätze nicht die Adaptation auf Ebene der Sehzelle selbst. Wenn wir aus einem Raum durch ein Fenster in eine besonnte Landschaft schauen, dann sehen wir das Raum-Innere und die Landschaft gleichzeitig relativ gut (da spielt dan die Iris keine große Rolle).
Oh doch. Die Iris ändert sich schneller beim schauen als man glaubt. Wir sehen ja auch nur in der Mitte Farben, aber doch sieht das gesamte Gesichtsfeld farbig aus. Haben wir einmal eine Stelle wahrgenommen, so speichert das Gehirn das ab und setzt es stimmig ins Gesamtbild, auch wenn wir uns bereits auf eine andere Stelle konzentrieren und die Iris nachgestellt wurde. Beim Augenarzt gibt es doch so Tropfen, die die Iris zur Untersuchung blockieren. Sieht man danach nicht sehr eingeschränkt? Mir ist das bisher zum Glück erspart geblieben, daher kann ich nicht aus eigener Erfahrung berichten.

Für was braucht ihr so eine Kamera wie die iXon DV887? Wir in der Astronomie haben häufiger mit diesen „Photonenzählern“ zu tun, allerdings sind -100°C Betriebstemperatur bei uns schon Warmläufer :D

Micha67
18.12.2005, 23:32
Noch was anderes. Wenn ich einfach eine Graukarte ein paar mal fotografiere und die Bilddaten statistisch auswerte, um das letzte echte Bit zu identifizieren, dann hab ich doch den Rauschlevel bestimmt und kann schon auf die Dynamik schließen. Mein Gefühl sagt mir, dass ich etwas übersehen habe, aber was? Setze ich dann voraus, dass der Sensor absolut linear noch oben und unten aufnimmt?Der Sensor selbst wie auch der A/D-Wandler tun dies ja auch relativ zuverlässig (mal agesehen vom Offset des Schwarzpunktes). Das, was wir als "roheste Daten" zu Gesicht bekommen, ist aber immerhin schon durch den Bayer-Demosaic genudelt worden, oder es wird spätestens im Rahmen der RAW-Entwicklung dort (mit evtl. anderen Farbtemperaturvorgaben) hindurchgenudelt. Die Noise-Level, die wir dann noch beurteilen können, mögen zwar technisch immer noch nicht eine echte Bestimmung des Dynamikbereiches zulassen, ich stimme aber völlig zu, wenn man sagt, dass sie die fotografisch relevanten Grenzen der Dynamik repräsentieren. Sollten Kamera-interne Signalverarbeitung und/oder RAW-Entwickler hier in den Daten zusätzliche Glättungen etc. vornehmen, so wäre natürlich die Beurteilung solcher Parameter wieder unzulässig.


Mir ist aufgefallen, wie man Phil’s Graphen „retten“ kann. Bei niedrigen EV Werten wird die Kurve sehr flach (ISO Sensitivity and Dynamic Range). Zeichne ich als horizontale Linie den Wert ein, bis zu dem RGB Wert das Bild bei entsprechendem ISO Wert rauscht, dann bekomme ich einen Schnittpunkt, ab dem EV Wert die Kamera nutzbar wird. Dieser würde sich mit steigendem ISO Wert immer weiter nach recht verlagern, da der Rauschwert auf der y-Achse weiter nach oben wandert. Ich weiß, ich sage hier nichts neues, aber so finde ich es recht anschaulich.Ja, genau das würde ich auch als mindest-Bedingung fordern, damit aus den bislang gezeigten Übertragungs-Kennlinien eine realistischere Abschätzung des nutzbaren Dynamikbereiches würde.


Ich habe noch nicht gemerkt, dass die Kamera bei RAW irgendetwas glättet. Das wäre auch mein absolutes ko Kriterium für eine Kamera. Dead Pixel und Bandingunterdrückung ist noch in Ordnung, aber vom Rest soll sie gefälligst die Finger lassen. Aus dem Grund habe ich mich nie für die Nikon D70 interessiert. Die komprimiert ihr RAW verlustbehaftet.Selbst wenn bislang die Hersteller in diesem Punkt noch weitgehend "ehrlich" gewesen sein sollten, weiss man nie, was in dieser Hinsicht in Zukunft noch für Blüten getrieben werden mögen.


- Rauschabstand auf jeden Fall in Bezug auf das Einzelpixel. Wenn ich eine hohe Auflösung will, dann muss das zu Lasten der Dynamik gehen. In der Physik gibt es nichts umsonst (gleiche Sensortechnik vorausgesetzt).
- Nicht ganz leicht, aber ich denke, dass die Luminanz wichtiger ist.
Und wenn ich jetzt entgegenhalte, dass dann für reale Applikationen, wie z.B. Ausbelichtungen, die höher auflösende Kamera über Einzelpixel zwar den geringern Dynamikumfang, über das gleiche Motivdetail hin aber evtl. einen noch höheren Dynamikumfang haben könnte? Sollte man die Kameras nun auf gleiche Motivteile normieren oder wirklich die unterschiedlich großen Einzelpixel mit schlechter Vergleichbarkeit zwischen den Modellen heranziehen?
Ich frage nur deswegen so provokativ, da man mit einem Einzelpixel-Dynamikumfang von x-EV bei einer Nikon D2x versus einem Einzelpixel-Dynamikumfang von y-EV bei einer Canon 10D den "Normalverbraucher" vermutlich mehr verwirren als informieren würde.


Die Iris ändert sich schneller beim schauen als man glaubt. Wir sehen ja auch nur in der Mitte Farben, aber doch sieht das gesamte Gesichtsfeld farbig aus. Haben wir einmal eine Stelle wahrgenommen, so speichert das Gehirn das ab und setzt es stimmig ins Gesamtbild, auch wenn wir uns bereits auf eine andere Stelle konzentrieren und die Iris nachgestellt wurde. Beim Augenarzt gibt es doch so Tropfen, die die Iris zur Untersuchung blockieren. Sieht man danach nicht sehr eingeschränkt? Mir ist das bisher zum Glück erspart geblieben, daher kann ich nicht aus eigener Erfahrung berichten.ab hier OT:
- Du setzt Irisreaktion mit Farb-Zuweisung unzulässig in einen Kontext.
- Die Irisstellung kann im Extremfall bis zu 6 Blendenstufen an Adaptation hinbekommen. Dies hilft der Dynamik der Sehzellen ziemlich effizient, aber auch die Sehzelle selbst glänzt weiterhin mit enormem Dynamikumfang:
- Die molekularen Mechanismen hierbei sind vielfältig: Der Rezeptor (Rhodopsin) trägt einen im Molekül gebundenen Blocker, das 11-cis-Retinal, welches den Rezeptor so still hält, dass er als Einzelmolekül im absoluten Dunkel gehalten nur ein Mal in mehreren Jahren ein Einzelmolekül seines Signalpartners, das Transducin (ein aus drei Untereinheiten bestehendes, GTP-bindendes Protein), aktivieren würde. Wird durch ein eingefangenes Photon eine cis-trans-Isomerisierung des Retinals ausgelöst, so aktiviert der Einzelrezeptor viele vorbeidiffundierende Transducin-Moleküle und verstärkt damit das Signal so stark, dass am Ende ein Einzelphoton "gesehen" (als Lichtblitz wahrgenommen) werden kann. Von diesen Rezeptoren haben wir in den Membranstapeln in den Aussensegmenten der Sehzellen eine enorme Anzahl, die letzten Endes semikristallin auf den Membranscheibchen zu liegen kommen. Bei steigender Signalstärke schalten die Rezeptoren durch Phosphorylierung und nachfolgende Arrestin-Bindung ab. Die GTP-bindenden G-Proteine werden durch Phosducin im inaktiven Status arretiert, die freigesetzten Gbetagamma-Untereinheiten landen in einem Speicherprotein namens RGS-9 und verhindern so den wieder-Zusammenschluss des heterotrimeren G-Proteins für erneute Signalzyklen. Eine Guanylylzyklase, die den Botenstoff cGMP herstellt, kommt an ihr Limit, so dass die durch Lichteinwirkung über Transducin und eine Phosphodiesterase 6 (die Nummer 5 davon sitzt im Schnidelwutz und macht die Erektion) die stattfindende Spaltung des cGMP nicht mehr durch erneute cGMP-Bildung kompensiert werden kann. Die Ionenkanäle der Sehzell-Oberfläche, cGMP-gesteuerte Natriumkanäle, adaptieren ebenfalls, es lösen sich sogar im Überlastungsfall physikalische Interaktionen zwischen den Membranscheibchen, die die Rezeptoren tragen, und der Plasmamembran, die den Signal-übertragenden Ionenkanal beherbergt. Damit kommt es zu einer verminderten Lokalkopplung und einer geringeren Ansprechbarkeit in der Modulation des Dunkelstromes. All diese Mechanismen beschäftigen ganze Institute und Forchungsnetzwerke.


[OT] Für was braucht ihr so eine Kamera wie die iXon DV887? Wir in der Astronomie haben häufiger mit diesen „Photonenzählern“ zu tun, allerdings sind -100°C Betriebstemperatur bei uns schon Warmläufer :D Hier (Zellbiologie) steht weniger die Langzeitintegration (-100°C) im Vordergrund als vielmehr der hochempfindliche Nachweis der Lokalisation, Bewegung und Interaktion von (einzelnen) zellulären Signalmolekülen. Wer einmal den Sehrezeptor live in der Zelle hat herumflitzen sehen, der versteht das.

charly gielen
19.12.2005, 00:03
ab hier OT:
- Du setzt Irisreaktion mit Farb-Zuweisung unzulässig in einen Kontext.
- Die Irisstellung kann im Extremfall bis zu 6 Blendenstufen an Adaptation hinbekommen. Dies hilft der Dynamik der Sehzellen ziemlich effizient, aber auch die Sehzelle selbst glänzt weiterhin mit enormem Dynamikumfang:
- Die molekularen Mechanismen hierbei sind vielfältig: Der Rezeptor (Rhodopsin) trägt einen im Molekül gebundenen Blocker, das 11-cis-Retinal, welches den Rezeptor so still hält, dass er als Einzelmolekül im absoluten Dunkel gehalten nur ein Mal in mehreren Jahren ein Einzelmolekül seines Signalpartners, das Transducin (ein aus drei Untereinheiten bestehendes, GTP-bindendes Protein), aktivieren würde. Wird durch ein eingefangenes Photon eine cis-trans-Isomerisierung des Retinals ausgelöst, so aktiviert der Einzelrezeptor viele vorbeidiffundierende Transducin-Moleküle und verstärkt damit das Signal so stark, dass am Ende ein Einzelphoton "gesehen" (als Lichtblitz wahrgenommen) werden kann. Von diesen Rezeptoren haben wir in den Membranstapeln in den Aussensegmenten der Sehzellen eine enorme Anzahl, die letzten Endes semikristallin auf ...........
.......Lokalkopplung und einer geringeren Ansprechbarkeit in der Modulation des Dunkelstromes. All diese Mechanismen beschäftigen ganze Institute und Forchungsnetzwerke.

Hier (Zellbiologie) steht weniger die Langzeitintegration (-100°C) im Vordergrund als vielmehr der hochempfindliche Nachweis der Lokalisation, Bewegung und Interaktion von (einzelnen) zellulären Signalmolekülen. Wer einmal den Sehrezeptor live in der Zelle hat herumflitzen sehen, der versteht das.

:)))))))))))
das meiste verstehe ich nicht , aber ich lese es trotzdem gerne
charly

Rüdiger Bartz
19.12.2005, 02:41
Nach allem was Micha67 so schreibt, scheint reales fotografieren ein virtueller Trugschluss zu sein. Man hat zwar ein Bild, aber es ist doch keins, weil es theoretisch so eben nicht sein kann. Lieber Micha67, zeig das auch mal als Bilder was du meinst, Photographen sind in der Regel visuell aufnahmefähiger. Ich freue mich schon riesig auf die Sezierung deiner geplanten 5D.

Gruß Rue

JAKOB
19.12.2005, 03:38
Nach allem was Micha67 so schreibt, scheint reales fotografieren ein virtueller Trugschluss zu sein. Man hat zwar ein Bild, aber es ist doch keins, weil es theoretisch so eben nicht sein kann. Lieber Micha67, zeig das auch mal als Bilder was du meinst, Photographen sind in der Regel visuell aufnahmefähiger. Ich freue mich schon riesig auf die Sezierung deiner geplanten 5D.

Gruß Rue

och, da gibt doch so schlaue bücher von noch schlaueren köpfen, wie z.b. gerhard roth.....


....ich beginne mich auch zu fragen ob ich wirklich das sehe was da ist :rolleyes:

Micha67
19.12.2005, 08:38
Ich freue mich schon riesig auf die Sezierung deiner geplanten 5D.Wenn ich Dich da mal nicht enttäuschen werde, denn mit einer 5D würde ich exakt das gleiche tun, wie mit den jetzigen Kameras: fotografieren.

Sektion der Technologie, das ist der Job. Privat kann ich ja gerne das Wissen weitervermitteln, aber Zehneuroscheine oder gestapelte Graufilter werde ich nicht mehr fotografieren. DIe Phase der Testeritis ist für mich vorbei.

HKO
19.12.2005, 14:08
Es wurde nun sehr viel darüber geschrieben, wie was und warum was nicht geht - bleibts dann praktisch ein subjektiver Eindruck ? Doch wohl nicht - ausgefressene Lichter und abgesoffene Schatten/Schwärzen sind doch klar zu definieren.

Daher bitte positiv: wie kann dies definiert, ggf. gemessen werden ? Klar bleibt, daß nur die Black-Box Kamera beurteilt werden kann, was darin die Soft mit den Sensor-Daten macht, kann von uns nur am Ergebnis beurteilt werden.

Micha67
19.12.2005, 15:16
Es wurde nun sehr viel darüber geschrieben, wie was und warum was nicht geht - bleibts dann praktisch ein subjektiver Eindruck ? Doch wohl nicht - ausgefressene Lichter und abgesoffene Schatten/Schwärzen sind doch klar zu definieren.
Daher bitte positiv: wie kann dies definiert, ggf. gemessen werden ? Klar bleibt, daß nur die Black-Box Kamera beurteilt werden kann, was darin die Soft mit den Sensor-Daten macht, kann von uns nur am Ergebnis beurteilt werden.Am Ergebnis orientierte Messverfahren hatten Nightshot und ich im Thread bereits vorgeschlagen. Dabei kann man versuchen einen quantitativen Wert aus Signal-zu-Rausch-Verhältnis zu ermitteln oder einfach zwei Kameras immer vergleichend betrachten:

1. quantitative Bestimmung eines Signal-Rauschabstandes:
- Single-shot-DRI von einem Testtarget ähnlich wie es Phil verwendet mit einer abgeblendeten, guten Festbrennweite mittlerer oder etwas längerer Brennweite
- eine Belichtungsreihe in Drittelblenden aufnehmen, um unter Ausnutzung des "headroom", also der in RAW zusätzlich nutzbaren Dynamik eine Belichtung zu finden, die im Weiss-patch gerade noch nicht ausfrisst
- Bestimmung der mittleren Luminanz und der Standardabweichung (nicht Standardfehler des Mittelwertes!) der Luminanzwerte über z.B. 100x100 Bildpixel im Weiss-patch, sowie in den stufenweise weniger hellen patches.
- Bestimmung der Graustufe, bei der gegenüber einer kompletten Dunkelexposition die mittlere Luminanz-Signalintensität genau gleich hoch ist, wie die Standardabweichung der Luminanz, der Dynamikbereich oberhalb dieses Wertes bis hin zum gerade nicht ausgefressenen Patch kann als "nutzbarer Dynamikbereich" bezeichnet werden
- Falls die Kontrastwiedergabe der Optik zweifelhaft ist, kann alternativ zur kalibrierten Grauskala auch eine Belichtungsreihe mit veränderten Verschlusszeiten und Blendeneinstellungen erfolgen, wobei dann andere Variablilitäten (zu lange Belichtungszeiten ergeben Dunkelstrom-Noise, zu offene Blende ergibt Vignettierung) zu berücksichtigen/kontrollieren wären

2. vergleichende Bestimmung der nutzbaren Dynamik an zwei Kameras mittels definiert belichteter single-shot-DRI-Technik:
- Aufnahmen als Drittelblenden-Belichtungsreihen von einem Motiv mit hoher Eingangsdynamik (z.B. im Schatten liegende, dunkle Häuserfront vor weissem Himmel) in RAW anfertigen
- Auswahl der RAW-Datei mit korrektem "expose-to-the-right" auf gerade nicht ausgefressenen weissen Himmel unter Nutzung des gesamten Dynamik-headrooms der entsprechenden RAW-Dateien
- Anhebung der Tiefen um z.B. +3 bis +6 EV und visueller Vergleich der Bilder in Bezug auf Noise, Detailzeichnung und Tonwertabstufung
- Bei unterschiedlich starker Schärfung oder unterschiedlicher Kontrast- oder Farbdarstellung sollte versucht werden, aus jeder Kamera ein "jeweiliges Optimum-Ergebnis" herauszuholen, ein Schuß Subjektivität ist daher dann kaum zu vermeiden, und Vertrauen auf das handwerkliche Geschick des Testenden wird dann halt notwendig sein.

Nightshot
19.12.2005, 16:20
Das, was wir als "roheste Daten" zu Gesicht bekommen, ist aber immerhin schon durch den Bayer-Demosaic genudelt worden, oder es wird spätestens im Rahmen der RAW-Entwicklung dort (mit evtl. anderen Farbtemperaturvorgaben) hindurchgenudelt.
Eben nicht. Daher ja auch mein Hinweis auf die Software IRIS (http://astrosurf.com/buil/us/iris/iris.htm). Der kann ich sagen, dass sie weder Bayer noch Weißabgleich machen soll. Alles was sie dann macht, ist das RAW lesen und die Daten in ein auswählbares gut lesbares Format zu transportieren, um es dann mit beliebiger anderer Software statistisch auswerten zu können. Ich glaube nicht, dass die Kamera selbstständig vor Bayer-Demosaic irgendetwas sinnvoll glätten könnte.

Sollte man die Kameras nun auf gleiche Motivteile normieren oder wirklich die unterschiedlich großen Einzelpixel mit schlechter Vergleichbarkeit zwischen den Modellen heranziehen?
Bei den Rauschbetrachtungen macht man es doch auch und da versucht auch keiner mit Softwarebinning für Chancengleichheit zu sorgen.

Ich frage nur deswegen so provokativ, da man mit einem Einzelpixel-Dynamikumfang von x-EV bei einer Nikon D2x versus einem Einzelpixel-Dynamikumfang von y-EV bei einer Canon 10D den "Normalverbraucher" vermutlich mehr verwirren als informieren würde.
Da wird die Nikon wahrscheinlich unterlegen sein. Inzwischen hat der "Normalverbraucher" doch auch akzeptiert, dass kleinere Pixel mehr Rauschen bedeuten. Warum soll er das mit der Dynamik nicht noch auch lernen?

Wird durch ein eingefangenes Photon eine cis-trans-Isomerisierung des Retinals ausgelöst, so aktiviert der Einzelrezeptor viele vorbeidiffundierende Transducin-Moleküle und verstärkt damit das Signal so stark, dass am Ende ein Einzelphoton "gesehen" (als Lichtblitz wahrgenommen) werden kann.
Bis wir in den Bereich kommen brauchen wir aber eine längere Zeit der Dunkelanpassung. Warum dauert das eigentlich so lange? Ist schon irre, mit welch kurzen Belichtungszeiten unser Auge bei Dunkelheit noch etwas sehen kann.

Wenn ich Dich da mal nicht enttäuschen werde, denn mit einer 5D würde ich exakt das gleiche tun, wie mit den jetzigen Kameras: fotografieren.
Wir werden sehen. Nur wer die Schwächen seiner Kamera und Objektive ausgetestet hat, kann sie im realen Leben umschiffen und erlebt keine Überraschungen. ;) Wer immer nur gutmütige Szenen fotographiert, der braucht auch keine 5D.

PS: Sehr schöne Zusammenfassung der notwenigen Messverfahren. Nicht ganz leicht zu lesen, aber das Problem ist ja auch nicht trivial. Die Statistik des Rauschens hat wirklich der Teufel :D

Benutzer
19.12.2005, 16:56
Es wurde nun sehr viel darüber geschrieben, wie was und warum was nicht geht - bleibts dann praktisch ein subjektiver Eindruck ? Doch wohl nicht - ausgefressene Lichter und abgesoffene Schatten/Schwärzen sind doch klar zu definieren.

Daher bitte positiv: wie kann dies definiert, ggf. gemessen werden ? Klar bleibt, daß nur die Black-Box Kamera beurteilt werden kann, was darin die Soft mit den Sensor-Daten macht, kann von uns nur am Ergebnis beurteilt werden.

Solange nicht das letzte Ausgangsmaterial definiert wird, solange sich in Testergebnissen immer noch auf JPG verlassen wird, auch wenn zugegeben wird dass das beste Bildergebnis im RAW gemacht wird, solange man sich nicht einig ist über den Farbraum der Anwendung, das Tool des Konverters, solange man keine Definition an Parametern hat, solnage man nicht das Verständnis aufbringt, das Kamera, PC und der Firmenkonverter eine Einheit bilden, ein klares JA!

Es ist ein subjektiver Eindruck, es gibt für die vorgeschlagene Einheit ken Verfahren was eindeutig ist. Wird es auch nicht geben. Womit die Beurteilung (rein technischer Art) nicht leichter wird. Durch Anwendergewohnheit und ein weitere Fortschreiten der Programme und dem daraus resultierenden Endergebnis Bild, hat der User X eine Vorliebe für Firma Y und umgekehrt. Letztendlich bleibt das Bild, unser Endergebnis immer subjektiv.

Ausgefressene Lichter und Schatten kann beabsichter Bestandteil sein. Scherz beiseite, eine FineArt lassen sich mit den Digis ebenso umsetzen wie Analog.

VG Roman
unterwegs mit Canon (http://www.photospaziergang.de/)

Micha67
19.12.2005, 21:37
Eben nicht. Daher ja auch mein Hinweis auf die Software IRIS (http://astrosurf.com/buil/us/iris/iris.htm). Der kann ich sagen, dass sie weder Bayer noch Weißabgleich machen soll. Alles was sie dann macht, ist das RAW lesen und die Daten in ein auswählbares gut lesbares Format zu transportieren, um es dann mit beliebiger anderer Software statistisch auswerten zu können. Ich glaube nicht, dass die Kamera selbstständig vor Bayer-Demosaic irgendetwas sinnvoll glätten könnte.Oh ja, das klingt gut. Der geneigte Tester muss sich dann "nur" noch eine Routine schreiben, die die richtigen Datenpunkte in die Statistik hineinblendet.


Bei den Rauschbetrachtungen macht man es doch auch und da versucht auch keiner mit Softwarebinning für Chancengleichheit zu sorgen.Ich sehe das ja auch gerne ein, aber erkläre mal einem Uneingeweihten, dass und warum der Noise einer interpolierten 12-MP-Ausgabe einer Fuji S2 nicht mit einer 12-MP-Ausgabe einer 5D direkt verglichen werden sollte - und dies selbst unabhängig von den tatsächlichen Pixelgrössen.


Da wird die Nikon wahrscheinlich unterlegen sein. Inzwischen hat der "Normalverbraucher" doch auch akzeptiert, dass kleinere Pixel mehr Rauschen bedeuten. Warum soll er das mit der Dynamik nicht noch auch lernen?Zumindest in JPEG-Ausgabe könnte es aufgrund interner Noise-Reduktion durchaus sein, dass bei hohen ISO-Werten eine Nikon D200 sogar rauschärmer wirkt als eine 20D. Was ist nun los mit der Dynamik? Steigt die Dynamik mit dem Glattbügeln von Noise? Rein technisch-rechnerisch: ja. Ist diese Form einer Dynamik-Steigerung im Sinne eines ehrlichen Testvergleiches "fair"? Eher nein. Dein Vorschlag mit Direktauslesen und Analyse der RAW-Files wirkt da deutlich solider.


Bis wir in den Bereich kommen brauchen wir aber eine längere Zeit der Dunkelanpassung. Warum dauert das eigentlich so lange?Es dauert so lange, da zum Erreichen eines soliden Dunkelsignals der Dunkelstrom wieder maximal robust ausgeprägt werden muss (ja, lustigerweise fliesst im Dunkeln in unseren Sehrezeptoren der höchste Strom). Dies erfordert, dass alle Rezeptoren zuverlässig in den Grundzustand gebracht werden, alle nachfolgenden Signalschritte völlig abgeklungen sind und der Botenstoff zyklisches Guanosinmonophosphat wieder in ausreichend hoher Konzentration synthetisiert wurde um die Ionenkanäle wieder auf "vollen Strom" zu schalten. Der Rezeptor selbst ist dabei schon eine Crux, da die Retinal-Isomerisierung nur ein einziges Mal funktioniert (zumindest solange man nicht mit UV-Licht auf ihm herumbrät). Der Rezeptor muss also das strukturveränderte 11-trans-Retinal freigeben, durchläuft dabei einen "leeren" Zustand, der eine gewisse Daueraktivität besitzt und muss durch Bindung eines frischen 11-cis-Retinals erst wieder voll geblockt werden. Danach können erst die folgenden Signalkaskaden komplett abklingen etc..


Wir werden sehen. Nur wer die Schwächen seiner Kamera und Objektive ausgetestet hat, kann sie im realen Leben umschiffen und erlebt keine Überraschungen. ;) Wer immer nur gutmütige Szenen fotographiert, der braucht auch keine 5D.Wenn Du intensiv genug die "Testeritis-Phase" durchlebt hast, dann siehst Du auch ohne systematische Tests an den Fotos die Probleme - selbst wenn es sich um ein neues Kameramodell halten sollte. Mit meinen Objektiven bin ich durch, ich kenne ihre Stärken und Schwächen. Mit einer anderen Kamera würde ich wirklich einfach losfotografieren und anhand der Bildoptimierung parallel die Grenzen und Chancen der Kamera einordnen können.


PS: Sehr schöne Zusammenfassung der notwenigen Messverfahren. Nicht ganz leicht zu lesen, aber das Problem ist ja auch nicht trivial. Die Statistik des Rauschens hat wirklich der Teufel :DDanke; ja am Rauschen und seiner Statistik haben sich wohl schon so einige die Zähne ausgebissen. Insbesondere die Tatsache, dass immer ein Signaloffset durch Setzen eines Schwarzpunktes gebildet werden muss, hat schon so manchen beim Rechnen mit Daten von Flächensensoren in die Irre getrieben. Das Dumme ist ja, dass man sich wirklich bis zu diesen finsteren Noise-Signalen im Datenmüll der tiefsten Schatten durchwühlen muss, um die nutzbare Dynamik in den "edleren oberen Bits" abschätzen zu können.

JAKOB
20.12.2005, 02:15
ketzerische frage....


ihr fotografiert aber schon auch noch? :p

Micha67
20.12.2005, 08:33
ihr fotografiert aber schon auch noch?ja. :p

Max Wudy
20.12.2005, 09:54
ketzerische frage....


ihr fotografiert aber schon auch noch? :p
NEIN!
Ich schraube gerade Schrauben in die Gartenwand, rote grüne, blaue, schwarze, weisse... (für RGB und SW), einen cm Abstand, 10 Reihen, 4 m lang. 1400 hab ich schon versenkt, fehlen nur mehr 2600!
Zu Ostern bin ich fertig, dann teste ich alle Cams mit allen Optiken bei allen Brennweiten, allen ISO Stufen und allen Blenden mit Blitz und bei Tageslicht und zu Weihnachten 2006 weiß ich dann, ob meine Bilder vom Christbaum scharf werden!

LG
Max

Micha67
20.12.2005, 09:59
Ich schraube gerade Schrauben in die Gartenwand, rote grüne, blaue, schwarze, weisse... (für RGB und SW), einen cm Abstand, 10 Reihen, 4 m lang. 1400 hab ich schon versenkt, fehlen nur mehr 2600!
Zu Ostern bin ich fertig, dann teste ich alle Cams mit allen Optiken bei allen Brennweiten, allen ISO Stufen und allen Blenden mit Blitz und bei Tageslicht ... Tapfer! Wir werden dann bei allen Sachfragen auf Dich verweisen ... ;) :D

Benutzer
20.12.2005, 10:00
NEIN!
Ich schraube gerade Schrauben in die Gartenwand, rote grüne, blaue, schwarze, weisse... (für RGB und SW), einen cm Abstand, 10 Reihen, 4 m lang. 1400 hab ich schon versenkt, fehlen nur mehr 2600!
Zu Ostern bin ich fertig, dann teste ich alle Cams mit allen Optiken bei allen Brennweiten, allen ISO Stufen und allen Blenden mit Blitz und bei Tageslicht und zu Weihnachten 2006 weiß ich dann, ob meine Bilder vom Christbaum scharf werden!

LG
Max

Achja,...immer! diese OT sinnlos Schreiber - so einen Mist kannste dir doch komplett sparen - wen interessiert denn das?! ...das was du geschrieben hast ist doch vollkommen OT in einer im Grunde genommen m.E. bisher sehr sachlichen Diskussion. ..also

beste Grüße
Frank

Nightshot
20.12.2005, 16:45
Oh ja, das klingt gut. Der geneigte Tester muss sich dann "nur" noch eine Routine schreiben, die die richtigen Datenpunkte in die Statistik hineinblendet.
In ein paar ruhigen Stunden würde ich das glatt machen. Bei mir beißt es eher an den gut vermessenen und definierten Grauabstufungen aus. Würde mir Phil seine Bilder in RAW schicken, konnten wir darüber reden.

Zumindest in JPEG-Ausgabe könnte es aufgrund interner Noise-Reduktion durchaus sein, dass bei hohen ISO-Werten eine Nikon D200 sogar rauschärmer wirkt als eine 20D. Was ist nun los mit der Dynamik? Steigt die Dynamik mit dem Glattbügeln von Noise? Rein technisch-rechnerisch: ja. Ist diese Form einer Dynamik-Steigerung im Sinne eines ehrlichen Testvergleiches "fair"? Eher nein. Dein Vorschlag mit Direktauslesen und Analyse der RAW-Files wirkt da deutlich solider.
Ach wieso nicht? Dieses Weichspülen von verrauschten Bildern bei hohen ISO Werten ist doch auch nichts anderes als Binning für Arme. Die Auflösung sinkt deutlich und dafür steigt die Dynamik. Das ist ein Geben und Nehmen. Wenn dann der unbedarfte User kommst und sagt, ist doch kein Problem, dann muss ich halt stärker nachschärfen wird es grotesk.
Was im Extremfall dabei herauskommt sieht man doch bei Phil’s Graphen. Er hat im Grunde so lange weichgespült, bis die Bilder nur noch 41 Pixel (von den 41 Graustufen) hatten. Welche Aussage das noch hat ist die Übungsaufgabe für den geneigten Leser...

ihr fotografiert aber schon auch noch?
Ja, mehr als je zuvor. Da ich bei meinen Nachtaufnahmen die Kamera und Objektive weit außerhalb der Spezifikationen betreibe, für die sie gedacht waren, ist das hier nicht nur graue Theorie sondern direkte Praxis.

Micha67
20.12.2005, 19:17
Ach wieso nicht? Dieses Weichspülen von verrauschten Bildern bei hohen ISO Werten ist doch auch nichts anderes als Binning für Arme. Die Auflösung sinkt deutlich und dafür steigt die Dynamik. Das ist ein Geben und Nehmen.OK, damit kann ich auch leben - man muss dann halt nur Dynamik, Auflösung, Noise und Glättungsartefakte simultan betrachten. Ob einem dann der Dynamik-Messwert an und für sich noch viel bringt, ist dann halt fraglich. Vielleicht ist es wirklich besser, nur vergleichend zu prüfen, indem korrekt belichtete RAWs mit single-shot-DRI auf ihre "Signalsauberkeit" in hochgezogenen Schatten überprüft werden.


Wenn dann der unbedarfte User kommst und sagt, ist doch kein Problem, dann muss ich halt stärker nachschärfen wird es grotesk.Jepp! :D


Was im Extremfall dabei herauskommt sieht man doch bei Phil’s Graphen. Er hat im Grunde so lange weichgespült, bis die Bilder nur noch 41 Pixel (von den 41 Graustufen) hatten. Welche Aussage das noch hat ist die Übungsaufgabe für den geneigten Leser...Genau, daher ja auch mein anfänglich etwas harsch klingender Einwand gegen Phils Vorgehen ... :)

Alfons W.
20.12.2005, 19:40
OK, damit kann ich auch leben - man muss dann halt nur Dynamik, Auflösung, Noise und Glättungsartefakte simultan betrachten. Ob einem dann der Dynamik-Messwert an und für sich noch viel bringt, ist dann halt fraglich. Vielleicht ist es wirklich besser, nur vergleichend zu prüfen, indem korrekt belichtete RAWs mit single-shot-DRI auf ihre "Signalsauberkeit" in hochgezogenen Schatten überprüft werden.

Jepp! :D

Genau, daher ja auch mein anfänglich etwas harsch klingender Einwand gegen Phils Vorgehen ... :)

Langsam fange ich an zu verstehen, wieso das Thema bislang zu wenig Anklang fand. Kaum einer weiß, was er damit eigentlich anfangen soll, kaum einer versteht, was eigentlich gemeint ist. Deinem wirklich ambitioniertem Einsatz ist es zu verdanken, dass das Thema nicht schon nach 8 Beiträgen starb.:) Aber: vielleicht sollten wir uns mal auf eine Definition einigen, die den Dynamikumfang beschreibt. Hier werden doch sehr viele Dinge zusammengewürfelt, wie ich finde. Ich für meinen Teil mache es mir einfach: schafft es eine Kamera beispielsweise, eine schon im leichten Dämmerlicht liegende Landschaft nicht unterbelichtet wiederzugen, und dabei noch einen wolkenlosen Himmel im natürlichen blau wiederzugeben, hat sie einen hohen Dynamikumfang. Ich weiß, dass ist sehr simpel ausgedrückt und das läßt sich natürlich auch in keine Norm pressen: dennoch macht der Test auf DPREVIEW doch nichts anderes. Oder sehe ich das falsch? Den Test bei hohen ISO-Werten? Keine Ahnung, was er da gemessen hat. Dennoch ist eindeutig eine Tendenz erkennbar.

Micha67
20.12.2005, 20:45
vielleicht sollten wir uns mal auf eine Definition einigen, die den Dynamikumfang beschreibt. Hier werden doch sehr viele Dinge zusammengewürfelt, wie ich finde. Ich für meinen Teil mache es mir einfach: schafft es eine Kamera beispielsweise, eine schon im leichten Dämmerlicht liegende Landschaft nicht unterbelichtet wiederzugen, und dabei noch einen wolkenlosen Himmel im natürlichen blau wiederzugeben, hat sie einen hohen Dynamikumfang. Ich weiß, dass ist sehr simpel ausgedrückt und das läßt sich natürlich auch in keine Norm pressen: dennoch macht der Test auf DPREVIEW doch nichts anderes. Oder sehe ich das falsch?So nett es klingt, ganz einfach ist es dennoch nicht. Wenn eine Kamera den Test z.B. nicht besteht, so könnte es doch sein, dass Du einfach nicht die richtigen (flachen) Kontrasteinstellungen gewählt hast bzw. die Kamera dies nicht bietet. Wie stark darf jetzt in PS nachgeholfen werden? Selbst wenn Himmel und dunklere Landschaft beide nicht ausgefressen/abgesoffen sind, dann ist immer noch fraglich, ob die Farbwiedergabe des Himmels durch Farbkanal-clipping verzerrt oder die im Schatten liegende Landschaft durch extremen Noise oder Glattbügeln des Noises in der Zeichnung schlapp sein könnte. Also muss man sich zusätzlich auf ein "faires Vorgehen" verständigen, welches z.B. so lauten könnte:

Aus jeder Kamera wird versucht, durch Belichtungsreihen in RAW, Auswahl des besten Rohdatensatzes und optimaler Entwicklung dieses Rohdatensatzes ein Optimum an Bildqualität herauszuholen bei Ablichtung eines eigentlich zu hart kontrastierten Motivs. Wie sagte schon A. Adams: "Belichte auf die Lichter und entwickle auf die Schatten". Diese aus ganz anderen Zeiten stammende und für einen ganz anderen Zusammenhang gemeinte Grundregel ist lustigerweise in der Digitalfotografie wieder goldrichtig. Sie führt uns auch zu einem Vorgehen, welches die Dynamik der Kameras voll auslotet und IMO zu ihrer Beurteilung am besten taugt.


Den Test bei hohen ISO-Werten? Keine Ahnung, was er da gemessen hat.Rainer hat es doch ganz nett persifliert mit dem Glattspülen der Messfelder auf ein einziges Pixel pro Messwert. *Das* hat mit bildgebender Fotografie nun wirklich nichts mehr zu tun, würde also nur als blanker Messwert taugen können. Wenn dann auch noch die Aussage des Messwertes als Dynamikumfang fehlinterpretiert wird, dann kommt halt Kritik.

Dennoch ist eindeutig eine Tendenz erkennbar.Welche Tendenz erkennst Du denn? Ich sah (bei der 5D) lediglich das Höhen-clipping bei ISO-50. Bei ISO-100 und ISO-1600 liegen die Kurven doch deckungsgleich übereinander, wo eigentlich klar sein muss, dass die Dynamik bei ISO-1600 um mindestens 2 EV unter dem hohen ISO leiden muss.

Alfons W.
20.12.2005, 21:19
Welche Tendenz erkennst Du denn?

Dass die Canon da besser abschneidet als die Nikon. War doch Ausgangspunkt der Diskussion.:) Aber dennoch: wie lautet die Definition? Was soll wie gemessen werden? Mir ist das noch immer nicht klar. Ich weiß, das Film einfach anders auf bspw. Überstrahlung reagiert. Film kann nicht 'clippen' und weist deshalb einen besseren Dynamikumfang auf. Wie überträgt man das jetzt auf die Digitalen?

Micha67
20.12.2005, 23:20
Aber dennoch: wie lautet die Definition? Was soll wie gemessen werden?Sorry, aber genau auf diese Punkte hatte ich doch schon längst geantwortet. Wenn es zu technisch klingen mag, so kann ich auch nichts dafür, denn es *ist* technisch.

Falls es irgendjemandem helfen mag noch der Versuch, eine nur wenig falsche Definition des digitalen Dynamikbereiches zu prägen:

Als Dynamikbereich kann ein Unterschied an Helligkeitsstufen (in Blendenstufen bzw. EV) bezeichnet werden, der zwischen dem minimal über dem Rauschen nachweisbaren Eingangskontrast und dem maximal bewältigbaren Eingangskontrast liegt.

Alfons W.
21.12.2005, 19:40
Sorry, aber genau auf diese Punkte hatte ich doch schon längst geantwortet. Wenn es zu technisch klingen mag, so kann ich auch nichts dafür, denn es *ist* technisch.

Falls es irgendjemandem helfen mag noch der Versuch, eine nur wenig falsche Definition des digitalen Dynamikbereiches zu prägen:

Als Dynamikbereich kann ein Unterschied an Helligkeitsstufen (in Blendenstufen bzw. EV) bezeichnet werden, der zwischen dem minimal über dem Rauschen nachweisbaren Eingangskontrast und dem maximal bewältigbaren Eingangskontrast liegt.

Sorry, ich habe nicht alles lesen können. Aber Deine Definition klingt doch in der Kürze ganz gut. Vielleicht fällt es jetzt leichter, der Diskussion zu folgen...:)

Benutzer
23.12.2005, 11:53
Solange nicht das letzte Ausgangsmaterial definiert wird, solange sich in Testergebnissen immer noch auf JPG verlassen wird, auch wenn zugegeben wird dass das beste Bildergebnis im RAW gemacht wird, solange man sich nicht einig ist über den Farbraum der Anwendung, das Tool des Konverters, solange man keine Definition an Parametern hat, solnage man nicht das Verständnis aufbringt, das Kamera, PC und der Firmenkonverter eine Einheit bilden, ein klares JA!

Es ist ein subjektiver Eindruck, es gibt für die vorgeschlagene Einheit kein Verfahren was eindeutig ist. Wird es auch nicht geben. Womit die Beurteilung (rein technischer Art) nicht leichter wird. Durch Anwendergewohnheit und ein weitere Fortschreiten der Programme und dem daraus resultierenden Endergebnis Bild, hat der User X eine Vorliebe für Firma Y und umgekehrt. Letztendlich bleibt das Bild, unser Endergebnis immer subjektiv.

Ausgefressene Lichter und Schatten kann beabsichter Bestandteil sein. Scherz beiseite, eine FineArt lassen sich mit den Digis ebenso umsetzen wie Analog.

VG Roman
unterwegs mit Canon (http://www.photospaziergang.de/)


@Angreal: eine Nikon ist gleichwertig, ausgehend von der D2X.

VG Roman
unterwegs mit Canon (http://www.photospaziergang.de/)

Alfons W.
23.12.2005, 13:56
@Angreal: eine Nikon ist gleichwertig, ausgehend von der D2X.

VG Roman
unterwegs mit Canon (http://www.photospaziergang.de/)

Damit habe ich nicht das geringste Problem.:)

Alex K.
22.02.2006, 11:10
Mich interessiert das Thema als Vergleich zw. dem analogen Film und den Canon Sensoren, z.B. der 5D. Ich habe mir jetzt alle Beiträge reingezogen und bin genauso schlau wie vorher. Gibt es nicht dennoch einen (zumindest in der Praxis gültigen)Vergleich, wo ich den Dynamikunterschied zw. Sensoren und Dia/Film nachvollziehen kann?
Bei Wiki stellt sich das so dar:http://de.wikipedia.org/wiki/Dichteumfang
Kann das jemand aus der Praxis nachvollziehen?

Micha67
24.02.2006, 11:07
Bei Wiki stellt sich das so dar:http://de.wikipedia.org/wiki/DichteumfangDin in den Beispielen für Dichteumfänge genannten Werte sind Kontrastumfänge von Ausgabemedien (Papier, Film, ...) oder Eingengskontraste, die von verschiedenen Scannertypen bewältigt werden können. Ein Dichteumfang von 2 entspricht Faktor 10^2, also einem Kontrast von 1:100, was knapp 7 EV entspricht. Der Dichteumfang 3 bedeutet einen Kontrast von 1:1000, entsprechend 10 EV. Dichteumfang 4 = 1:10.000 oder gut 13 EV. Der Dichteumfang von Diafilm von knapp 4 sagt allerdings keinesfalls aus, dass Diafilm auch einen Eingangskontrast von 13 EV verarbeiten könne. Er gibt vielmehr nur 6-7 EV Eingangskontrast durch harte Gradationsfunktionen auf 11-13 EV Ausgangskontrast ab, was in der Projektion den brillianten Eindruck von Diamaterial erweckt. Der Dynamikumfang von Diafilm ist aber alles andere als großzügig, was ja auch daran erkennbar ist, dass Diafotografen sich mehr um halbe Blendenstufen kümmern und/oder öfter als andere eine Belichtungsreihe anfertigen müssen.

Entscheidend ist beim Wikipedia-Eintrag auch der Satz: "Der Umfang allein sagt somit noch nicht aus, wieviel Film oder Sensor in den Extrembereichen zu leisten vermögen." Dies muß bei dem Vergleich von Kontrast-Wiedergabe-Funktionen immer berücksichtigen.

Für eine einfachere praxisorientierte Beurteilung der Dynamik genügt es meines Erachtens, vergleichende Betrachtungen zwischen den Kameramodellen anzustellen. Hierbei ist dann zu prüfen, wieviel Detailzeichnung aus einem "single shot DRI" in Schatten und Lichtern maximal herausgeholt werden kann. Phils Ansatz in DPreview ist hierfür schon fast geeignet, allerdings fehlt in den Graupatches eine beurteilbare Struktur (z.B. Linienmuster mit 1 EV Kontrast), die einen Anhaltspunkt für die Nutzbarkeit des entsprechenden Helligkeitswertes ergäbe. Statt dessen verweist er lediglich auf die Unterscheidbarkeit an den Patchkanten, wo lediglich eine Flächenkante mit 1/3 EV Kontrast steht.

Um abschliessend noch eine subjektive Tendenz zu nennen, wo DSLRs im Vergleich zu analogem Material stehen, würde ich mal keck behaupten, dass bei guter Aufnahmetechnik in RAW (Belichtung auf die Lichter, Entwicklung auf die Schatten) das analoge Material bei jeweils gleichem ISO-Wert schon längst überholt wurde. Analoger Farbnegativfilm mag zwar eine noch etwas höhere Belichtungstoleranz haben (man verwendet ihn quasi auf falschem ISO), die nutzbare Detailzeichnung in den Extremwerten (s.o.) dürfte aber auch nicht besser sein, als bei einem korrekt belichteten DSLR-Resultat. Lediglich ein falsch belichtetes Digitalbild würde demnach noch gegen ein falsch belichtetes Farbnegativbild den Kürzeren ziehen.

Alex K.
24.02.2006, 12:42
Gute Zusammenfassung,Danke!