PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Dynamikumfang / Auflösung



jens.albers
23.08.2005, 15:18
Hallo zusammen,

jetzt mal abseits oder vielleicht auch gerade wegen des ganzen Gerummels bzgl. Neuheiten:

Von den CD-Playern von früher kenne ich noch den Begriff Dynamikumfang und Auflösung als Angabe über das Vermögen, Lautstärke-Unterschiede möglichst fein aufzulösen und wiedergeben zu können. Im Digitalen gibt es dazu die Angabe über 16-bit im CD-Standard. Nun gab es aber CD-Player, die gar nicht über die enstprechenden D/A-Wandler verfügten, sondern nur über solche, die einfach nur (z.B.) die obersten 12 Bit ausgelesen haben und daraus dann das Musiksignal generiert haben, das theoritisch Mögliche also gar nicht ausgenutzt haben aus Gründen der Wirtschaftlichkeit.

In den Spezifikationen zu den DSLR findet man in dieser Hinsicht gerade mal, dass das RAW-Format 12-bit unterstützt, also eine vom Dateiformat vorgegebene maximale Auflösung von 12-bit möglich ist. Somit sind also theoretisch pro Farbkanal 4096 Helligkeitsstufen unterscheidbar.
Ob diese Auflösung nun intern von der Kamera überhaupt geliefert werden kann bzw. wird (Sensor, weiterverarbeitende Prozessoren, etc.), wird nirgendwo angegeben.

Nun meine Frage: gibt es dazu irgendwo einsehbare Tests oder Berichte?

Ich denke nämlich schon, dass dies in der Wahrnehmung der erzielten Bildergebnisse einen nicht zu vernachlässigenden Unterschied machen könnte.
Insbesondere kann man sich vorstellen, dass im Rahmen von "Billigangeboten" im Vollformatbereich über Einsparungen bei der Helligkeitsauflösung und damit verbundenen Leistungseinsparungen der verarbeitenden Elektronik Potenziale gehoben werden könnten. (Prozessorleistung für die Verarbeitung von z.B. intern 10bit vs 12bit kann einiges bewirken.. )

Bin gespannt auf Eure Meinungen zu dem Thema.

Viele Grüße,
Jens

jar
23.08.2005, 15:47
der Sensor hat eine Auflösung von 12 Bit, aber das SDK von Canon soll nur zu 10 - Bit wandeln.

Mit Dri habe ich schon bei +-2 Blenden eine beachtliche erhöhung des Kontrastumfangs erreicht, mit +-3 Blenden eher nicht, habe die eingebaute +-3 Belichtungsserie genutzt, ich glaube die Cam war da am Ende, also mit +-2 Blenden aus der Cam und noch mals ziehen um + und - 2 Blenden holt man da viel mehr raus, aber ich habe so ein Gefühl als wenn weitere Dynamikerhöhung erst mal kein Thema ist, erst wenn alle mit FF und Gigapixel bedient sind wird man sich der Dynamikerhöhung widmen, noch zählen Pixelorgien, wie beim PC immer schneller, der Rest ist unwichtig ( fürs Marketing )

gruss
jar

CamBoy
23.08.2005, 16:37
Dynamikerhöhung erst mal kein Thema ist, erst wenn alle mit FF und Gigapixel bedient sind wird man sich der Dynamikerhöhung widmen, noch zählen Pixelorgien, wie beim PC immer schneller, der Rest ist unwichtig ( fürs Marketing )

gruss
jar

Schade, genau das wäre mir eigentlich viel wichtiger, als immer höhere Auflösung...

jar
23.08.2005, 17:08
Schade, genau das wäre mir eigentlich viel wichtiger, als immer höhere Auflösung...

du bist ja auch User :)

mir ist ein stabiler Chipsatz und festere Kondensatoren im Mainboard auch lieber als die letzten 100 MHz im Prozessor um 3GHz , aber das ist halt kein Verkaufsargument für die Masse.

Alfons W.
23.08.2005, 19:43
der Sensor hat eine Auflösung von 12 Bit, aber das SDK von Canon soll nur zu 10 - Bit wandeln.

Mit Dri habe ich schon bei +-2 Blenden eine beachtliche erhöhung des Kontrastumfangs erreicht, mit +-3 Blenden eher nicht, habe die eingebaute +-3 Belichtungsserie genutzt, ich glaube die Cam war da am Ende, also mit +-2 Blenden aus der Cam und noch mals ziehen um + und - 2 Blenden holt man da viel mehr raus, aber ich habe so ein Gefühl als wenn weitere Dynamikerhöhung erst mal kein Thema ist, erst wenn alle mit FF und Gigapixel bedient sind wird man sich der Dynamikerhöhung widmen, noch zählen Pixelorgien, wie beim PC immer schneller, der Rest ist unwichtig ( fürs Marketing )

gruss
jar

Ja, sehe es ebenso. Und eigentlich gibt es für mich auch keinen Grund zu wechseln, solange sich zum Thema Dynamikumfang nichts tut. Ich hatte gehofft, dass sich Canon da etwas mehr ins Zeug legt. Canon mag es geschafft haben, mit guten Kameras den Markt aufzurollen, aber wirklich innovativ oder gar risikofreudig sind die nicht unbedingt zur Zeit. Auch ich sehe da keine wirkliche Veranlassung für Canon, daran etwas zu ändern, wenn man mit solch einer Kamera wie die 5D, die ja nun wirklich nichts Neues mit sich bringt, solch eine Hysterie auslösen kann. Für mich eigentlich unfassbar.

Micha67
23.08.2005, 21:28
Nun meine Frage: gibt es dazu irgendwo einsehbare Tests oder Berichte?

Dynamikumfang = max. Pixelkapazität / Einleserauschen

Übschlagswerte ergeben: max. Pixelkapazität = ca. 30-50.000 Elektronen; Einleserauschen = 30-50.000 Elektronen.

Ergo: Dynamikbereich maximal 1000-fach = 10 Blendenstufen, kodierbar in 10 bit.

jar
23.08.2005, 21:37
Dynamikumfang = max. Pixelkapazität / Einleserauschen

Übschlagswerte ergeben: max. Pixelkapazität = ca. 30-50.000 Elektronen; Einleserauschen = 30-50.000 Elektronen.

Ergo: Dynamikbereich maximal 1000-fach = 10 Blendenstufen, kodierbar in 10 bit.

deine Werte ergeben 1 nicht 1000 -> 1 != || <> 1000

RKü
23.08.2005, 21:37
He Leute,

was muss man gelernt oder studiert haben, um diese Ausführungen nachvollziehen zu können?

Bye Ralph :confused:

jar
23.08.2005, 21:39
He Leute,

was muss man gelernt oder studiert haben, um diese Ausführungen nachvollziehen zu können?

Bye Ralph :confused:

viel :)

Micha67
23.08.2005, 21:46
deine Werte ergeben 1 nicht 1000 -> 1 != || <> 1000

Sorry, meinte 30-50 Elektronen Einleserauschen. Dynamikbereich bleibt bei 1000.

Micha67
23.08.2005, 21:53
He Leute,

was muss man gelernt oder studiert haben, um diese Ausführungen nachvollziehen zu können?

Bye Ralph :confused:

Sorry, aber ich habe einen viel ausführlicheren Text geschrieben, diesen aber nicht posten können (IE-Freeze :eek: ). Daher habe ich es zumindest mal auf die basalsten technischen Essentials reduziert hineingehauen: Dynamik = Maximalsignal / Rauschen und mit typischen Zahlenwerten versehen.

Auch wenn man es ausführlich beantworten würde; unten kommt dabei raus: es macht keinen Sinn feiner zu digitalisieren, da der Dynamikbereich der Sensoren keine feinere Information mehr hergibt. 16 Bit von Mittelformat-Diggibacks sind Schall und Rauch, da die fertigen Daten selbst bei niedrigstem ISO in den untersten 4-6 Bits nur noch Zufallswerte enthalten.

Micha67
23.08.2005, 21:57
Übschlagswerte ergeben: max. Pixelkapazität = ca. 30-50.000 Elektronen; Einleserauschen = 30-50.000 Elektronen.

Korrektur: typische maximale Pixelkapazitäten von DSLR-Chips durften im grünen Kanal und bei niedrigstem ISO bei 30.000-50.000 Elektronen liegen, das Einleserauschen bei ca. 30-50 Elektronen.

Eine Kodierung durch 12 Bit ist daher quasi-Verlustfrei, nach Bayer-Demosaic-Rechnung auch durch 10 Bit zu kodieren. Mehr Farbtiefe würde in den untersten Bitwerten einfach nur Zufallszahlen und keine nutzbare Bildinformation ergeben.

CamBoy
23.08.2005, 22:30
Ja und? Schöne Rechnerei, aber wie kommen wir jetzt zu mehr Dynamikumfang? Wenniger Einleserauschen hört sich schonmal gut an... ;)

RKü
23.08.2005, 22:39
Auch wenn man es ausführlich beantworten würde; unten kommt dabei raus: es macht keinen Sinn feiner zu digitalisieren, da der Dynamikbereich der Sensoren keine feinere Information mehr hergibt.

Aaaaaah ja! Danke für die Info. Auf diese Art vereinfacht, isses auch für mich lesenswert ...

Bye Ralph

Micha67
23.08.2005, 22:48
Ja und? Schöne Rechnerei, aber wie kommen wir jetzt zu mehr Dynamikumfang? Wenniger Einleserauschen hört sich schonmal gut an... ;)

Ist doch klar, im Einzelpixel:
- grössere Pixelflächen bei gleichem Einleserauschen oder
- gleiche Pixelflächen bei geringerem Einleserauschen.

Über den gemittelte Bildareale:
- größere Sensorfläche bei gleichem Einleserauschen oder
- gleiche Sensorfläche bei geringerem Einleserauschen.

Die 2. und 3. Generation der Canon-CMOS-Sensoren haben schon ein sehr cleveres Konzept der mehrstufigen on-Chip Nachverstärkung und Noise-Filterung. Dadurch ist man ja schon ziemlich gut geworden. Wenn die größere Chip- und Einzelpixelfläche der 5D konsequent mit der gleichen hochstehenden Technologie der 20D genutzt werden, so ergäbe dies ein Potential von einer halben Blendenstufe mehr Dynamik im Einzelpixel und gut einer ganzen Blendenstufe gemittelt über gleich große Bildareale. Ob die Theorie auch in der Praxis eingehalten werden kann, werden erst die Tests zeigen können.

BTW: richtige Quantensprünge sind nur mit komplett anderen Technologien zu erwarten. So ist z.B: bei wissenschaftlichen Kameras eine extreme Dynamik durch Elektronenmultiplikations-Register in den sog. EMCCD-Kameras zu erzielen. Erst mit solchen, auf -70°C gekühlten 40.000 Euro-Boliden macht eine Digitalisierung mit 14 oder gar 16 Bit wirklich einen gewissen Sinn.

Detlev Rackow
23.08.2005, 23:19
Kannst Du dabei eigentlich die dauernd von GS angeführte höhere Dynamik der CCDs irgendwie bewerten? GS besteht recht nachdrücklich darauf, allerdings findet man in z.B. der Tabelle der ColorFoto 09/05 gemessene Umfänge von ca. 8-8,5 Blenden für die Canon-Cmos-Kameras, und ähnliche Werte für die CCD-Kameras von Nikon. Die Fuji hat geringfügig höhere Werte, aber die hat pro Bildpixel auch einen empfindlichen und einen unempfindlichen Pixel, ist also konstruktiv keine "normale" CCD-Kamera.

Die 8-8,5 sind zwar weniger als Du überschlagen hast, aber da die Werte nach Profilierung und Umrechnung in's sRGB- oder AdobeRGB-Farbmodell entstehen, sind da sicher noch Verluste dabei. Hinzu kommt noch der Weißabgleich, der ja auch die Dynamik der Kanäle "verbiegt".

Ciao,

Detlev

amazönchen
23.08.2005, 23:21
ohje^^
ihr verwöhnt uns mal wieder mit solch hohen rechnungen^^

ist aber tatsächlich schade, dass die hersteller sooft auf zahlen setzen müssen, um ihr produkt zu verkaufen.... wieviele knipser würden heute noch eine "3 megapixel kamera" kaufen, die gleichviel kostet wie eine 6 megapixel kamera, aber ein bessere optik, ein gutes gehäuse und niedrigeres rauschen bietet.... ;)

gruss

Henry (15)
23.08.2005, 23:44
Na ich habe mal meine M2 (O) ld
Gegen den Analogfilm getestet also da kann man wirkch
keine so tollen Unterschiede im Kontrastumfang mehr sehen.
Und das war für mich immer das Maß der Dinge. Ich war
eigentlich schlicht weg begeistert von der M2.
Wer Lust hat kann´s ja selbst mal nachvollziehen.
Allerdings die Negative wurden selbst im Fachfotogeschäft
nicht mehr auf das Papier entwickelt wo der Film herstammt.
Davon konnte ich früher immer ausgehen.
Zum Pixelwahn kann ich nur sagen das auch mein PC
Langsam zu wenig wird ich möchte nicht wissen wie ihn die 5D
dann in die Knie zwingt. 9 –12 MB wie die Bilder auf der Canon
Sind schon happig und da sind´s noch keine RAW´s .
Von der Datenmenge bei der Datensicherung ganz zu schweigen.
Dennoch bin ich von der Entwicklung für des FF begeistert
Und hätte ich meine liebe M2 (O) ld nicht ich würde schwanken.
<O:p</O:p

Gruß Henry

Micha67
24.08.2005, 00:30
Kannst Du dabei eigentlich die dauernd von GS angeführte höhere Dynamik der CCDs irgendwie bewerten? GS besteht recht nachdrücklich darauf, allerdings findet man in z.B. der Tabelle der ColorFoto 09/05 gemessene Umfänge von ca. 8-8,5 Blenden für die Canon-Cmos-Kameras, und ähnliche Werte für die CCD-Kameras von Nikon. Die Fuji hat geringfügig höhere Werte, aber die hat pro Bildpixel auch einen empfindlichen und einen unempfindlichen Pixel, ist also konstruktiv keine "normale" CCD-Kamera.

Die 8-8,5 sind zwar weniger als Du überschlagen hast, aber da die Werte nach Profilierung und Umrechnung in's sRGB- oder AdobeRGB-Farbmodell entstehen, sind da sicher noch Verluste dabei. Hinzu kommt noch der Weißabgleich, der ja auch die Dynamik der Kanäle "verbiegt".

Die Überschlag-Rechnung betraf die elektronischen Eigenschaften des Sensors selbst, die besagen, dass selbst unter idealen Bedingungen und ohne Farbmaske ein Signal/Rausch-Abstand die 10 Blendenstufen nicht überschreiten *kann*. Ein zusätzliches leichtes Oversampling mit 12 Bit würde also auch noch die letzten nutzbaren Signälchen aus dem Sensor hervorziehen.

Im realen Betrieb kommen Dunkelstrom mit seinem Noise und insbesondere der sog. "shot-noise", also das echte Photonen-Rauschen der gequantelten Lichtsignale mit hinzu und senken den in Einzelpixeln nutzbaren Dynamikbereich weiter. Von Meßdaten, die nur schwer zu durchschauen sind, würde ich mich allerdings weniger beeindrucken lassen als von sauber durchgeführten seit-zu-seit-Vergleichen der echten Bilddaten.

Zur Sensor-Technologie im Wettstreit CCD versus CMOS kann ich leider nichts aus ureigener Erkenntnis sagen. Im wissenschaftlichen Bereich gibt es quasi keine CMOS-Sensoren. Hier ist alles fest in CCD-Hand, wobei mehrstufige Peltier-Kühlungen sowohl den Dunkelstrom bändigen, als auch die erlesenen Gain- und A/D-Wandlerstufen auf ein Einleserauschen von unter 10 Elektronen drücken. Das derzeit Extremste sind sog. EMCCD-Kameras, deren Einleserauschen durch trickreiche Schaltungen auf unter 1 Elektron gesenkt werden kann und somit Einzelphotonen-Nachweise zuverlässig funktionieren.

CMOS-Bausteine betreiben die Wandlung von Ladung auf Spannung im Rahmen einer ersten Gain-Stufe gleich auf dem Chip und nicht erst im Ausleseregister so wie bei CCDs. Hier scheint Canon bereits zu Zeiten der D60 sehr relevante Fortschritte gemacht zu haben. Es scheint, als sei durch verbesserte, vermtlich in mehreren Einzelschritten vollzogene on-chip-Verstärkung eine rauscharme Signalverstärkung möglich zu sein. Wie sich die Kenndaten dieser Chips im Vergleich mit den leichter einzuschätzenden (weil weniger komplex aufgebauten) CCD-Chips verhalten, entzieht sich leider meiner Kenntnis. Hier helfen, so lange keine echte Kenndaten gekannt werden, keine dogmatischen Diskussionen, sondern man sollte sich einfach die Bilder ansehen und nach Tiefenanhebung die Restzeichnung in den Schatten bewerten. Mit der derzeitigen Sampling-Tiefe wird jedenfalls keine nutzbare Bildinformation verschenkt, wie Chuck Westfall einmal verriet. Paradoxerweise könnte es sogar sein, dass in Zukunft diese Sampling-Tiefe sogar sinkt - nämlich dann, wenn noch mehr Pixel auf gleicher Chipfläche untergebracht werden und eine Abtastung mit 12 Bit dann nicht mehr erforderlich und sinnvoll ist. Nun sollte man allerdings nicht jammern und sagen, dass der Dynamikbereich verschlechtert würde, denn dies gilt lediglich für den kleiner gewordenen Einzelpixel, nicht aber für ein aufzulösendes Bildelement, welches dann auch aus noch mehr Einzelpixeln zusammengesetzt wäre.

Micha67
24.08.2005, 00:44
ohje^^
ihr verwöhnt uns mal wieder mit solch hohen rechnungen^^

ist aber tatsächlich schade, dass die hersteller sooft auf zahlen setzen müssen, um ihr produkt zu verkaufen.... wieviele knipser würden heute noch eine "3 megapixel kamera" kaufen, die gleichviel kostet wie eine 6 megapixel kamera, aber ein bessere optik, ein gutes gehäuse und niedrigeres rauschen bietet.... ;)


Nun ja, ohne etwas technischen Background keimen eben solche Gerüchte wie das Deinige unreflektiert auf. Ein Chip als Ganzes erzeugt das Bild. Wenn die Pixel kleiner werden, dann steigt der Noise - aber eben nur der Noise im Einzelpixel! Über eine bestimmte gemittelte Fläche werden bei kleineren Pixeln mehr Signale gemittelt. Dadurch kann sich der Noise in der abzubildenden Struktur insgesamt ganz anders verhalten - und evtl. sogar sinken. Ich verstehe, dass dies etwas schwer nachzuvollziehen ist, aber es ist nun mal Fakt. Unter dem Strich sind ganz andere Dinge für die Dynamik-Verbesserung entscheidend:
- maximierte Elektronen-Speicherungskapazität pro Pixelfläche
- minimiertes Photonen- und Einleserauschen durch intelligente on-chip-Nachverstärkung und Noise-Filterung
- Dunkelstrom-Minimierung und dark frame-Subtraktion
- Rauscharme A/D-Wandlung
- kamerainterne Algorithmen zur intelligenten Noise-Filterung und Nachschärfung

jens.albers
24.08.2005, 11:32
Hallo Leute,


vielen Dank für die vielen Antworten, insbesondere an jar und Micha67, deren Beiträge mir höchst kompetent erscheinen.

Und nur nochmal zur Nachfrage: hat jemand irgendwo einen Bericht oder Test bzgl. der in den Kameras verwendeten Baugruppen und deren bit-Tiefe? (jar wußte ja zu berichten, dass der Sensor 12 bit hat (alle?) und das SDK (was ist das?) dann nur 10 bit).

Danke nochmal,

Jens

PS: wieder viel gelernt durch das Forum, echt gut hier!

jar
24.08.2005, 11:39
Hallo Leute,


vielen Dank für die vielen Antworten, insbesondere an jar und Micha67, deren Beiträge mir höchst kompetent erscheinen.

Und nur nochmal zur Nachfrage: hat jemand irgendwo einen Bericht oder Test bzgl. der in den Kameras verwendeten Baugruppen und deren bit-Tiefe? (jar wußte ja zu berichten, dass der Sensor 12 bit hat (alle?) und das SDK (was ist das?) dann nur 10 bit).

Danke nochmal,

Jens

PS: wieder viel gelernt durch das Forum, echt gut hier!

SDK heisst Software Develovment Kit und ist die Basis zu der aus dem RAW von Canon oder anderen die Bilder extrahiert werden, bedenke es gibt JPG immer 3 x 8-bit und TIFF8 auch 3 x 8-bit, da passen die 12-10 Bit nicht rein , aber im TIFF16 passen die 12-10 Bit rein und angeblich, der Sensor hat 12 Bit, wie Micha ausführte kommen eh kaum mehr als 10 nutzbare Bit aus dem Sensor , wäre das eine Erklärung warum nach der Entwicklung nur 10 benutzt werden, komischerweise wirbt Canon mit dem 12 Bit Sensor was nicht falsch ist, aber doof wenn sie verschweigen das IHR SW Tool nur 10 daraus macht.

gruss
jar

Alfons W.
24.08.2005, 18:26
SDK heisst Software Develovment Kit und ist die Basis zu der aus dem RAW von Canon oder anderen die Bilder extrahiert werden, bedenke es gibt JPG immer 3 x 8-bit und TIFF8 auch 3 x 8-bit, da passen die 12-10 Bit nicht rein , aber im TIFF16 passen die 12-10 Bit rein und angeblich, der Sensor hat 12 Bit, wie Micha ausführte kommen eh kaum mehr als 10 nutzbare Bit aus dem Sensor , wäre das eine Erklärung warum nach der Entwicklung nur 10 benutzt werden, komischerweise wirbt Canon mit dem 12 Bit Sensor was nicht falsch ist, aber doof wenn sie verschweigen das IHR SW Tool nur 10 daraus macht.

gruss
jar

So ganz verstehe ich Ausführungen zwar nicht oder ich meine mit Dynamikumfang etwas anderes, was sich auch nicht in BIT usw. ausrechnen läßt. Mir geht es um eine elektrische 'Macke' der Sensoren: nämlich deren Eigenschaft, zu schnell in die Sättigung zu gehen. Sie sind im Grenzbereich, anders als bspw. Film, nicht in der Lage, die Auflösung zu erreichen, die sie bei mittleren Lichtern liefern können. Dies führt zu den oft unschönen Effekten, dass helle Bereiche urplötzlich in überstrahlte kippen. Im Schwarzbereich klappt es etwas besser. Kontraste können also nicht so fein abgestuft dargestellt werden. Bspw. bei (gewollten) Gegenlichtaufnahmen fällt mir das immer wieder unangenehm auf und da ist auch per EBV nicht mehr viel rauszuholen. Wo keine Nuancen sind, lassen sie sich auch nicht herbeizaubern. In den meisten Fällen fällt das nicht so auf, aber mich stört es dennoch sehr. Film ist da sehr viel toleranter und geht sehr viel langsamer in die Sättigung.

Micha67
24.08.2005, 20:25
Mir geht es um eine elektrische 'Macke' der Sensoren: nämlich deren Eigenschaft, zu schnell in die Sättigung zu gehen. Sie sind im Grenzbereich, anders als bspw. Film, nicht in der Lage, die Auflösung zu erreichen, die sie bei mittleren Lichtern liefern können. Dies führt zu den oft unschönen Effekten, dass helle Bereiche urplötzlich in überstrahlte kippen. Im Schwarzbereich klappt es etwas besser. Kontraste können also nicht so fein abgestuft dargestellt werden. Bspw. bei (gewollten) Gegenlichtaufnahmen fällt mir das immer wieder unangenehm auf und da ist auch per EBV nicht mehr viel rauszuholen. Wo keine Nuancen sind, lassen sie sich auch nicht herbeizaubern. In den meisten Fällen fällt das nicht so auf, aber mich stört es dennoch sehr. Film ist da sehr viel toleranter und geht sehr viel langsamer in die Sättigung.

Das ist ein wahres Wort. Da alle Pixel gleich groß sind, gehen sie auch alle fast gleichzeitig in die Sättigung. Beim Filmkorn gab es dann immer noch ein Paar feinere Körnchen, die noch einen letzten Hauch Zeichnung in mittelprächtig überstrahlte Bereiche brachten.

Nun ist ein Sensor halt mal physikalisch ein Ding, welches in die Lichter hinein einfach strikt linear vollläuft. Nur mit extremen Dynamikreserven und gezielter Unterbelichtung kann man mit "single-shot DRI" unter Opferung der Rauschfreiheit der Mitteltöne die weich abregelnde Gradation von Filmen nachempfinden. Dies entspricht dann übrigens auch der Belichtung der Nikon-Kameras, deren ISO-Werte nach klassischer Definition eigentlich zu optimistisch angegeben sind und z.B. bei der D100 immer etwas dunkle Bilder ergeben. Mit einer Belichtungkorrektur (0,5-1 Stufe unterbelichten) ist dies prinzipiell auch mit einer Canon-DSLR möglich. Bei diesem, auch als digital-push bezeichneten Vorgehen, wird die unterbelichtete Blendenstufe dann als zusätzliche Dynamik in den Lichtern wieder nutzbar. Man muss nur dann noch in der Entwicklung die Tiefen per Gammakorrektur wieder anheben und hat so eine Film-ähnlichere Gradation und weichere Abregelung in den Lichtern. Eine 5D mit den großen Pixeln sollte eigentlich viel Raum für solche Spielchen bieten.

lesitzki
24.08.2005, 21:36
Diese technische Daten vergleiche kenne ich aus dem PC-Lager. Wir Appel-User haben lieber mit unseren Kisten gearbeitet.

Nun zur Photographie. Der beste Diafilm, Kodakchrom 25 konnte 10 Blendenstufen wiedergeben. Alle anderen Filme waren bis zu drei Blendenstufen schlechter. Der Kodakchrome 25 zeigt seine Dynamik von 10 Blendenstufen nur in der Projektion. Werden die Bilder gedruckt hat man 6 Blendenstufen Dynamikumfang maximal zur verfügung. Mehr geht nicht. Von den Farben wollen wir erst gar nicht reden - Bekanntlich hat der klassische 4-farbdruck erhebliche Probleme blau und orangetöne noch nicht einmal ähnlich wiederzugeben.

Das Raw-Format hat für mich als Foto- und Grafikdesigner den Vorteil, das ich den, von der Kamera gelieferten Dynamikumfang besser auf die beim Druck benötigten sechs Blendenstufen redizieren kann. Alle anderen Technischen Daten sind völlig egal.

Zum Thema Profi-, Semiprofi- und Amateurkamera.
Henri Cartier Bresson, wurde auf einer seiner Ausstellungseröffnungen gefragt, mit welcher Kamera er denn diese tollen Photographien macht. Er fragte darauf mit welcher Schreibmaschiene schreiben Sie denn ihre tollen Reportagen.

Jetzt werden mich alle hassen.

Trotz alle dem halte ich dieses Forum für sehr informativ.

Holger

Micha67
24.08.2005, 21:45
Diese technische Daten vergleiche kenne ich aus dem PC-Lager. Wir Appel-User haben lieber mit unseren Kisten gearbeitet.
...
...


Warum polarisieren? Es ging hier eher um Physik und Technik und nicht um Fotografie.

übrigens: wenn Du mit nur 6 Blendenstufen Dynamik ausdruckst, willst Du damit den positiven Aspekt einer hohen Dynamik in der Fotografie in Frage stellen?

nochmal übrigens: vielleicht wollte der Starfotograf ja wissen, mit welcher Schreibmaschine der Reporter schreibt. ;)

Alfons W.
24.08.2005, 21:55
Das ist ein wahres Wort. Da alle Pixel gleich groß sind, gehen sie auch alle fast gleichzeitig in die Sättigung. Beim Filmkorn gab es dann immer noch ein Paar feinere Körnchen, die noch einen letzten Hauch Zeichnung in mittelprächtig überstrahlte Bereiche brachten.

Nun ist ein Sensor halt mal physikalisch ein Ding, welches in die Lichter hinein einfach strikt linear vollläuft. Nur mit extremen Dynamikreserven und gezielter Unterbelichtung kann man mit "single-shot DRI" unter Opferung der Rauschfreiheit der Mitteltöne die weich abregelnde Gradation von Filmen nachempfinden. Dies entspricht dann übrigens auch der Belichtung der Nikon-Kameras, deren ISO-Werte nach klassischer Definition eigentlich zu optimistisch angegeben sind und z.B. bei der D100 immer etwas dunkle Bilder ergeben. Mit einer Belichtungkorrektur (0,5-1 Stufe unterbelichten) ist dies prinzipiell auch mit einer Canon-DSLR möglich. Bei diesem, auch als digital-push bezeichneten Vorgehen, wird die unterbelichtete Blendenstufe dann als zusätzliche Dynamik in den Lichtern wieder nutzbar. Man muss nur dann noch in der Entwicklung die Tiefen per Gammakorrektur wieder anheben und hat so eine Film-ähnlichere Gradation und weichere Abregelung in den Lichtern. Eine 5D mit den großen Pixeln sollte eigentlich viel Raum für solche Spielchen bieten.

Du scheinst das besser zu verstehen als ich. Dennoch ist es doch so, dass man bei 'richtigem' DRI zwei Bilder braucht. Single-Shot DRI ist doch mehr als ein fauler Kompromiss. Oder? Wie auch immer: was ich mir wünsche ist eine DSLR, die diese 'Macken' nicht mehr hat, möglichst sogar Film hinter sich läßt. Technisch scheint das noch sehr schwierig umzusetzten zu sein, jedenfalls schwieriger als mehr MP zu bringen.

lesitzki
24.08.2005, 22:02
Eine hohe Dynamik in den Bilddaten stelle ich nicht in Frage. Canon liegt je nach Kamera bei 8-9,5 Blendenstufen. 10 Blendenstufen wäre das Optimum. Nur was habe ich davon, wenn ich nirgenwo diese 10 Blendenstufen wiedergeben kann, es sei den ich lasse für 600 Euro ein 24x30 cm Dytransfer herstellen, das schaft es und es sieht endgeil aus zumindestens wenn ich es von einen 18x24 cm großen Dia machen lasse.

Alfons W.
24.08.2005, 22:04
Ach ja: und deshalb finde ich die Pixeljagt und FPS sooo langweilig. Warum wird eigentlich so wenig auf die Bildqualität geachtet. Oder sind die User, die noch Film kennen, bald ausgestorben?

Micha67
24.08.2005, 22:20
Du scheinst das besser zu verstehen als ich. Dennoch ist es doch so, dass man bei 'richtigem' DRI zwei Bilder braucht. Single-Shot DRI ist doch mehr als ein fauler Kompromiss. Oder? Wie auch immer: was ich mir wünsche ist eine DSLR, die diese 'Macken' nicht mehr hat, möglichst sogar Film hinter sich läßt. Technisch scheint das noch sehr schwierig umzusetzten zu sein, jedenfalls schwieriger als mehr MP zu bringen
Ja, es ist um ein Vielfaches schwieriger die Sensortechnologie völlig neu zu erfinden als die Pixel einfach nach altem Bauprinzip, aber kleiner zu gestalten. Einen Versuch gab/gibt es: die Fuji S3pro. Um diese Kamera ist es dennoch relativ still geblieben. Hier sollten doch die "zweiäugigen" S- und R-Pixel die Dynamik so effizient in den Lichtern erweitern:
http://www.dpreview.com/reviews/fujifilms3pro/page18.asp


Ach ja: und deshalb finde ich die Pixeljagt und FPS sooo langweilig. Warum wird eigentlich so wenig auf die Bildqualität geachtet. Oder sind die User, die noch Film kennen, bald ausgestorben?
Oh, Du gibst mir nicht mehr lange? ;)

Micha67
24.08.2005, 22:32
Eine hohe Dynamik in den Bilddaten stelle ich nicht in Frage. Canon liegt je nach Kamera bei 8-9,5 Blendenstufen. 10 Blendenstufen wäre das Optimum. Nur was habe ich davon, wenn ich nirgendwo diese 10 Blendenstufen wiedergeben kann, es sei den ich lasse für 600 Euro ein 24x30 cm Dyetransfer herstellen, das schaft es und es sieht endgeil aus zumindestens wenn ich es von einen 18x24 cm großen Dia machen lasse.

Du kennst nicht zufällig so nette Verfahren und Einrichtungen wie Gamma-Korrektur, Farbraum-Definitionen, Profiling-Tools und -Targets? Oder noch einfacher: Einstellung von Kontrast bzw. Gamma ohne Tonwertabrisse. All diese Verfahren dienen dazu, eine hohe Eingangsdynamik an eine gegebene Ausgabedynamik anzupassen. Sie sind sogar in sehr weiten Bereichen aneinander anpassbar, am extremsten im Rahmen eines multi-shot DRI. Bei Durchzeichnungsverlusten durch ungenügende Aufzeichnungs-Dynamik zu Beginn der Aufzeichnungs- und Verabeitungskette bekommst Du das Bild durch keine Tonwertkorrektur der Welt wieder hin.

Ausserdem: Wie konnte man je mit Farbnegativfilm leben? Mit 12-14 Blendenstufen Dynamik im Film und auf der Ausbelichtung gerade mal 6-7 Zweierpotenzen an Tonstufen.

lesitzki
24.08.2005, 22:35
Ach ja: und deshalb finde ich die Pixeljagt und FPS sooo langweilig. Warum wird eigentlich so wenig auf die Bildqualität geachtet. Oder sind die User, die noch Film kennen, bald ausgestorben?

Digitalfotografie ist für mich eher das Abscannen von dreidimensionalen. Die Qualität von Film wird sie nie erreichen. Da können die Physiker soviel rechnen und mit Zahlen jonglieren wie sie wollen. Hat schon mal jemand sein Bild auf die Größe eines 18/1 Plakat hochgepustet. Mit einen Kodakchrome 25 geht das, möglicht aufgenommen mit einer Lecia M, die liefert als einzige dafür die nötige Schärfe.

Da aber die Kunden Qualität nicht mehr kennen oder nicht mehr haben wollen oder sich mit dem begnügen was sie bekommen und da sie alles schneller als schnell brauchen. Die Fotos, die man am Tage gemacht hat, sollen bei der Abendveranstaltung über ein Beamer (786x1024 Pixel) gezeigt werden bei der Aulösung könnte ich glatt mein Handy nehmen.

lesitzki
24.08.2005, 22:49
Du kennst nicht zufällig so nette Verfahren und Einrichtungen wie Gamma-Korrektur, Farbraum-Definitionen, Profiling-Tools und -Targets?

Jetzt bringen wir es doch auf den Punkt. All diese hervorragenden Tools in Verbindung mit einen Raw Format habe ich alle Möglichkeiten alles aus meiner Aufnahme herauszuholen was geht und die Bilder für den jeweiligen Verwendungszweck vorzubereiten.

Auserdem ist mir eine Aufnahme mit einer MK II im Raw-Format lieber als ein 08/15 Scan von einen KB-Dia, denn wer liefert heute denn noch exelennte Scans. Die , die es konnten sind in Rente oder Pleite.

Entscheidend ist was soll mit dem Photo geschen was ich machen soll. Dann kann ich entscheiden welche Technik ich nutze (Analog oder Digital) und welche Kompromisse ich eingehe.