PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7d und die redundanten pixel



dmeise
08.10.2009, 08:22
@all

Bei Bildern mit reduzierter Pixelzahl ( sRAW, kleinere JPGs ) sind doch Pixel frei, die nicht einfach als Abfall betrachtet werden sollten.

Man könnte sie - ohne Probleme - für die Minderung des Rauschens -
mit heranziehen. Mit einer internen Verrechnung.

Aber selbst ohne Prozess - schon die reduzierten Ströme, Wärmeentwickung, freie Rausch-Elektronen, müßten das Rauschen
merklich senken !

Tschüss, d.w.s.

ehemaliger Benutzer
08.10.2009, 08:45
Hi,
warum wurde dies denn noch nicht umgesetzt?
Weil ein Heer von Entwicklungsingenieuren einfach nicht auf diese Idee gekommen ist?
Oder vielleicht eher, weil es eben nicht so einfach machbar ist?;)

Grüße
Joni

volkerlg
08.10.2009, 10:03
Binning (das Zusammenfassen der Ladungen mehrerer Pixel) gibt es schon, seit CCD's für Astroaufnahmen verwendet werden.
Das geht auch mit CMOS (http://www.vision-systems.com/display_article/239379/19/none/none/Techt/Binning-techniques-increase-signal-to-noise-ratio-in-CMOS-imager); Kodak setzt das Verfahren in billig-chips für Handys (http://www.kodak.com/global/en/business/ISS/News/pressReleases/archive/2007/pr7.jhtml)ein.
Frage mich auch, warum das noch keiner in eine DLSR eingebaut hat (oder habe ich da was verpasst?).
Gruß
Volker

Thomas Brocher
08.10.2009, 10:45
Wo steht denn das genau dies nicht sogar gemacht wird?
Ich weiß es ehrlich nicht, daher die Frage was tatsächlich umgesetzt wird.

dmeise
08.10.2009, 13:00
Ich als Entwickler hätte da jede Menge Ideen. Inwieweit sie in der Praxis
tauglich sind, lass ich mal dahingestellt, aber dass gar nichts passieren soll.....????

Ich denke, da soll sichergestellt werden, dass in der Zukunft noch gut Geld verdient wird.

Hier regiert der Kaufmann über den Ingenieur !

AlexKowalski
08.10.2009, 13:46
Bei Bildern mit reduzierter Pixelzahl ( sRAW, kleinere JPGs ) sind doch Pixel frei, die nicht einfach als Abfall betrachtet werden sollten.


Völlig falsch!
Die Aufnahmen mit geringerer Auflösung werden dennoch mit voller Pixelzahl aufgenommen, und anschließend von der Kamera durch Interpolation auf die niedrigere Auflösung heruntergerechnet, bevor sie auf der CF-Karte gespeichert werden.



Man könnte sie - ohne Probleme - für die Minderung des Rauschens -
mit heranziehen. Mit einer internen Verrechnung.


Genau dies geschieht ja letztendlich!
Durch die Interpolation des vollaufgelösten Bildes auf eine niedrigere Auflösung (hier z.B. 10 Megapixel) reduziert sich das Rauschen (durch die Mittelwertbildung bei der Interpolation) deutlich!

dmeise
08.10.2009, 16:54
Durch die Interpolation des vollaufgelösten Bildes auf eine niedrigere Auflösung (hier z.B. 10 Megapixel) reduziert sich das Rauschen (durch die Mittelwertbildung bei der Interpolation) deutlich!


Da bin ich mal gespannt.

GrenzGaenger
08.10.2009, 16:59
Ich als Entwickler hätte da jede Menge Ideen. Inwieweit sie in der Praxis
tauglich sind, lass ich mal dahingestellt, aber dass gar nichts passieren soll.....????

Ich denke, da soll sichergestellt werden, dass in der Zukunft noch gut Geld verdient wird.

Hier regiert der Kaufmann über den Ingenieur !

Dann mach das doch. Ich sehe für dich zwei Ansatzpunkte (a) patchen der Firmware und (b) selbst das RAW auswerten und verarbeiten.
Das Format sollte ja einfach zu analysieren sein.

Wünsche schonmal viel Spass
Wolf

flashpix
08.10.2009, 20:01
Binning (das Zusammenfassen der Ladungen mehrerer Pixel) gibt es schon, seit CCD's für Astroaufnahmen verwendet werden.
Das geht auch mit CMOS (http://www.vision-systems.com/display_article/239379/19/none/none/Techt/Binning-techniques-increase-signal-to-noise-ratio-in-CMOS-imager); Kodak setzt das Verfahren in billig-chips für Handys (http://www.kodak.com/global/en/business/ISS/News/pressReleases/archive/2007/pr7.jhtml)ein.
Frage mich auch, warum das noch keiner in eine DLSR eingebaut hat (oder habe ich da was verpasst?).
Gruß
Volker

Die Powershot G11 ist zwar keine DSLR, aber dort werden z.B. für High-ISO Aufnahmen 4 benachbarte Pixel zusammengefasst. Insofern denke ich, ist wenigstens die Idee schon mal bei den Canon Ingenieuren angekommen :cool:

Gruß
Michael

xelos
08.10.2009, 21:09
Da bin ich mal gespannt.

Yep ich auch, vor allem, woher er die Informationen hat.

Das kleinere RAW wird nicht interpoliert, dies geschieht nur im Videomodus, um Schärfe und Kontraste auf einen hohen Level zu stellen.
Das merkt man besonders dann, wenn man fürs Foto z.B. Schärfe 5 (Objektivabhängig) eingestellt hat und im Video dann auf einmal Treppenartefakte aufgrund der Skalierung entstehen.
Dennoch wird das Rauschen hierdurch nicht besser, dafür haben die beiden Prozessoren nicht genug Zeit, das SNR Signal zu berechnen und zu entrauschen, was dazu führt, dass das Rauschen im Video im high ISO Bereich schlechter ist als beim Foto.

Wer meint, das z.B. ein ISO 1600 Bild besser mit 10MPix besser ist als das 18MPix, wird allein nur durch die Bildgröße irregeleitet.
Wenn man das große Bild (vernünftig) auf 10MPix runterskaliert, erzielt man mindestens die gleiche Qualität.

schneemann
08.10.2009, 22:17
hi,

das ist nicht ganz richtig.
der video mode der aktuellen canon modelle kann nicht interpoliert werden da kein spezieller video chip verbaut wird (dies soll sich in den nächsten generationen ändern) bis dato wird jeweil eine zeile und eine spalte auf dem cmos freigelassen und dann müssten glaube ich so etwa 4mpx (5mk2) übrig bleiben und diese werden dann auf 1080p skaliert.

was die grundsätzliche idee angeht:

es müsste ja immer ein quadrat skaliert werden, sprich 4 oder 9 auf einen pixel. wahrscheinlich könnte die software erst mi 9 pixeln herausfinden welche die rauschenden und somit unnötigen pixel sind, nur würden so nicht mehr allzu viele pixel übrig bleiben bzw wird es auch einen berechenbaren grenzwert an pixeldichte und anschließender zurückrechnung geben und dann das ganze keinen sinn mehr macht.

AlexKowalski
10.10.2009, 10:13
Yep ich auch, vor allem, woher er die Informationen hat.

Das kleinere RAW wird nicht interpoliert, ...

Ich leite meine Einschätzung ganz einfach von meiner 5D MkII ab.
Dort sind 10MP-sRAW-Aufnahmen (bei hohen ISO-Werten) deutlich rauschärmer als die 21MP-RAW-Aufnahmen!

Zum anderen müsst ihr euch mal überlegen, wie die Kamera (egal ob 5D MkII oder 7D) zu einer Aufnahme mit 10MP kommen soll:
Sie kann nicht einfach z.B. jeden vierten Pixel (5184 vs. 3888 Pixel) in der Horizontalen "überspringen", indem sie dort den A/D-Wandler jeder vierten Spalte "abschaltet".
Zumal dies zu einer geometrischen Deformation des Bildinhaltes führen würde:
jede 4 Spalteninformation fehlt, das Bild würde also "Sprünge" aufweisen.

Selbstverständlich werden die niedrigeren Auflösungen also einfach aus einem hochauflösenden Bild interpoliert.

AlexKowalski
10.10.2009, 10:25
Yep ich auch, vor allem, woher er die Informationen hat.


Noch eine Ergänzung:
Wisst ihr eigentlich, wie die Information aus CMOS-Bildsensoren ausgelesen wird?
Dies geschieht überlichweise spaltenweise, d.h. alle Pixelinformationen einer Spalte werden von oben nach unten (bzw. von unten nach oben, je nach dem wie und wo die Wandler angeordnet sind) durchgereicht, bis alle Informationen einer Spalte den jeweiligen A/D-Wandler passiert haben.

Dies bedeutet aber automatisch, das beim Auslesen einer Bild-Spalte grundsätzlich alle Pixel einer Spalte ausgelesen werden müssen.

Schon deshalb ist ein "Überspringen" von Pixeln garnicht phsyikalisch realisierbar.
Von den erwähnten geometrischen Deformationen des Bildinhalts, die das Auslassen jeder vierten Spalte und jeder vierten Zeile verursachen würde, mal ganz abgesehen.

AlexKowalski
10.10.2009, 10:41
Und noch ein weiteres Argument für die Interpolation:
Das Bayer-Pattern des Sensors!!
http://de.wikipedia.org/wiki/Bayer-Pattern

Wenn nun (bei sRAW1 mit 10MP) jedes vierte Pixel einer Zeile und jedes vierte Pixel einer Spalte übersprungen werden würde (was ja schon wegen des spaltenweisen Auslesens einer kompletten Spalte und wegen der geometrischen Deformation des Bildinhalts nicht funktioniert), so käme es wegen des Bayer-Patterns auch noch zu Farbfehlern, weil z.B. jede vierte Spalte (die in einer Zeile jeweils einen roten Filter, in der nächsten Zeile immer einen grünen Filter trägt) "verworfen" würde.

Bei sRAW2 (2592 x 1728 Pixel, ergibt rund 4,5 MP) würde nun genau jede zweite Spalte und jede zweite Zeile übersprungen:
http://upload.wikimedia.org/wikipedia/commons/thumb/e/ef/Bayer_matrix.svg/432px-Bayer_matrix.svg.png

Was dies für den Farbinhalt des Bildes bedeuten würde, kann sich nun wohl jeder vorstellen.... :p
Das Bild wäre entweder nur grün oder aber nur rot-blau...

Dieses Argument dürfte nun auch die hartnäckigsten Kritiker davon überzeugen, dass die kleineren Auflösungen (sRAW1 und sRAW2) nur mittels Interpolation erzeugt werden können.

Nightshot
10.10.2009, 21:37
Wisst ihr eigentlich, wie die Information aus CMOS-Bildsensoren ausgelesen wird?Ja

Dies geschieht überlichweise spaltenweise, d.h. alle Pixelinformationen einer Spalte werden von oben nach unten (bzw. von unten nach oben, je nach dem wie und wo die Wandler angeordnet sind) durchgereicht, bis alle Informationen einer Spalte den jeweiligen A/D-Wandler passiert haben.Das gilt für einen CCD Sensor. Bei einem CMOS kann jedes Pixel wie eine Speicheradresse im Arbeitsspeicher angesprochen werden. Damit könnte theoretisch jedes beliebige Pattern ausgelesen werden.

flashpix
10.10.2009, 23:27
Hallo Zusammen,

wer ausreichend Englisch versteht (und entsprechend Mathe beherrscht...), findet hier reichlich Information zum Thema sRAW: http://lclevy.free.fr/cr2/#sraw

Gruß
Michael

dmeise
11.10.2009, 09:10
Ja
Das gilt für einen CCD Sensor. Bei einem CMOS kann jedes Pixel wie eine Speicheradresse im Arbeitsspeicher angesprochen werden. Damit könnte theoretisch jedes beliebige Pattern ausgelesen werden.

Genau - jedes Pixel kann gezielt einzeln ausgelesen werden.

ehemaliger Benutzer
11.10.2009, 12:29
Die Aufnahmen mit geringerer Auflösung werden dennoch mit voller Pixelzahl aufgenommen, und anschließend von der Kamera durch Interpolation auf die niedrigere Auflösung heruntergerechnet
Das ist Quark.


Zumal dies zu einer geometrischen Deformation des Bildinhaltes führen würde
Und das ist sogar Magerquark. Photoshop, Gimp et. al. beherrschen beliebige Skalierungen unter Ausnutzung aller Pixel. Dazu gibt es mathematische Verfahren wie z.B. die bikubische Skalierung, die die Pixelwerte beliebig anteilg zusammenfassen können. Photoshop u.a. könnten Bilder ja ansonsten auch nur "vierteln", "neunteln" etc.

ceving
11.10.2009, 20:27
anschließend von der Kamera durch Interpolation auf die niedrigere Auflösung heruntergerechnet,

Bislang war ich der Meinung, Interpolation (http://de.wikipedia.org/wiki/Interpolation_%28Mathematik%29) sei der Vorgang, bei dem Zwischenwerte zwischen realen Meßwerter erfunden werden.

volkerlg
23.10.2009, 21:56
Wo steht denn das genau dies nicht sogar gemacht wird?
Ich weiß es ehrlich nicht, daher die Frage was tatsächlich umgesetzt wird.
Phase one macht es mit dem P65+ back.
Hier ist auf Seite 3 beschrieben (http://www.phaseone.com/apsis/160409Sensorplus.pdf), dass sie echtes HW-binning machen, d.h., das Auslese/Quantisierungsrauschen wird deutlich reduziert (zumindest in der Theorie...).
Gruß
Volker