Hei!
Lucy-Lou, Du hast recht, ich bin in meinem Grundlagenartikel hier nicht auf den Sensor eingegangen.
Kurzum: Farbsensoren sind eigentlich Grausensoren, die bestimmte Farbfilter aufgesetzt bekommen haben (*R*ote, *G*rüne und *B*laue = RGB ... daher auch diese Abkürzung, die dem Einen oder Anderen bekannt sein dürfte ;-) ). Die Filter werden zu 2 x 2 Pixeln so angeordnet:
grün - blau
rot - grün
(Grün zweimal weil das menschliche Auge grün intensiver wahrnimmt als rot und blau).
Diese o.g. 2x2 Matrizen werden dann horizontal und vertikal wiederholt. Der Filter heisst nach seinem Erfinder Bayer-Filter oder Bayer-Pattern.
Angenommen, Du hast eine Webcam mit VGA Auflösung, also 640 x 480 Pixeln (das kann ich noch im Kopf rechnen). Bei einer Graustufenkamera hättest Du tatsächlich 640x480 = 307.200 Pixel. Durch die Farbfilter hast Du aber nur INSGESAMT 307.200 Pixel, davon 153.600 Grüne und je 76.800 Rote und Blaue. Auf dem Bildschirm möchtest Du aber, dass jeder der 307.200 Pixel farbig ist, also die verschiedenen Rot, Grün und Blauanteile enthät. Dazu muss ein Programm die fehlenden Farben schätzen. Du ahnst es schon: Dieser Vorgang, die fehlenden Pixel aus einer Bayer-Filter zu berechnen heisst De-Bayering.
Um besser die Fehler abschätzen zu können, *könnte* man einfach den Mittelwert aus zwei bekannten Punkten berechnen, bspw. bei folgender Reihe:
10 - X - 20
würde man "15" reinsetzten. Das passt aber nicht immer, wenn sich die dann folgenden nach einer Kurve entwickeln, also
8 - 10 - X - 20 - 100
sind. Dann würde man sicherlich einen Wert bei 12-14 wählen. Jetzt haben wir aber nur eine Linie betrachtet, wir müssten aber eine Fläche betrachten:
10 - 13 - 20
10 - XX - 20
10 - 13 - 20
oder
7 - 8 - 13 - 18 - 100
8 - 10 - 11 - 20 - 100
8 - 10 - XX - 20 - 100
8 - 12 - 12 - 26 - 100
9 - 14 - 16 - 26 - 100
Jetzt haben wir ein De-Bayering von einer 3x3 oder 5x5 Matrix ;-)
Und Du siehst: Wenn hier eine Kante herläuft, ist es entscheident, wie die fehlenden Werte herausgerechnet werden. Je besser der Algorithmus hier ist, um so besser können Kanten herausgearbeitet und vom Betrachter erkannt werden.
Beim RAW Format ist es jedoch so, dass dieses KOMPLETT OHNE Berechnung zum Rechner übertragen wird. Und jetzt kann der Fotograf selbst bestimmen, wie scharf umgerechnet wird. Daher MUSS es bei der RAW-Verarbeitung auch eine Einstellmöglichkeit zur Schärfe geben.
Diese ganze Berechnung hat noch nix mit der Konvertierung nach JPEG zu tun, dass passiert viel später. Allerdings ist eine schlechte JPEG Kompression auch genau aus den von Dir geschilderten Gründen schuld an flauen Bildern. Die während der Kompression verwendete Diskrete Cosinus Transformation DCT fasst ähnlich farbige Punkte innerhalb eines QUADRATES zu einem einzigen Farbpunkt zusammen. Bei einem blitzeblauen Himmel ohne Wolken funktioniert das großartig: Große Farbfläche die fast identisch sind. Wenn Du feine Strukturen wie bspw. im Hundehaar hast, wird's schon kniffeliger. Will man jetzt noch ein 6MPixel Bild mal schnell in 100kB für's Forum verkleinern (kleiner Seitenhieb zu diesem Forum: Es gibt auch solche Foren, da können tatsächlich Anhänge hochgeladen werden ;-) ) macht das natürlich der Rechner brav, allerdings kann man kaum noch die Haare einzeln zählen, was vorher natürlich ging. Und schups SCHEINT das Foto unscharf zu sein.
Und den Spruch von Azalee kann ich auch nicht so unterschreiben. Die JPEGs, die aus der EOS 1D meiner Bekannten rauskommen, sind superscharf. Ich kann mal gern einmal 1:1 Ausschnitte der Fotos hier reinhängen, sofern Du das nicht glaubst.
Marc