Sensoren: Farbwiedergabe
Im vorherigen Artikel steht, jeder Pixel speichert die Helligkeit nur einer Grundfarbe, die beiden anderen Grundfarben eines RGB-Bilds werden erraten (interpoliert). Hier steht nicht, wie das geschehen kann, es gibt Bildbeispiele.
Die gleiche RAW-Datei, fotografiert mit einer Nikon D70, wurde konvertiert mit:
- NEF-Photoshop-Plugin von Nikon
- RawShooter Essentials
- dcraw
- [1] RAW-Format ohne Interpolation
- [2] NEF-Photoshop-Plugin
- [3] RawShooter
- [4] dcraw
Aus allen Bildern entnahm ich Ausschnitte an den gleichen Stellen. Weiter unten sind sie zu 100 % abgebildet: Ein Pixel des Bilds ist ein Pixel auf dem Bildschirm. Folgende Abbildung zeigt die Ausschnitte, darunter sind sie in Originalgröße abgebildet, je ein Ausschnitt von jeder Frucht.
Abbildung: Vorlage. Die blau markierten Ausschnitte sind unten zu sehen.
Abbildung: Raw-Format.
Abbildung: NEF-Photoshop-Plugin.
Abbildung: RawShooter.
Abbildung: dcraw.
Die nicht interpolierten Ausschnitte vergrößerte ich dreifach, so kann ich die Pixel besser erkennen:
Abbildung: Nicht interpolierte Ausschnitte. Erklärung siehe oben.
, 23.07.2006