In een vorig hoofdstuk hebben we besproken hoe de sensoren gevoelig gemaakt kunnen worden voor kleur. Dit gebeurt hoofdzakelijk door een Bayermosaiek. Hier hebben we het over de verwerking van de kleurinformatie.
De sensoren worden kleurgevoelig gemaakt door een kleurfilter (een soort raster met alternerende kleuren). Maar de gebruikte filters verschillen van merk tot merk. Ook achteraf moet het beeld nog verder bewerkt worden: iedere fotodiode geeft één kleursignaal (rood, groen of blauw), maar de andere kleuren moeten erbij gehaald worden omdat een pixel van een jpeg afbeelding drie waarden heeft: één voor iedere kleur. De ontbrekende twee kleuren moeten geïnterpoleerd worden.
Je zou denken dat de verwerking redelijk uniform zou zijn voor alle toestellen. Dit is echter niet zo, en er zijn verschillen zelfs in de kleinste details. De kleurfilters van Nikon en Canon hebben een verschillende doorlaatcurve. Dit is van belang bij de verwerking en het uiteindelijk resultaat.
De drie kleuren zijn beter gedefinieerd, dit is wat we lezen in de weinig wetenschappelijk onderbouwde technische documentatie van Phase One. Het enige dat we te zien krijgen is dat de drie kleuren niet meer overlappen. Andere fabrikanten kunnen hetzelfde doen, maar dan verlies je aan gevoeligheid (there is no such thing as a free lunch). Dit merk je ook aan de maximale gevoeligheid van 12.800ISO (de Canon 5D Mk IV is dubbel zo gevoelig).
Een nadeel van de rode filter is dat de gevoeligheid gedeeltelijk in het infra-rood doorloopt. Dit is niet zo positief en heeft als gevolg dat foto's met veel infra-rood er onnatuurlijk uitzien. De huid (dat infra-rood zeer goed weerkaatst) ziet er veel te bleek uit en alle details (textuur, modelé, relief) zijn verdwenen. Als je het beeld per kanaal in Photoshop bekijkt, dan zal je merken dat het rood kanaal overstuurd is.
Het fototoestel heeft wel een infra-rode filter (hot mirror genaamd), maar die laat een klein deel infra-rood door. Bij een zonsondergang bestaat de zonnestraling bijna uitsluitend uit infra-rood en daardoor kan je fototoestel overstuurd worden...
Dit heeft als gevolg dat de kleurresolutie beperkt is, vooral wat betreft het rode en blauwe signaal. Dit is heel goed zichtbaar als je de kleurkanalen bekijkt in Photoshop: het blauwe of rode kanaal is minder gedetailleerd. Het groene kanaal is dubbel zo gedetaillerd, en zo komt de gevoeligheid van de sensor ongeveer overeen met die van onze ogen, die ook gevoeliger zijn voor groene nuances.
Door de interpolatie kan een defekte pixel invloed hebben op de naburige pixels. Om een wolwaardige pixel te worden, moet de groen gekodeerde pixel (fotodiode) de rode informatie betrekken van de naburige rode pixels. En omgekeerd, een defekte rode pixel zal daarom invloed hebben op naburige pixels.
Als men van een sensor van 5760 × 3840 fotodioden (22 megapixels) een beeld van 2880 × 1920 pixels maakt (5.5 megapixel), dan heeft men eigenlijk geen echte downsampling gedaan, maar heeft men de native resolutie van de sensor gebruikt.
Wenst men een nog lagere resolutie (bijvoorbeeld om een snellere verwerking of een betere ruisafstand te bekomen) dan zal men aan pixel binning doen: de naburige pixels met eenzelfde kleur worden samen gevoegd. Men bekomt dan een resolutie van 1440 × 960 pixels.
En zo is de reden uitgelegd waarom bij het selecteren van een lagere resolutie op het fototoestel zelf men bepaalde afmetingen bekomt (voor ieder type toestel verschillend), en geen gestandardiseerde waarden.
Canon
-