Kleurverwerking


Fotografie » TechTalk » Fysica » Kleur » Verwerking

In een vorig hoofdstuk hebben we besproken hoe de sensoren gevoelig gemaakt kunnen worden voor kleur. Dit gebeurt hoofdzakelijk door een Bayermosaiek. Hier hebben we het over de verwerking van de kleurinformatie.

De sensoren worden kleurgevoelig gemaakt door een kleurfilter (een soort raster met alternerende kleuren). Maar de gebruikte filters verschillen van merk tot merk. Ook achteraf moet het beeld nog verder bewerkt worden: iedere fotodiode geeft één kleursignaal (rood, groen of blauw), maar de andere kleuren moeten erbij gehaald worden omdat een pixel van een jpeg afbeelding drie waarden heeft: één voor iedere kleur. De ontbrekende twee kleuren moeten geïnterpoleerd worden.

Je zou denken dat de verwerking redelijk uniform zou zijn voor alle toestellen. Dit is echter niet zo, en er zijn verschillen zelfs in de kleinste details. De kleurfilters van Nikon en Canon hebben een verschillende doorlaatcurve. Dit is van belang bij de verwerking en het uiteindelijk resultaat.

Ultra-violet en infra-rood

De gebruikte lenzen laten nagenoeg geen uv-straling door, en de kleurfilters filteren de rest indien nodig zou zijn. In normale omstandigheden heb je geen UV-filter nodig.

Een nadeel van de rode filter is dat de gevoeligheid gedeeltelijk in het infra-rood doorloopt. Dit is niet zo positief en heeft als gevolg dat foto's met veel infra-rood er onnatuurlijk uitzien. De huid (dat infra-rood zeer goed weerkaatst) ziet er veel te bleek uit en alle details (textuur, modelé, relief) zijn verdwenen. Als je het beeld per kanaal in Photoshop bekijkt, dan zal je merken dat het rood kanaal overstuurd is.

Het fototoestel heeft wel een infra-rode filter (hot mirror genaamd), maar die laat een klein deel infra-rood door. Bij een zonsondergang bestaat de zonnestraling bijna uitsluitend uit infra-rood en daardoor kan je fototoestel overstuurd worden...

Interpolatie

Een sensor heeft bijvoorbeeld 15 miljoen fotosites en dus pixels. Maar iedere fotosite geeft slechts een kleurinformatie, niet het volledig plaatje. In een JPEG bestand heeft ieder pixel een RGB waarde. Om de ontbrekende kleurwaarden te bekomen interpoleert men de waarden van de nabijgelegen pixels met dezelfde kleur.

Dit heeft als gevolg dat de kleurresolutie beperkt is, vooral wat betreft het rode en blauwe signaal. Dit is heel goed zichtbaar als je de kleurkanalen bekijkt in Photoshop: het blauwe of rode kanaal is minder gedetailleerd. Het groene kanaal is dubbel zo gedetaillerd, en zo komt de gevoeligheid van de sensor ongeveer overeen met die van onze ogen, die ook gevoeliger zijn voor groene nuances.

De kleurresolutie verhogen is niet mogelijk als er een bayermosaiek toegepast wordt. Door een slimme interpolatie kan men echter de helderheidsinformatie recupereren.

Door de interpolatie kan een defekte pixel invloed hebben op de naburige pixels. Om een wolwaardige pixel te worden, moet de groen gekodeerde pixel (fotodiode) de rode informatie betrekken van de naburige rode pixels. En omgekeerd, een defekte rode pixel zal daarom invloed hebben op naburige pixels.

Downsampling,... die geen downsampling is

Bij downsampling gaat men bijvoorbeeld één fotosite op de twee gebruiken om een beeld met een lagere resolutie te produceren (zowel in verticale als in horizontale richting). Maar bij een fotografische sensor werkt men met een blok R-G en G-B met 4 fotosites. Iedere blok levert een uiteindelijke pixel met complete RGB waarden. Men werkt eigenlijk met de "native" resolutie van de sensor. Hoewel de resolutie van het bekomen beeld lager is, heeft men niet aan downsampling gedaan: men heeft de informatie van alle pixels gebruikt, niet meer, en niet minder.

Als men van een sensor van 5760 × 3840 fotodioden (22 megapixels) een beeld van 2880 × 1920 pixels maakt (5.5 megapixel), dan heeft men eigenlijk geen echte downsampling gedaan, maar heeft men de native resolutie van de sensor gebruikt.

Wenst men een nog lagere resolutie (bijvoorbeeld om een snellere verwerking of een betere ruisafstand te bekomen) dan zal men aan pixel binning doen: de naburige pixels met eenzelfde kleur worden samen gevoegd. Men bekomt dan een resolutie van 1440 × 960 pixels.

En zo is de reden uitgelegd waarom bij het selecteren van een lagere resolutie op het fototoestel zelf men bepaalde afmetingen bekomt (voor ieder type toestel verschillend), en geen gestandardiseerde waarden.

Gevoeligheidscurve

Nikon


Canon

Paginas die volgens Google je zouden kunnen interesseren

-