Cet article fait suite à l'article consacré au Filtre Bayer pour déterminer la couleur d'une image en l'analysant point par point. Mais le filtre utilisé devant chaque photosite diffère pour chaque marque. Un filtre Canon n'est pas la même chose qu'un filtre Nikon.
Les filtres Bayer sont également appellés CFA (Color Filter Array).
On pourrait croire que les appareils photos se ressemblent plus ou moins, un photon est un photon et un photosite est un photosite, n'est ce pas?
Les filtres couleur de Nikon et Canon ont une bande passante (courbe de sensibilité) différente. C'est une donnée importante pour le résultat final et cela détermine les formules de calcul pour obtenir les différentes couleurs.
Les filtres de Nikon ont des pentes relativement raides et donc une bonne séparation: les couleurs sont donc bien définies. les appareils Nikon sont souvent caractérisés par un bon rendu des couleurs, très saturées. Mais comme vous avez pu le lire à la page précédente, un tel filtre ne laisse passer qu'un tiers de la lumière.
Canon utilise des filtres à pente plus douce. Une teinte donnée (par exemple de l'orange) fait apparaitre un signal sur le photosite rouge bien sur, mais également sur le photosite vert et même bleu. Il faut un filtrage numérique plus poussé pour détecter la teinte (et en effet les capteurs ont un bruit de fond plus prononcé sur les couleurs). Mais l'image monochrome (signal de luminance) contient moins de bruit car le filtre laisse passer plus de lumière.
L'appareil photo Phase One IQ3 Trichromatic utilise également un filtre de Bayer (malgré que le très gros boitier aurait permi d'utiliser un capteur tri-ccd). L'appareil a 100 megapixels et la sensibilité van de 35 à 12.800ISO. Grâce à la sensibilité de base qui est très basse, il est possible de prendre des photos avec un niveau de bruit très restreint. Le convertisseur A/D fournit d'ailleurs des images en 16 bits. Le prix est d'environ 40.000€ pour le boitier seul.
Les trois couleurs sont mieux définies, et c'est tout que nous apprenons dans la documentation technique de l'appareil. La seule chose que nous voyons, c'est que les trois couleurs ne se recouvrent plus. Ce n'est pas sorcier à réaliser: tout dépend du compromis qu'on veut faire: des couleurs bien définies ou une sensibilité accrue. Chez Phase One on a fait le choix de couleurs mieux définies et la sensibilité ne monte qu'à 12.800ISO (le Canon 5D Mk IV est doublement plus sensible).
La courbe de réponse du filtre rouge s'étend dans l'infra-rouge (cela est valable pour les filtres de toutes les marques). Cela a comme résultat que les photos avec beaucoup d'infra-rouge (soleil couchant) ont le canal rouge qui est totalement saturé. Le capteur est de plus très sensible à l'infra-rouge. La peau (qui renvoie fortement les infra-rouges) est trop claire et les teintes ne sont pas naturelles. A cause de la saturation du canal rouge, des détails de la peau sont perdus. Si tu controle l'image canal par canal, tu verras que le canal rouge est totalement saturé et a perdu tout détail (dépassement de capacité).
L'appareil photo dispose pourtant d'un filtre infra-rouge (hot mirror), mais ce filtre laisse passer un peu d'infra rouges. Et lors du coucher de soleil, la lumière se compose presqu'exclusivement d'infra rouges.
La valeur "rouge" manquante est calculée à partir des deux photosites situés à gauche et à droite. Il en va de même de la valeur "bleue" manquante qui est calculée à partir des photosites supérieur et inférieur. La valeur "verte" d'un pixel rouge ou bleu est calculée à partir de 4 photosites qui entourent le pixel rouge ou bleu.
Il s'agit d'une interpolation linéaire pour le rouge et le bleu et bilinéaire pour le vert. Le résultat est que la composante couleur est limitée (surtout la composante bleue et rouge). Il n'y a pratiquement pas de perte en ce qui concerne la luminance.
A cause de l'interpolation, une photodiode qui produit un signal erroné (hot pixel) influence également les pixels qui l'entourent.
Dans le cas d'un capteur à mosaique, le downsampling 1:4 correspond en fait à la résolution de base du capteur (c'est avec des trucs de mathématicien qu'on arrive à extraire l'information cachée). La résolution au 1:4 produit une image plus petite que le format normal, mais on n'a pas effectué de downsampling: on s'est contenté de restituer l'image normale comme le capteur l'a fournie.
Pour obtenir une résoltion encore plus faible (pour un traitement plus rapide en vidéo ou la création de fichiers suffisamment petits) on utilise le pixel binning: on combine les pixels environnants de la même couleur. Certains appareils numérique bon marché affichent une sensibilité ISO de 1600. En fait, cette résolution est atteinte en combinant 4 photosites: l'image de 8 megapixels n'en fait plus que 2 quand l'appareil photo travaille en faible lumière.
Le pixel binning permet donc d'augmenter la sensibilité du capteur en additionnant le signal de 4 ou 9 photosites. L'amélioration qu'on peut obtenir ne croît pas linéairement avec le nombre de pixels qu'on additionne: en effet, quand l'image devient très foncée, le photosite ne produit que du bruit. Et additionner le signal de 16 photosites qui ne produisent que du bruit ne produira pas de la musique...
Certains appareils utilisent un traitement similaire en combinant plusieurs photos prises l'une après l'autre pour en faire une seule avec un bruit de fond moins prononcé. Un traitement numérique complexe permet d'éviter le flou de bougé, qui n'est pas possible avec un long temps de pose. C'est Sony qui a lancé ce procédé pour la première fois il y a près de dix ans, quand il se sont lancés dans la photographie numérique et que les capteurs dont ils disposaient n'étaient pas très fameux. Maintenant ils ont dépassé tout le monde et même Nikon et Phase One vient frapper à leur porte pour fabriquer les capteurs haut de gamme.