Opisane w poprzednim punkcie podstawy funkcjonowania przetworników optycznych pokazują w jaki sposób można zarejestrować zmiany natężenia światła padającego na poszczególne piksele matrycy i zarejestrować obraz. Utworzona w ten sposób informacja nie będzie jednak zawierała żadnych danych dotyczących koloru. Poszczególne piksele przetwornika będą wytwarzały ładunki elektryczne niezależnie od długości fali jaka do nich dociera i zawsze powstanie obraz w skali szarości odzwierciedlający jedynie różnice w jasnościach poszczególnych elementów. Zarejestrowanie obrazu kolorowego wymaga zastosowania odpowiednich filtrów.
Każdy obraz kolorowy można przedstawić za pomocą trzech składowych - czerwonej (R) zielonej (G) i niebieskiej (B). Jeżeli dysponujemy przetwornikiem monochromatycznym można uzyskać za jego pomocą obraz kolorowy tylko w jeden sposób - należy naświetlić tą samą scenę trzykrotnie, za każdym razem umieszczając przed matrycą jeden z filtrów RGB. Oczywiście każdy z uzyskanych obrazów będzie monochromatyczny, ale będzie zawierał informację tylko o jednym kolorze (lub inaczej kanale) R, G,lub B. Tak uzyskany sygnał należy następnie przetworzyć za pomocą odpowiedniego oprogramowania i uzyskuje się obraz barwny (rys.3.1.).
Rys.3.1. Obraz kolorowy i kanały RGB
Tak na prawdę nie ma czegoś takiego jak przetwornik kolorowy - układy, które nazywane są w ten sposób to nic innego jak zwykłe matryce czarnobiałe przykryte odpowiednią maską kolorowych, mikroskopijnych filtrów RGB po jednym na każdy piksel. Powszechnie stosowana jest tzw. maska Bayera, w której na każdą czwórkę pikseli przypada jeden filtr czerwony, jeden niebieski i dwa zielone (rys.3.2.).
Rys.3.2. Maska kolorowych filtrów Bayera
Utworzenie obrazu kolorowego odbywa się tak samo jak w przypadku matrycy czarnobiałej naświetlanej przez każdy filtr osobno, a jedyna różnica sprowadza się do tego, że w przypadku matrycy z maską Bayera wszystkie kolory naświetlane są jednocześnie. Przykład surowego (nie przetworzonego) obrazu utworzonego przez "matrycę kolorową" został pokazany na rys 3.3..
Rys.3.3. Surowy obraz z matrycy kolorowej i jego powiększony fragment
Jak widać powyżej cały obraz pokryty jest siatką kwadratowych punktów. Każdy z nich odpowiada pojedynczemu pikselowi matrycy naświetlanemu przez jeden filtr maski. Różnice w jasności poszczególnych punktów odpowiadają różnicą w natężeniu światła w poszczególnych długościach fali (barwach). Oprogramowanie przetwarzające tego typu obraz odczytuje kolor z pikseli odpowiadających poszczególnym barwom i uzyskuje informacje o natężeniu światła w poszczególnych kanałach RGB, a następnie konstruuje obraz kolorowy podobnie jak w przypadku matrycy czarnobiałej.
Tego typu pytanie może się pojawić gdy po raz pierwszy poczytamy o matrycach B&W i "kolorowych". No cóż jak to w życiu zazwyczaj coś za coś. Umieszczenie maski Bayera przed matrycą powoduje, że 1/4 pikseli rejestruje informację o poziomie czerwieni, 1/4 o poziomie niebieskiego i połowa o poziomie zielonego. Jak widać połowa pikseli rejestruje najmniej przydatną (w przypadku astrofoto) informację o kolorze zielonym, a do tego pojawia się problem nieco naciąganej rozdzielczości uzyskanego w ten sposób obrazu. W wyniku przetworzenia przez odpowiednie oprogramowanie każdy piksel matrycy stanie się pikselem obrazu - jednak taki piksel zarejestrował tylko informacje o jednym kolorze. Skąd wobec tego pozostałe dane? Zostaną one interpolowane na podstawie tego co zostało zarejestrowane przez piksele sąsiednie. Szczegóły tego algorytmu nie są w tej chwili istotne, ale efekt będzie nieco przypominał dwukrotne powiększenie obrazu zarejestrowanego z rozdzielczością o połowę mniejszą (nie jest to dokładnie to samo, ale efekt jest podobny). W przypadku fotografowania matrycą B&W zawsze korzystamy z pełnej rozdzielczości, musimy jednak wykonać osobne ekspozycje dla każdej barwy.
Jeżeli korzystamy z matrycy czarnobiałej pojawia się jeszcze jedna interesująca możliwość - fotografowanie przez tzw. filtry wąskopasmowe. Jest to nieco "wyższa szkoła jazdy" nie dla początkujących, nie będę więc rozwijał tego tematu, warto jednak wiedzieć co w tym chodzi. Niektóre obiekty astronomiczne (zazwyczaj fotografujemy w ten sposób mgławice) emitują światło w bardzo wąskich pasmach, które można izolować stosując specjalizowane filtry. Co daje taki zabieg? Po pierwsze rośnie kontrast i możemy zarejestrować subtelne struktury mgławicy, które inaczej nie będą widoczne, po drugie wycinamy bardzo wąski zakres widma (np. szerokości kilku nanometrów) co eliminuje prawie zupełnie zanieczyszczenie światłem. Tego typu zdjęcia można wykonywać nawet z miejsc, w których stopień zaświetlenia nieba pozwala na rozróżnienie tylko najjaśniejszych gwiazd. Warto zaznaczyć, że tego typu zdjęcia przedstawiane są zawsze w sztucznych kolorach (zazwyczaj są żółto/zielono/niebieskie) - wynika to z faktu, że rejestrowane fragmenty widma często są bardzo blisko siebie i odbierane są jako identyczne barwy (np. linia Hα i SII). Użycie kolorów naturalnych spowodowałoby zlanie się obrazu w jedną plamę i zniweczyło cały efekt.