En el
capítulo anterior hemos visto la historia de las sucesivas modificaciones que
fue sufriendo el formato de película de 35mm. Tenemos que recordar el concepto
“Full Frame” que viene de la cámara fotográfica porque ahora vamos
a ver la influencia que ha tenido en el mundo digital.
1.2. El sensor digital
1.2. El sensor digital
En 1973 la empresa Fairchild Semiconductor desarrolló uno
de los primeros sensores CCD que tenía una resolución de 100 x 100 píxeles. Fue
el primer paso en el intento de digitalizar las imágenes. Dos años después se construyó el
primer prototipo de escáner.
La primera cámara digital
creada por Steven Sasson
En 1975 Steven Sasson, ingeniero de
Eastman Kodak, utilizó el CCD Fairchild en el primer prototipo de cámara digital. Este primitivo artefacto registraba
imágenes, en blanco y negro, sobre una cinta de casete. Tenía una resolución
muy baja de 0,01 megapíxel. En 1981, Sony demostró su primera cámara digital Mavica que utilizaba un disquete. En 1983 le siguió la compañía Canon, con su RC-701. Estas cámaras, a pesar de ser electrónicas, eran
realmente analógicas porque las imágenes no se digitalizaban en el soporte.
La primera cámara digital, la Fuji DS-1P
En 1988 se presentan los
primeros estándares de digitalización
JPEG y MPEG, tan famosos hoy en día. Ese mismo año se presenta, la
primera cámara fotográfica verdaderamente digital, la Fuji DS-1P de 1988 que digitalizaba las imágenes en una memoria. Utilizaba
un CCD de 2/3 de pulgada y una resolución de 0,4 megapíxeles (640 x 480 píxeles).
La Minolta RD-175 y su carcasa con tres sensores (R,G,B)
En 1995 Minolta lanzó la RD-175. Utilizaba el cuerpo de la Minolta SLR 500si pero acoplada a una voluminosa carcasa que incorporaba
tres CCD independientes (RGB), uno para cada color. Tenía una resolución de 1,75 megapíxeles y la
facilidad de utilizar los objetivos Minolta
AF ya existentes para película de 35mm.
Bloque óptico con tres CCD, uno para el rojo, otro para el azul y otro para el verde
El problema de utilizar tres
sensores, como en las cámaras profesionales de vídeo, implicaba aumentar el
tamaño y el peso de la cámara. Además de
complicar la circuitería electrónica y encarecer el precio. Todas estas razones
fueron suficientes para encaminar los trabajos de diseño, hacia la construcción
de una cámara digital exactamente igual en peso y tamaño a una analógica. La
solución, como ya había ocurrido en los primeros prototipos, fue utilizar un
solo sensor para capturar la imagen fotográfica en las DSLR.
La cámara Nikon D1 con un único CCD
Nikon lanzó la D1, en junio de 1999, fue la primera cámara fotográfica digital creada desde cero. Tenía un
único CCD con unas medidas de 23,7 x 15,6 mm, que son muy cercanas al formato
de ‘Super 35’ en cine, pero con una
pobre resolución de 2000 x 1312 o 2,74 megapíxeles para fotografía. Tenía la
ventaja de poder utilizar objetivos normales Nikon F- Mount, pero con un factor de recorte de 1,5.
La Pentax MZ-D y la Contax N
Digital, las primeras cámaras “Full Frame”
Pentax y Contax, en el Photokina
del año 2000, anunciaron la primera cámara con un único CCD de tamaño ‘Full Frame’. La ventaja principal de
emplear las medidas exactas de 24 x 36 milímetros, igual que las analógicas, era
su compatibilidad total con las ópticas tradicionales sin tener que aplicar
ningún tipo de recorte. El proyecto sufrió
retraso por el abandono del diseño de la Pentax
MZ-D y por el alto precio de coste de fabricación. Finalmente, en el 2000, se
comercializó la vanguardista Contax N
Digital. El sensor estaba fabricado por Philips
y tenía una resolución de 3072 x 2048 o seis megapíxeles, una cifra muy cercana a los famosos “4K” del
que tanto se habla ahora.
Le siguieron los pasos, la Canon EOS-1Ds y la Kodak DSC Pro 14n. El resto de marcas se fueron sumando
progresivamente al ‘Full Frame’ que se ha
convertido en el estándar profesional en fotografía. Pero, si utilizamos un solo sensor ¿Cómo conseguimos registrar el
RGB de una imagen?
1.2.1. La trama o filtro de color
La solución más sencilla para
registrar el color, en un único sensor, es utilizar una trama de micro filtros
RGB. Estos se colocan encima de las diminutas celdas sensibles a la luz que
reciben el nombre de ‘photosites’, llamados así en analogía a los fotolitos de imprenta.
Estos filtros están ordenados de una manera peculiar y su función es conseguir
registrar digitalmente la crominancia de la imagen utilizando un único sensor.
Diferentes maneras de
registrar el color:
1- Tres capas sensibles Roja, Verde y Azul en película
fotoquímica.
2- Sensor con trama de color tipo Bayer.
3- Sensor con tres capas
sensibles RGB tipo Foveon X3
La trama Bayer es el filtro más utilizado para
sensores de fotografía, fue inventada en 1975 por el científico Bryce Bayer de Kodak.
Existen otros patrones de filtrado como CYGM, o el RGBE que funcionan de un
modo similar pero que no explicaremos. Solo destacaré el caso del Foveon X3 porque tiene la ventaja de
incorporar tres capas RGB, como ocurre en la película fotoquímica. Gracias a
este tipo de filtrado en capas, se consigue una resolución completa en color. Desgraciadamente
este sensor, propiedad de la empresa Sigma,
no ha triunfado.
Veamos cómo funciona una
trama tipo Bayer. Tomaremos como
ejemplo una cuadrícula de 2x2 píxeles del sensor de la cámara:
1- El sistema Foveon X3 con tres capas RGB, registraría el color correcto en los
cuatro píxeles y sin pérdidas de resolución. Funcionaría de manera muy similar
a una emulsión de película de celuloide en color.
2-
El sistema Bayer con una única capa RGB, registraría dos de los píxeles en
color Verde, uno en rojo y otro en azul. Imitaría en cierta manera a la visión
humana porque nuestros ojos tienen más bastones sensibles al verde que al rojo
o el azul.
3-
Si simulamos una supuesta disposición de un
filtro Bayer en capas, apreciaremos
mejor la perdida de resolución en la crominancia de la imagen respecto al Foveon.
4- Cuando el sistema Bayer restaura el color original de la imagen, lo hace interpolando
la información de los colores carentes y con una sensible pérdida de
información colorimétrica.
Una
vez aclarado este importante concepto, debemos entender que si utilizamos una
trama tipo Bayer perdemos, respecto al sistema tradicional de tres
sensores en RGB, entre un 30% a un 50% de resolución cromática. Ahora cambiamos
de tercio y abordaremos cómo funciona el sensor en la captura.
1.1.1. El CCD o el CMOS
Cuando apareció el sensor CCD
como sustituto del viejo tubo de cámara, a pesar de su poca resolución, fue un
avance importante porque permitió disminuir el tamaño y peso de la cámara. En
la actualidad hay dos tipos de tecnología que son muy similares, el CCD y el
CMOS. Ambas utilizan semiconductores de metal-óxido que están colocados en
forma de matriz. A estas celdas se les llama ‘photosite’ y cada una de ellas
almacena una carga eléctrica cuando recibe luz (cuanta más cantidad de luz
recibe, la carga que acumula es mayor).
En el CCD (Charge Coupled
Device) la estructura es muy simple y funciona de esta manera. Una vez incide
la luz sobre el sensor, este acumula las cargas eléctricas dependiendo de la
intensidad que recibe. El sistema de lectura comienza a trabajar y vacía rápidamente
todas las cargas de las celdas. Para esta función, disponen de unos canales
adyacentes que permiten desalojarlas hacia abajo. Una vez se ha desplazado todo
el fotograma, el procesador externo convierte las cargas en señal y esta es
digitalizada como imagen. El sensor vuelve a estar operativo y se repite el
mismo proceso descrito para una nueva imagen. Es importante entender que la
lectura se realiza de forma simultánea para todo el fotograma. El problema de
llevar un procesador externo, redunda en mayor coste de fabricación y en mayor
consumo de energía en el CCD.
En el caso del CMOS (Complementary
Metal Oxide Semiconductor) la estructura es más simple todavía. En este caso, cuando
la luz incide en el sensor, independientemente cada celda convierte internamente las cargas en
señal. La lectura se realiza a través de un unos transistores que leen la imagen,
línea a línea. Al contrario del CCD, este sensor siempre esta expuesto a la luz
registrando y desplazando las cargas al mismo tiempo. Gracias a ello no
necesita de un procesador externo como ocurre en el CCD. Como consecuencia se reduce el coste de
fabricación y el consumo de energía. Aquí es importante subrayar que la lectura
es casi instantánea a la exposición, pero tiene el inconveniente de que no se
realiza en el mismo instante para todo el fotograma.
Aclarado su funcionamiento veamos los pros y los contras de cada uno de ellos. Por un lado el CCD, al ser menos sensible a la luz que el CMOS, ofrece mejor latitud de exposición o rango dinámico (mayor escala de grises en la imagen), genera menos ruido en la imagen y tolera mejor las luces intensas superando en el doble al CMOS. Por el contrario este último, al ser es más sensible a la luz, puede trabajar en peores condiciones lumínicas y además es inmune al ‘blooming’ (cuando una celda se satura por luz, inunda las de alrededor creando una especie de mancha blanca en la imagen).
Otra ventaja del CMOS respecto al CCD, es su rapidez porque todo el procesado de la señal se realiza dentro del sensor. Esta característica le permite disparar en ráfaga o conseguir mayores velocidades de fotogramas por segundo. Pero el CMOS para grabar vídeo tiene el inconveniente del ‘Rolling Shutter’. Es así porque, como ya hemos dicho, la imagen se lee y digitaliza en líneas horizontales que no coinciden exactamente en el tiempo (en el CCD sí se lee y digitaliza todo el marco simultáneamente). Esta distorsión tan característica, toma la apariencia que la imagen se rompa en líneas horizontales cuando se producen movimientos rápidos o se dispara un flash. Podríamos seguir enumerando más factores a favor o en contra, pero eso sería cuestión de otro análisis más detallado.
Finalmente, aunque el CCD fue el rey en las cámaras de fotografía y de vídeo, la utilización masiva del CMOS en las webcams y en los teléfonos móviles hizo que se perfeccionara más rápidamente que el CCD. Este factor unido a su bajo coste de fabricación y su mayor sensibilidad, ha conseguido desbancar al CCD como soberano absoluto de los sensores de las DSLR y de las cámaras de cine digital.
José Pastor
Aclarado su funcionamiento veamos los pros y los contras de cada uno de ellos. Por un lado el CCD, al ser menos sensible a la luz que el CMOS, ofrece mejor latitud de exposición o rango dinámico (mayor escala de grises en la imagen), genera menos ruido en la imagen y tolera mejor las luces intensas superando en el doble al CMOS. Por el contrario este último, al ser es más sensible a la luz, puede trabajar en peores condiciones lumínicas y además es inmune al ‘blooming’ (cuando una celda se satura por luz, inunda las de alrededor creando una especie de mancha blanca en la imagen).
Otra ventaja del CMOS respecto al CCD, es su rapidez porque todo el procesado de la señal se realiza dentro del sensor. Esta característica le permite disparar en ráfaga o conseguir mayores velocidades de fotogramas por segundo. Pero el CMOS para grabar vídeo tiene el inconveniente del ‘Rolling Shutter’. Es así porque, como ya hemos dicho, la imagen se lee y digitaliza en líneas horizontales que no coinciden exactamente en el tiempo (en el CCD sí se lee y digitaliza todo el marco simultáneamente). Esta distorsión tan característica, toma la apariencia que la imagen se rompa en líneas horizontales cuando se producen movimientos rápidos o se dispara un flash. Podríamos seguir enumerando más factores a favor o en contra, pero eso sería cuestión de otro análisis más detallado.
Finalmente, aunque el CCD fue el rey en las cámaras de fotografía y de vídeo, la utilización masiva del CMOS en las webcams y en los teléfonos móviles hizo que se perfeccionara más rápidamente que el CCD. Este factor unido a su bajo coste de fabricación y su mayor sensibilidad, ha conseguido desbancar al CCD como soberano absoluto de los sensores de las DSLR y de las cámaras de cine digital.
José Pastor
No hay comentarios :
Publicar un comentario
Deja aquí tu comentario: