miércoles, 30 de abril de 2014

El 4K y el Full Frame: 4ª Parte "El 4K, el 'Santo Grial' de la resolución"

En el capítulo anterior hemos visto la evolución de los telecines hasta alcanzar resoluciones similares a la película fílmica. La sustitución del etalonaje tradicional de la película en el laboratorio por el digital en un ordenador. Damos un paso más para descifrar de dónde viene la terminología 4K.


1.4. El 4K, el ‘Santo Grial’ de la resolución

Es el momento de centramos en analizar detenidamente porqué es tan importante llegar a la esperada nomenclatura mágica del 4K.

Todas las posibilidades del Super 35 en cine

Anteriormente hemos visto que existen tres opciones de copia dentro del encuadre en Super 35. Seleccionaremos, para empezar, el formato completo que tiene una proporción de 4:3. Si escaneamos esta imagen con esta relación de aspecto y tomamos 4000 muestras en horizontal y 3000 en vertical, nos daría una resolución de 4K x 3K, aunque solo nombraríamos la primera que es la horizontal. La multiplicación de estas dos cifras nos da 12.000.000 muestras o lo que es lo mismo, 12 megapíxeles. 

Bloque óptico del telecine Spirit 4K equipado con tres CCD para el RGB

Debemos tener en cuenta que los buenos telecines llevan tres captadores que permiten separar el registro rojo, verde y azul, ofreciendo la mayor definición posible en RGB porque su salida ofrece el formato DPX, que como ya hemos dicho mantiene todas las propiedades del negativo original. Por esta circunstancia se multiplica por tres este factor, 12Mpx para el rojo, 12Mpx para el verde y 12Mpx para el azul. Esto nos sitúa en la cifra escalofriante de 36Mpx de información a la salida de un telecine cuando escanea una película en 4K, a 4:4:4.  

Para el estándar de Cine Digital 4K se han definido diferentes variables. La primera de ellas la ‘Apertura Completa’ o 4p que en digital alcanza la resolución de 4096 x 3112 o 12,7 megapíxeles y una relación de aspecto 4:3. La segunda la ‘Apertura Academy’ con 3656 x 2664 o 9,7 megapixeles y relación de aspecto 4:3. La tercera Cinema Digital (Super 35/3p) con 3996 x 2160 o 8,6 megapixeles y relación 16:9. La cuarta el Cinema Digital (Super 35/2p) con 4096 x 1714 o 7 megapixels y una relación 21:9.

Es aquí donde queda emparejado el cine en película de 35mm y su escaneo digital en 4K (se refiere a su resolución horizontal del negativo en película y durante el capítulo seis descubriremos el porqué de un número tan caprichoso). Nos olvidamos de la resolución vertical porque, dependiendo de la proporción elegida para la proyección, esta puede variar. Ahora es el momento de abordar el tema de la influencia que han tenido estas proporciones en la construcción de los sensores de las cámaras de cine digital.

José Pastor



















martes, 15 de abril de 2014

El 4K y el Full Frame: 3ª Parte "El escaneo Digital"

En el capítulo anterior hemos visto la historia de las DSLR digitales y el logro de igualar su formato al “Full Frame” analógico. El inconveniente de utilizar una trama de color en un único sensor y sus diferentes tecnologías, CCD o CMOS que todavía coexisten con sus ventajas e inconvenientes. En este capítulo dejaremos de lado el mundo de las DSLR  y nos centraremos en la historia y la  mejora de la resolución en el sensor del telecine. Comenzamos.


1.3. El escaneo Digital


En 1979 fue la primera vez que se utilizó un CCD en un escáner digital, el telecine FDL-60 (Field Digital Line) y su versión FDL-60A ya utilizaban tres CCD. Durante mucho tiempo los telecines se utilizaron para convertir las películas a vídeo analógica para la su emisión en televisión o para copias en VHS o DVD para su venta y alquiler. El Cine Digital no existía y la proyección en vídeo en salas de exhibición era muy minoritaria por su baja calidad de imagen. En 1.989 se presentó el primer telecine digital el FDL 90 (En 1993 se presenta el Quadra) que posibilitaba el escaneo de película Super 35 a 3p y vídeo digital a 4:4:4. Por aquellas fechas la digitalización de una película completa fue poco práctica porque los telecines digitales eran extremadamente lentos y los archivos que se obtenían eran demasiado grandes para la potencia de los ordenadores de aquellos años. Su única utilidad era la digitalización de pequeñas secuencias para añadir los efectos visuales digitales que comenzaban a emerger con fuerza.

Sistema CAPS de Pixar para la creación de los dibujos por ordenador en lugar de pintarlos en acetatos transparentes

En 1990, se utiliza el sistema de Pixar llamado CAPS (Computer Animation Production System) en el 100% de una película de animación de Disney “Los Rescatadores en Cangurolandia” (The rescuers down under, 1990), de Hendel Butoy y Mike Gabriel. Los dibujos se pintaban directamente utilizando un programa de ordenador fotograma a fotograma y de estos archivos se obtenía una película digital que se copiaba a película de 35mm para su exhibición.

En 1992, se crea el primera empresa digital para realizar los efectos digitales de “Super Mario Bros” (1993), de  Annabel Jankel y Rocky Morton. Unas 700 placas de efectos se escanearon en resolución 2K. En 1993 se escanea los tres registros originales en blanco y negro archivos originales del viejo sistema Technicolor (un total de 360.000 fotogramas en blanco y negro obtenidos de los tres registros). La resolución final en color alcanzaba los 4K con 10 bits de color utilizando un nuevo formato de archivo digital llamado Cineon. Se eliminó digitalmente la suciedad, los arañazos y se restauró el color original. En 1994 el consorcio BTS demostró el telecine FLH-1000 que fue el primero en escanear película a HDTV aunque nunca fue comercializado. 


“Pleasantville” la primera película escaneada a 2K para obtener un intermediate digital

En 1996 Philips, en colaboración con Kodak, dio un paso muy importante con el telecine SDC 2000 (Spirit DataCine) que era capaz de escanear la luminancia y crominancia de una película a una resolución cercana al 2K, ofrecía una  salida de 2048 x 1556 en RGB. La película “Pleasantville” (1998) de Gary Roos, fue escaneada obteniendo un intermediate digital de 1920 x 1440. Se hizo así para realizar los efectos de mezcla de blanco/negro y color. La película “O Brother” (2000) de Joel Coen, fue digitalizada al formato DPX (Digital Picure eXchange versión 1.1.).

Tanto el  DPX como el Cineon son exportables usando After Effects. El Cineon con una resolución 2K, lo utilizaba la ILM en la década de los noventa como formato de exportación de las imágenes generadas por ordenador  

Hacemos una pequeña pausa para hablar brevemente de la importancia de este formato porque se utiliza como un ‘Intermediate Digital’ en cine profesional. El DPX es un formato derivado del Cineon que fue diseñado por Kodak en 1993 para el escaneo de película. El Cineon con resolución 2K  fue utilizado en la década de los noventa por Industrial Light and Magic como formato de trabajo para generar imágenes por ordenador o efectos digitales de muchas películas, como por ejemplo “Jurassic Park”, el 4K era impensable en esas fechas. Fue adaptado por el SMPTE un año después y ha sido mejorado en 2003 en su versión 2.0 (ANSI/SMPTE 268M-2003). El DPX permite mantener, durante la digitalización, la densidad de cada canal de color de un negativo sin comprimir y también su gamma original. Es muy utilizado en los efectos especiales digitales, en la postproducción, en el telecinado y también en los laboratorios de película.


Volvemos al tema de la producción “O Brother” porque fue la primera película que se escaneó para obtener un ‘Intermediate Digital’ de toda la cinta. Los fotogramas escaneados partían de un negativo en Super 35 y se utilizó únicamente la proporción 21:9 con una resolución de 2K para su etalonaje. El trabajo lo realizó la empresa Cinesite utilizando un telecine Spirit DataCine y el sistema Pandora International Megadef para realizar los ajustes de color. El retoque más visible consistió en atenuar el verde del follaje y obtener una tonalidad desaturada con una dominante dorada para toda la imagen.

Spider-Man 2 fue la primera película escaneada a 4K

En 2004 se escaneó por primera vez una película a 4K. La cinta fue “Spider-Man 2” (2004), de San Raimi y se hizo para conseguir un intermediate digital en 4K con el que realizar el etalonaje (los efectos digitales fueron creados a 2K y ampliados a 4K).

La joya de la corona en telecines, el Spirit Data Cine a 4K

En 2005, se presentó el nuevo telecine SDC 4K (Spirit Data Cine), lo que permitió escanear una película a una resolución adecuada de 4096 x 3124. A partir de aquí el conseguir un intermiate de la película de 35mm y su etalonaje digital, con calidad fílmica, ya fue una realidad.

Baraka (1992) rodada en 70mm, fue la primera película escaneada a 8K en 2008

En 2008 se escanea por primera vez a 8K. La película fue “Baraka” (1992), de Ron Fricke. Se hizo con el negativo original de 65mm para un lanzamiento en Blu ray. La exploración produjo 30 terabytes de datos y se tardaba de 12 a 13 segundos en escanear un fotograma (tres semanas para escanear la película entera). IMAX DMR llega a escanear películas comerciales hasta 8K para su sistema de proyección digital.

A modo de resumen diremos que a partir de 1998, durante el arranque del cine numérico, la resolución 2K se convirtió en un estándar para el Cine Digital profesional y duró más de una década. Muchas películas se escaneaban y etalonaban digitalmente. Se iniciaba así la era de la postproducción digital basada en archivos binarios para la cinematografía. El escaneado de película de celuloide, para obtener un intermediate digital, ha ido creciendo desde el año 2000. Este procedimiento ha crecido rápidamente desde mediados de la década del 2000 y Cinco años más tarde el 50% de las películas de Hollywood tuvieron un intermediate digital. En 2007, aumento hasta el 70% y en la actualidad prácticamente la totalidad de las películas de mediano y alto presupuesto, rodadas en película fílmica, se etalonan digitalmente.

El 4K se está convirtiendo en el nuevo estándar, se está asentando en la industria del cine y en la nueva generación de proyectores digitales. Incluso su expansión está llegando al mercado doméstico y a la televisión tradicional. Pero ¿Por qué tanto empeño en el 4K? Seguiremos contándolo en el siguiente capítulo....

José Pastor




lunes, 7 de abril de 2014

Sony α7s, el Full Frame 4K ya está aquí

La Sony Alfa 7s que graba vídeo a 4K

La compañía japonesa Sony declara la guerra a las DSLR de la competencia que graban vídeo. Tras la importante noticia del lanzamiento de la Panasonic GH4 Micro Cuatro Tercios, que alcanza los 4K de cine, la compañía nipona Sony contraataca y  ha anunciado en el NAB de Las Vegas su nueva cámara de fotos de la familia Alfa7, la α7s que es capaz de grabar vídeo a 4K.

La actualidad manda y por este motivo interrumpo el artículo “El 4k y el Full Frame” donde intentaba explicar, que la tentación de emparentar estos dos factores en un mismo concepto es muy grande. Sony también lo ha entendido así y por lo tanto la guerra está servida. Ahora toca esperar a ver qué hace Canon, Nikon y resto de competencia ante este desafío. Si queréis saber las causas por las que creo que la unión de los factores si altera el producto, tendréis que seguir leyendo las partes 3 y 4 que estoy preparando. 

Ahora descubramos que ofrece la nueva Sony α7s. La reseña principal es que es una cámara fotográfica ‘Full Frame’, con la profundidad de campo del formato de cine VistaVision, y la ventaja de poder utilizar ópticas de  formato completo. Sony utiliza objetivos de la marca Carl Zeiss y, por ello, no es necesario  hablar de su calidad. Otro anuncio importante en el NAB, es que se está trabajando en la construcción de un objetivo zoom motorizado con ajustes de foco más sensible para vídeo.

Sensor ‘Full Frame’ cuatro tercios completo  y procesador Bionz X

La α7s está equipada con un sensor Exmor CMOS de 12.2 megapíxeles, junto con el procesador de imagen Bionz X. Según explica Sony, han reducido la resolución del sensor (la α7 tiene 24Mpx y la α7r tiene 36Mpx) para conseguir aumentar su sensibilidad. Alcanza el rango ISO de 50 a 409.600. Es tan brutal que argumentan que es posible grabar a 4K con muy poca luz. Os juro que estoy frotándome los ojos con las manos, pero mi cerebro pide ver pruebas, pruebas de su calidad real con luz de una vela.

Si queréis quedaros con la boca abierta, aquí tenéis la prueba de su calidad

Es la primera cámara que graba 4K utilizando todo el ancho del sensor (la Panasonic GH4 no) consiguiendo mayor profundidad de campo. En mi humilde opinión es un aspecto muy importante y en mis próximos artículos, sobre el Full Frame y el 4K, desvelaré el porqué. Estaba casi decidido a comprar la GH4 y ahora me están cayendo gotas de sudor cuando pienso en las grandes posibilidades que ofrece la nueva Sony Alfa

La α7s no lleva espejo e incorpora el visor Tru-Finder XGA Oled, pantalla semi-articulada de 3 pulgadas (con 921.660 píxeles), conectividad WiFi e NFC.  Tiene un sistema de enfoque mejorado para condiciones lumínicas pobres.

Bueno hemos descrito sus ventajas, pero cuáles son sus inconvenientes. Se me cae el alma encima al descubrir que la cámara solo graba 1920 x 1080 hasta 60fps (posibilidad de grabar en HFR) progresivas y 1280 x 720 a 120fps, en formato AVCHD y MP4. Pero ¿Qué pasa con el 4K? La mala noticia es que, para registrar vídeo a 3.840 x 2.160, necesita de un grabador externo conectado al puerto HDMI. Recordemos que la GH4 permite hacerlo en tarjeta SDXC/SDHC y alcanza la resolución Cine 4K de 4096 x 2160 a 24 fps. Se rumorea que el precio del cuerpo de la α7s rondará los 1.999 dólares. 

La buena noticia es que, en noviembre del 2015, Sony comercializará la nueva Sony α7s que ya permitirá  grabar vídeo 4K en la tarjeta de la cámara y sin necesidad de grabador externo.

Aquí tenéis el enlace para ver el vídeo de presentación de la cámara

Bueno es cuestión de esperar y analizar con más detalle esta cámara de fotos que ofrece muy buenas prestaciones de vídeo en formato completo. Muy buena sensibilidad, profundidad de campo, enfoque automático, objetivo zoom motorizados y 4K ‘Full Frame’. Desgraciadamente habrá que comprar un grabador externo si quieres vídeo a 4K, hace falta saber su precio y si es posible la conexión de micrófonos, salidas SDI, etc.

La cámara doméstica Handycam Sony FDR-AX100E que graba a 4K

De momento Sony contenta al mercado doméstico de vídeo, con el lanzamiento este pasado mes de marzo de una cámara doméstica que graba a 4K con 3.849 x 2.160, 24p o 25p, con el formato XAVC-S con hasta 50 Mps. Es capaz de grabar Full HD a 120 imágenes por segundo. Tiene un precio de 1.999 Euros.

 
La Sony α7s equipada ¿Te apetece rodar una película?

Respecto a la nueva  α7s, voy a estudiarla y compararla con la GH4 para decidirme por una de ellas. El gran interrogante es, si Canon o Nikon tienen munición en la recamara.  Como soy mal pensado, y creo que el 4K ha venido para quedarse, estoy seguro que muy pronto que los grandes fabricantes de cámaras DSLR ‘Full Frame’ incorporarán el 4K. Tiempo al tiempo.

José Pastor

Fuentes e imágenes:

http://www.sony.es/electronics/camaras-lentes-intercambiables/ilce-7s
http://www.sony.net/Products/di/en-gb/products/vq5f/index.html
http://www.nabshow.com/

martes, 1 de abril de 2014

El 4K y el Full Frame: 2ª Parte "El sensor Digital"

En el capítulo anterior hemos visto la historia de las sucesivas modificaciones que fue sufriendo el formato de película de 35mm. Tenemos que recordar el concepto “Full Frame” que viene de la cámara fotográfica porque ahora vamos a ver la influencia que ha tenido en el mundo digital.


1.2.  El sensor digital



En 1973 la empresa Fairchild Semiconductor desarrolló uno de los primeros sensores CCD que tenía una resolución de 100 x 100 píxeles. Fue el primer paso en el intento de digitalizar las imágenes. Dos años después se construyó el primer prototipo de escáner. 


La primera cámara digital creada por Steven Sasson

En 1975 Steven Sasson, ingeniero de Eastman Kodak, utilizó el CCD Fairchild en el primer prototipo de cámara digital. Este primitivo artefacto registraba imágenes, en blanco y negro, sobre una cinta de casete. Tenía una resolución muy baja de 0,01 megapíxel. En 1981, Sony demostró su primera cámara digital Mavica que utilizaba un disquete. En 1983 le siguió la compañía Canon, con su RC-701. Estas cámaras, a pesar de ser electrónicas, eran realmente analógicas porque las imágenes no se digitalizaban en el soporte. 


La primera cámara digital, la Fuji DS-1P

En 1988 se presentan los primeros estándares de digitalización  JPEG y MPEG, tan famosos hoy en día. Ese mismo año se presenta, la primera cámara fotográfica verdaderamente digital, la Fuji DS-1P de 1988 que digitalizaba las imágenes en una memoria. Utilizaba un CCD de 2/3 de pulgada y una resolución de 0,4 megapíxeles (640 x 480 píxeles).

La Minolta RD-175 y su carcasa con tres sensores (R,G,B)

En 1995 Minolta lanzó la RD-175. Utilizaba el cuerpo de la Minolta SLR 500si pero acoplada a una voluminosa carcasa que incorporaba tres CCD independientes (RGB), uno para cada color.  Tenía una resolución de 1,75 megapíxeles y la facilidad de utilizar los objetivos Minolta AF ya existentes para película de 35mm.

Bloque óptico con tres CCD, uno para el rojo, otro para el azul y otro para el verde

El problema de utilizar tres sensores, como en las cámaras profesionales de vídeo, implicaba aumentar el tamaño y el peso de la cámara. Además  de complicar la circuitería electrónica y encarecer el precio. Todas estas razones fueron suficientes para encaminar los trabajos de diseño, hacia la construcción de una cámara digital exactamente igual en peso y tamaño a una analógica. La solución, como ya había ocurrido en los primeros prototipos, fue utilizar un solo sensor para capturar la imagen fotográfica en las DSLR.

La cámara Nikon D1 con un único CCD

Nikon lanzó la D1, en junio de 1999, fue la primera cámara fotográfica digital creada desde cero. Tenía un único CCD con unas medidas de 23,7 x 15,6 mm, que son muy cercanas al formato de ‘Super 35’ en cine, pero con una pobre resolución de 2000 x 1312 o 2,74 megapíxeles para fotografía. Tenía la ventaja de poder utilizar objetivos normales Nikon F- Mount, pero con un factor de recorte de 1,5. 


La Pentax MZ-D y la Contax N Digital, las primeras cámaras “Full Frame”

Pentax y Contax, en el Photokina del año 2000, anunciaron la primera cámara con un único CCD de tamaño ‘Full Frame’. La ventaja principal de emplear las medidas exactas de 24 x 36 milímetros, igual que las analógicas, era su compatibilidad total con las ópticas tradicionales sin tener que aplicar ningún tipo de recorte. El  proyecto sufrió retraso por el abandono del diseño de la Pentax MZ-D y por el alto precio de coste de fabricación. Finalmente, en el 2000, se comercializó la vanguardista Contax N Digital. El sensor estaba fabricado por Philips y tenía una resolución de 3072 x 2048 o seis megapíxeles, una cifra muy cercana a los famosos “4K” del que tanto se habla ahora.

Le siguieron los pasos, la Canon EOS-1Ds y la Kodak DSC Pro 14n. El resto de marcas se fueron sumando progresivamente al ‘Full Frame’ que se ha convertido en el estándar profesional en fotografía. Pero, si utilizamos un solo sensor ¿Cómo conseguimos registrar el RGB de una imagen?


1.2.1.   La trama o filtro de color 

La solución más sencilla para registrar el color, en un único sensor, es utilizar una trama de micro filtros RGB. Estos se colocan encima de las diminutas celdas sensibles a la luz que reciben el nombre de ‘photosites’, llamados así en analogía a los fotolitos de imprenta. Estos filtros están ordenados de una manera peculiar y su función es conseguir registrar digitalmente la crominancia de la imagen utilizando un único sensor.

Diferentes maneras de registrar el color: 
1- Tres capas sensibles Roja, Verde y Azul en película fotoquímica.
 2- Sensor con trama de color tipo Bayer.
 3- Sensor con tres capas sensibles RGB tipo Foveon X3

La trama Bayer es el filtro más utilizado para sensores de fotografía, fue inventada en 1975 por el científico Bryce Bayer de Kodak. Existen otros patrones de filtrado como CYGM, o el RGBE que funcionan de un modo similar pero que no explicaremos. Solo destacaré el caso del Foveon X3 porque tiene la ventaja de incorporar tres capas RGB, como ocurre en la película fotoquímica. Gracias a este tipo de filtrado en capas, se consigue una resolución completa en color. Desgraciadamente este sensor, propiedad de la empresa Sigma, no ha triunfado.


Veamos cómo funciona una trama tipo Bayer. Tomaremos como ejemplo una cuadrícula de 2x2 píxeles del sensor de la cámara:

1- El sistema Foveon X3 con tres capas RGB, registraría el color correcto en los cuatro píxeles y sin pérdidas de resolución. Funcionaría de manera muy similar a una emulsión de película de celuloide en color.
2-    El sistema Bayer con una única capa RGB, registraría dos de los píxeles en color Verde, uno en rojo y otro en azul. Imitaría en cierta manera a la visión humana porque nuestros ojos tienen más bastones sensibles al verde que al rojo o el azul.
3-    Si simulamos una supuesta disposición de un filtro Bayer en capas, apreciaremos mejor la perdida de resolución en la crominancia de la imagen respecto al Foveon.
4-   Cuando el sistema Bayer restaura el color original de la imagen, lo hace interpolando la información de los colores carentes y con una sensible pérdida de información colorimétrica. 

Una vez aclarado este importante concepto, debemos entender que si utilizamos una trama tipo Bayer perdemos,  respecto al sistema tradicional de tres sensores en RGB, entre un 30% a un 50% de resolución cromática. Ahora cambiamos de tercio y abordaremos cómo funciona el sensor en la captura.


1.1.1.   El CCD o el CMOS

Cuando apareció el sensor CCD como sustituto del viejo tubo de cámara, a pesar de su poca resolución, fue un avance importante porque permitió disminuir el tamaño y peso de la cámara. En la actualidad hay dos tipos de tecnología que son muy similares, el CCD y el CMOS. Ambas utilizan semiconductores de metal-óxido que están colocados en forma de matriz. A estas celdas se les llama ‘photosite’ y cada una de ellas almacena una carga eléctrica cuando recibe luz (cuanta más cantidad de luz recibe, la carga que acumula es mayor). 
En el CCD (Charge Coupled Device) la estructura es muy simple y funciona de esta manera. Una vez incide la luz sobre el sensor, este acumula las cargas eléctricas dependiendo de la intensidad que recibe. El sistema de lectura comienza a trabajar y vacía rápidamente todas las cargas de las celdas. Para esta función, disponen de unos canales adyacentes que permiten desalojarlas hacia abajo. Una vez se ha desplazado todo el fotograma, el procesador externo convierte las cargas en señal y esta es digitalizada como imagen. El sensor vuelve a estar operativo y se repite el mismo proceso descrito para una nueva imagen. Es importante entender que la lectura se realiza de forma simultánea para todo el fotograma. El problema de llevar un procesador externo, redunda en mayor coste de fabricación y en mayor consumo de energía en el CCD.

En el caso del CMOS (Complementary Metal Oxide Semiconductor) la estructura es más simple todavía. En este caso, cuando la luz incide en el sensor, independientemente cada celda convierte internamente las cargas en señal. La lectura se realiza a través de un unos transistores que leen la imagen, línea a línea. Al contrario del CCD, este sensor siempre esta expuesto a la luz registrando y desplazando las cargas al mismo tiempo. Gracias a ello no necesita de un procesador externo como ocurre en el CCD.  Como consecuencia se reduce el coste de fabricación y el consumo de energía. Aquí es importante subrayar que la lectura es casi instantánea a la exposición, pero tiene el inconveniente de que no se realiza en el mismo instante para todo el fotograma. 



Aclarado su funcionamiento veamos los pros y los contras de cada uno de ellos. Por un lado el CCD, al ser menos sensible a la luz que el CMOS, ofrece mejor latitud de exposición o rango dinámico (mayor escala de grises en la imagen), genera menos ruido en la imagen y tolera mejor las luces intensas superando en el doble al CMOS. Por el contrario este último, al ser es más sensible a la luz, puede trabajar en peores condiciones lumínicas y además es inmune al ‘blooming’ (cuando una celda se satura por luz, inunda las de alrededor creando una especie de mancha blanca en la imagen).


Otra ventaja del CMOS respecto al CCD, es su rapidez porque todo el procesado de la señal se realiza dentro del sensor. Esta característica le permite disparar en ráfaga o conseguir mayores velocidades de fotogramas por segundo. Pero el CMOS para grabar vídeo tiene el inconveniente del ‘Rolling Shutter’. Es así porque, como ya hemos dicho, la imagen se lee y digitaliza en líneas horizontales que no coinciden exactamente en el tiempo (en el CCD sí se lee y digitaliza todo el marco simultáneamente). Esta distorsión tan característica, toma la apariencia que la imagen se rompa en líneas horizontales cuando se producen movimientos rápidos o se dispara un flash. Podríamos seguir enumerando más factores a favor o en contra, pero eso sería cuestión de otro análisis más detallado.


Finalmente, aunque el CCD fue el rey en las cámaras de fotografía y de vídeo, la utilización masiva del CMOS en las webcams y en los teléfonos móviles hizo que se perfeccionara más rápidamente que el CCD. Este factor unido a su bajo coste de fabricación y su mayor sensibilidad, ha conseguido desbancar al CCD como soberano absoluto de los sensores de las DSLR y de las cámaras de cine digital.


José Pastor