viernes, 2 de mayo de 2014

El 4K y el Full Frame: 5ª Parte "El tamaño del sensor para cinematografía"

1.5. El tamaño del sensor para cinematografía


Vieja televisión de tubo de rayos catódicos

Antes de entrar en materia repasaremos la evolución que ha tenido la cámara  de vídeo en su conversión hacia el cine digital. Cuando nació la televisión mecánica, en 1884, la calidad de imagen era muy pobre y fue gracias a la electrónica, concretamente el tubo de rayos catódicos, lo que permitió mejorar su definición. Se crearon los famosos estándares de 525/30i/60Hz para América y 625/25i/50Hz para Europa, estos han perdurado durante décadas con ligeros cambios, la introducción del color (NTSC, PAL y SECAM)  y la conversión de la señal de analógica a digital. Aun así, la definición prácticamente no llegó a alterarse durante el Siglo XX. La irrupción a principios del nuevo milenio del Alta Definición, en la emisión y en los hogares, ha provocado el inicio de una carrera de cambios hasta conseguir, en las imágenes, resoluciones más allá de la cinematográfica. El 4K ya está aquí  y el futuro 8K ya está en desarrollo, pero eso es otra historia...  


1.5.1. Los comienzos del Alta Defición


Aunque parezca increíble, el nacimiento de la alta definición se inició hace décadas. Podríamos decir que todo comenzó tras la retransmisión televisada de las Olimpiadas de Japón de 1964. El impacto que tuvo sobre el público japonés, provocó que el STRL (Sciencie Technology Research Laboratories) comenzara a estudiar la viabilidad de un sistema nipón de Alta Definición (es curioso que las Olimpiadas o los Mundiales de fútbol sirvan como acicate para introducir mejoras en la televisión). En este estudio también se investigó la visión humana y cuál sería la mejor proporción para la futura pantalla de televisión. Concluidos sus estudios, los laboratorios STRL determinaron una norma provisional de alta definición hacia 1970. 



La primera pantalla experimental HDTV de 27 pulgadas de 1969. Eran necesarios tres tubos de televisión en blanco y negro para ofrecer esta definición extra.

Esta norma la adoptó experimentalmente la cadena NHK. Se realizaron   pruebas con 1125 líneas verticales entrelazadas, con 30ips/60Hz y una relación de aspecto de 5:3 (casi 16:9). También probaron un sistema monocromo de 2.125 líneas, con 30ips/60Hz y una relación de aspecto de 4:3. En Estados Unidos la EIA (Electronic Industries Alliance) experimentó con un sistema monocromo de 1.023 líneas, con 30ips/60Hz y una relación de aspecto de 4:3. En Gran Bretaña, la BBC hizo pruebas con un sistema en color de 1.501 líneas y una relación de aspecto marcadamente panorámica de 8:3 (2,66:1). En 1980 el SMPTE presentó sus trabajos sobre un sistema de 1100 líneas (en vertical), con 60Hz entrelazados y una relación de aspecto de 6:3 (la misma que las copias de película de 70mm). En 1984 se buscaba una relación de aspecto y resolución más cercana al celuloide de 35mm (el doble de la televisión estándar, tanto en horizontal como vertical), con la intención de estandarizar el formato. Finalmente la relación de aspecto que triunfó fue la famosa 16:9 que es casi es idéntica a la del Super 35/3p. 

Toda la familia HDVS de Sony

En 1981, Sony presentó el HDVS (High Definition Video System) que incluía todo el equipamiento para producir en Alta Definicion. En 1983 se estableció la norma HDTV, en una conferencia en Suiza, y este mismo sistema lo adoptó el SMPTE en Estados Unidos. En Febrero de 1985, Hitachi demostró un prototipo de cámara con tubos Saticon de 1125 líneas verticales entrelazadas, la señal se registraba en un grabador analógico de una pulgada ‘C’. En 1986, la televisión japonesa presentó oficialmente el estándar conocido como Hi-Vision o MUSE (Multiple Sub-Nyquist Sampling Encoding) con 1125, con 30 imágenes entrelazadas (60Hz) y formato 16:9. En 1987, comenzaron las emisiones utilizando un ancho de banda de 12MHz que era el doble de uno normal. 

Cámara Sony HDC-300 y póster de la primera película que utilizó el HD
            
Por primera vez, la producción de la RAI “Julia y Julia” (Giulia e Giulia, 1987) de Peter Del Monte, se rodó utilizando una cámara Sony HDC-300.  Las imágenes se registraron en el formato japonés analógico HDVS de 1125/60i. Un año después, durante los Juegos Olímpicos de Seúl 88, se emitió con  regularidad una hora al día en Alta Definicion. Europa. impresionada ante este avance, decidió crear su propio sistema compatible con las famosas 625 líneas y los 25ips/50i para no claudicar ante la industria japonesa. La Comunidad Europea crea el proyecto Eureka-95 y nace un consorcio de empresas de electrónica que se unen para desarrollar su propio sistema europeo HDTV (HD-MAC). 

Móvil y cámaras HDTV 1250/50i, utilizadas en los juegos de Olímpicos
de Albertville 92 y Barcelona 92

El sistema ofrecía 1250 líneas verticales y 50Hz entrelazados y el aspecto 16:9. Se probó con gran éxito durante los juegos de invierno en Albertville 92 y las Olimpiadas de Barcelona 92. Estaba previsto que el sistema estuviera implantado en Europa en 1995 (yo tuve la suerte de asistir a varias conferencias sobre el HD en Barcelona, a principios de los 90, y también realicé un reportaje sobre la móvil de Alta Definición de Televisión Española. Yo estaba convencido que el 16/9 iba a funcionar y daría paso al HD en pocos años, desgraciadamente no fue así).  

En 1990, Estados Unidos decidió entrar en la competición. La FCC (Comisión Federal de Comunicaciones) estableció una propuesta de trabajo para Alta Definición. Tenía la obligatoriedad de ser compatible con el sistema NTSC, poder ser emitido como señal terrestre ATV (Advanced Television) y ocupar los 6 MHz de un canal estándar. Ante este requerimiento varias empresas presentaron diferentes soluciones basadas en tecnología digital, para reducir el ancho de banda, descartando la analógica. Los japoneses no se rindieron y presentaron el proyecto Narrow-MUSE, una versión de Hi-Visión para Norteamérica que ocupaba solo 6 MHz, era un híbrido analógico-digital. La búsqueda de un sistema digital, puso en duda la puesta en marcha de un sistema de Alta definición analógico en Europa. El principal problema era que utilizaba un ancho de banda enorme de 36 Mhz que únicamente podía ser emitido por satélite o cable y no como señal terrestre. Además la crisis de finales del noventa y dos se llevó al traste el proyecto Eureka 95. En 1993 en Estados Unidos nace un nuevo consorcio conocido como la ‘Gran Alianza’ para desarrollar el hardware necesario para el DVB (Digital Video Broadcasting). Se crean los formatos 720p y el 1080i que se convertirán en estándares mundiales para la captación y emisión en HD. Lo única diferencia fue que en Europa se utilizarían 25ips/50i y en América-Japón 30ips/60i.

En 1995, la ‘Gran Alianza’ completa el hardware necesario para receptores prototipo de HDTV. El ATSC (Advanced Television System Comittee) recomienda  al FCC, el empleo de la tecnología de modulación digital VSB. Esta norma será el estándar de emisión para ser utilizada en Estados Unidos, tanto para Televisión Digital Terrestre como para la difusión por Cable. Ese mismo año se realiza la primera película íntegramente confeccionada por ordenador “Toy Story” (1995), de John Lasseter que, por primera vez, es exhibida utilizando un proyector HD en un cine en Francia.

En junio de 1996, la cadena de televisión norteamericana WRAL-TV comienza sus emisiones en digital y en HD 1080i, empleando el sistema de la ‘Gran Alianza’.  En octubre del 1997, Sony lanza la cámara HDW-700 en formato HDCAM. Tenía una resolución 1440 x 1080i con píxeles cuadrados (se podía registrar la imagen con 1920x1080i, utilizando píxeles estirados 1,3333 en su anchura).  Los primeros receptores de HDTV se introducen al mercado en 1998, y en noviembre comienzan las emisiones regulares en Norteamerica, coexistiendo las normas 720p y 1080p a 69Hz, que van en aumento progresivamente.


1.5.2. El Alta Definición llega al cine


El cine de Hollywood sigue de cerca el avance del HD y reclama una cámara que permita grabar en condiciones similares a las del cine. En junio de 1999 se produce la noticia más importante que cambiará la historia del cine, George Lucas anuncia que el 'Episodio II' de la precuela de 'Star Wars', será la primer película comercial e importante que se va a rodar totalmente con cámaras HD. Para conseguirlo Sony y Panavision unieron fuerzas y desarrollaron la cámara de Alta Definición, con el nuevo estándar de 1920x1080/24p,  que se iba a utilizar en el rodaje. Así nació la Sony HDW-F900 (también conocida como Panavision HD-900F) y la nomenclatura HD HDCAM SR CineAlta que aportaba todo el equipamiento necesario para esta producción. Estos equipos fueron comercializados en el 2000. Todavía utilizaba tres CCD de 2/3 para registrar el RGB. Se podía grabar material HD a 4:2:2 por componentes o 4:4:4 RGB HD. Con el mismo cuerpo de cámara se rodó la cinta francesa “Vidocq” (2001), de Pitof que se convertiría en el primer largometraje estrenado y grabado en su totalidad con tecnología de Alta Definición en formato 16/9.

En el 2000, se estandariza para televisión el HD CIF ITU-R BT 709-4 con una resolución de 1920 x 1080 como formato de imagen internacional para intercambio. Esta es la norma que regula actualmente la producción y el intercambio internacional de programas en televisión de Alta Definición y es también la recomendación 709-5 CIF (Common Image Format) de la UIT (Unión Internacional de Telecomunicaciones). 

El Episodio II de "Star Wars" se grabó en HD analógico y para su exhibición se realizarón copias a 35mm anamórficas. Para el episodio III se grabó en HD Digital, coexistieron copias en 35mm anamórficas y en proyección digital.

Un aspecto importantísimo que marcará el estándar del futuro Cine Digital panorámico fue que toda la saga anterior de 'Star wars' (Episodios I,IV,V,VI) había sido rodada en formato anamórfico PANAVISION 2,35:1. El problema era que para el registro del Episodio II "La venganza de los clones” (2002), de George Lucas, el sensor de la cámara tenía una proporción de 16:9 que era inferior. La manera de solucionarlo fue muy simple, en el rodaje el visor tenía unas marcas que permitían componer el encuadre en la relación de aspecto adecuada de 21:9. De este modo se recortaba resolución utilizando únicamente 1920 x 817 píxeles (de los 1920 x 1080 que se registraban), en imitación a lo que ocurría en el moldeable Super 35. Finalmente en las copias de 35mm la imagen se anamorfizaba en un factor 2x1. 


Para el episodio III, “La venganza de los Sith” (2005) de George Lucas, se utilizó una cámara más avanzada, la Sony HDC- F950. Registraba en digital y tenía sensores de mayor resolución y mejor reproducción de los color (4:4:4) que su predecesora. La imagen también fue recortada a una relación de aspecto de 2,35:1 de su marco original de 16:9. Existieron copias de exhibición tanto en película de 35mm como en Digital. Por el contrario, la película española “Salvador Puig Antic” (2006), de Manuel Huerga,   fue grabada en digital utilizando un objetivo anamórfico en la cámara que permitía registrar directamente en el formato 2,35:1 sin perder resolución en el sensor. 


La Arriflex D-20 fue de las primeras cámaras profesionales
en incorporar un único sensor CMOS

En noviembre de 2005 la compañía alemana Arri, famosa por sus cámaras analógicas para cinematografía, presentó su primera cámara digital. La Arri D-20 es que incorporaba un único sensor CMOS de tamaño Super 35, con una resolución de 2880 x 2160 y filtro de color Bayer. El vídeo se registraba en el formato ArriRaw a 12 bit, en 2008 fue sustituida por la D-21 que fue utilizada en el rodaje de “El gran golpe” (The bank job, 2008), de Roger Donaldson. En 2006, la compañía norteamericana Panavision presentó la cámara Genesis, también con un único CCD de 12,4 Mpx también con formato Super 35 y filtro de color Bayer. La resolución era de 1080p y se utilizó parcialmente en “Apocalypto” (2006) de Mel Gibson

El primer prototipo de la Red One construido en una caja de madera

En 2005, la historia del cine cambio de rumbo porque Jim Jannard comenzó los trabajos de diseño y pruebas de una cámara digital económica para cine. Tenía la condición de que grabara archivos RAW, utilizara un único sensor (como en las DSLR Digitales porque 3 sensores para el RGB complicarían la electrónica y encarecerían la cámara) pero en un formato de vídeo 4K y que alcanzará un máximo de 30ips. 


La Red One se anunció en el NAB 2006 y se comercializó en agosto de 2007. Fue el comienzo de una verdadera revolución digital en la industria del cine. La cámara utilizaba el códec R3D (Redcode en Raw) que permitía que el balance de blancos, la gamma y la nitidez se ajustaran durante la postproducción. Este archivo podía convertirse, utilizando un software propio llamado  Redcine, en una gran variedad de formatos que incluían el famoso DPX. Utilizaba un único sensor llamado Mysterium de 11,5 Mpx con filtro de color Bayer y tenía unas dimensiones de 24.4mm x 13.7mm de 4K con 4520x2540 píxeles, acordes a las del ‘Super 35’ en cine y formato 16:9 (1,78:1). Se utilizó en Hollywood, en la segunda unidad de rodaje, en “Jumpers” (2008) de Doug Liman, y en la película en 3D (con dos Red One sincronizadas) “San Valentin sangriento” (2009), de Patrick Lussier. Así comenzó una carrera ascendente que actualmente continua y está en la vanguardia de las cámaras de cine digitales.

En abril de 2010, la compañía alemana constructora de cámaras de cine analógicas, introduce la Arri Alexa con sensor CMOS de Super 35 y una resolución de 2880 x 2160 píxeles que se registraba en formato ArriRaw o sin comprimir.


La Phantom 65 es la cámara que está equipada con un sensor mayor que el área de la película negativa en 65mm (positivo en 70mm) 

En 2007, cuando Vision Research presentó la Phantom 65 con un único sensor CMOS de 4096 x 2440 pixeles o 4K, pero con un tamaño de 51,2 x 28,8 mm (mayor al Super 35) y una relación de aspecto de 16:9; podía registrar hasta 140 fotogramas por segundo. 


Dimensiones de un fotograma de 70mm   

Es importante esta cámara porque utilizaba un sensor mayor al Super 35, por este motivo se llamó ‘65’ porque su anchura era un poco mayor al de la película negativa de 65mm (positivo en 70mm). En 2011 se utilizó como cámara 3D (los dos fotogramas los registraba el mismo sensor) en algunas secuencias IMAX 3D del documental “Born to be Wild” (2011), de  David Lickley. También se ha utilizado parcialmente en la nueva película 3D de “Transformers: La era de la extinción” (Transformers: Age of Extinction, 2014), de Michael Bay.


José Pastor

No hay comentarios :

Publicar un comentario

Deja aquí tu comentario: