miércoles, 28 de mayo de 2014

Sonido en 3D: 1ª Parte "1.1. Los comienzos del cine sonoro"

Logo del nuevo sistema de sonido 3D Dolby Atmos

La compañía Dolby Laboratoires presentó en el CinemaCon 2012, la nueva plataforma Dolby Atmos de sonido inmersivo 3D en cine. Pero ¿Qué es el sonido 3D? ¿Qué diferencia hay con los sistemas digitales actuales? Ante una pregunta tan compleja de contestar, o de una manera sencilla, sería interesante bucear en la historia del sonido cinematográfico para comprender la evolución de las técnicas sonoras a lo largo de estos años. Ahora veremos el nacimiento del sonido fotográfico u óptico y su tardía incorporación al cine. La invención de la perspectiva sonora y la llegada de la estereofonía. Comenzamos…


1.1. Los comienzos del cine sonoro

En este apartado nos centraremos en los comienzos del cine. No debemos olvidar que Édison, tras inventar el fonógrafo,  pidió a su colaborador Dickson que ideara un aparato que permitiera acompañar con imágenes a los registros sonoros grabados con su nuevo invento. Aquí comenzó una carrera que tardaría varias décadas en alcanzar la meta, la culpa fue el lento avance de la electrónica que no tuvo a punto un sistema de amplificación que permitiera ofrecer un volumen adecuado y la suficiente fidelidad sonora en una gran sala de cine. Otro obstáculo en el camino fue que con el transcurso de los años, al ser un arte mudo, el cine ya había alcanzado la suficiente madurez expresiva. Todos pensaban que, si a las películas se les añadía diálogo, el idioma sería una barrera y este arte dejaría de ser universal. 


1.1.1.  El sonido monofónico


Kinetophone de Edison

Los primeros experimentos con sonido en el cine se remontan a 1895, cuando Edison introdujo el Kinetophone, aparato de visionado individual que estaba acoplado a un fonógrafo. Con este aparato solamente un espectador podía ver y escuchar con la ayuda de unos tubos de aire, acoplados al fonógrafo, una película de corta duración. A comienzos del Siglo XX le siguieron diferentes sistemas con sincronización en disco pero ninguno de ellos pasó al cine comercial. 


Lauste fue el primero en fotografiar el sonido

Tras varios años de experimentación, en 1904, Augustin Eugène Lauste consiguió fotografiar el sonido junto al fotograma de  35mm y luego pudo reproducirlo. A su invento lo llamó Phonocinematophone y lo patentó en 1907. Había nacido el sonido óptico en el cine pero, como por aquellas fechas no existían amplificadores para la señal, el sistema no triunfó. El auge de la radio en la década de los 20, impulsó a las multinacionales de la electrónica a poner en marcha sus patentes sobre diferentes sistemas ópticos. El Western Electric que adoptó Warner, el Movietone de Case-Sponable que adoptó la Fox, la RCA su Photophone que adoptó RKO, por no hablar del Phonofilm, Triergon, Grindell-Mathews, Kingston, Tykociner y un largo etc.

En Estados Unidos, Hollywood comenzó a sonorizar las películas, primero con música y efectos. Se realizaron los primeros noticiarios sonoros, como el Fox Movietone, que se proyectaban antes de las películas mudas. La gente comenzó a ver imágenes con sonido y lo consideraba algo normal, la radio ayudó a esta percepción porque estaba en todos los hogares.

Estreno de “El cantor de Jazz”, la gente formó largas colas para poder escuchar las canciones de Al Jolson.  Su éxito hizo que el cine mudo envejeciera de la noche a la mañana

A pesar de todo ello la industria se sorprendió ante el inesperado éxito de “El cantor de Jazz” (The Jazz Singer, 1927), de Alan Croslan. La película era muda pero los números musicales si eran cantados por el famoso Al Jolson, él  improvisó algunos diálogos “¡Esperen un momento… Todavía no han escuchado nada!”.  La gente formaba largas colas para ver y escuchar la película, el cine mudo quedaba en entredicho y en poco tiempo quedó como una reliquia del pasado.

Disco de vinilo y equipo proyector Vitaphone con plato de sincronización

El caso curioso fue, que a pesar de existir sistemas ópticos sobre la misma película, el sistema de sonido elegido fue el sistema en disco Vitaphone. Lo había desarrollado  la compañía Bell Telephone cuya casa matriz era Western Electric. Este proceso duró poco tiempo por lo engorroso de tener que sincronizar el disco con la película. Fue una anécdota porque los sistemas de sonido óptico se impusieron. El motivo principal fue que se utilizaba el mismo soporte de celuloide y esto simplificaba la proyección.


El camino emprendido por Lauste con la utilización del sonido óptico, fuera de densidad variable o área variable, sería el sistema que se esparció por todo el mundo. La razón de su éxito fue que la pista estaba imbricada en la película y no había que sincronizarla. Hasta comienzos del sonoro todos los sistemas fueron monaurales y aunque el sonido estereofónico fuera ya experimentado en París en 1881, antes de la invención del cinematógrafo, no se aplicó en el cine hasta cincuenta años más tarde.


1.1.2. La perspectiva sonora


André Debrie y poster de la película "Napoleón" de  Abel gance


Con el nacimiento del sonido, el director Abel Gance decidió sonorizar su película muda Napoleón, reestrenado como “Napoleón visto por Abel Gance” (Napoleon vu par Gance, Fr 1934), de Abel Gance en el cine Paramount, de París. Ahora presentada con adición de diálogos y efectos de sonido en el cine. Como en las secuencias finales se utilizaban tres películas que llenaban una gran pantalla panorámica, para acompañar a estas espectaculares imágenes, ideó con la Ayuda de André Debrie lo que llamaron la ‘Perspectiva Sonora’. Este sistema utilizaba una pista óptica monofónica tradicional. Lo ingenioso del sistema fue que en el celuloide se practicaban unas muescas que servían como señal para enviar el sonido a un altavoz determinado, dando la sensación de que el sonido provenía de diferentes puntos de la pantalla. En el cine Paramount de Paris se colocaron 32 altavoces esparcidos por toda la sala rodeando al espectador. La orientación del sonido entre altavoces era controlada por muescas practicadas en la película, que según su disposición actuaban sobre unos altavoces u otros, permitiendo que el sonido emanara desde diferentes puntos creando un efecto de perspectiva sonora.        


En 1940, la compañía Warner adoptó un sistema similar el Vitasound que permitía aumentar el volumen en secuencias determinadas de la película. En 1954, como respuesta al sonido estereofónico magnético de cuatro pistas utilizado por Fox en el CinemaScope, los estudios Paramount y MGM adoptaron el Perspecta Sound.  Este proceso también empleaba una pista mono óptica con tres señales subaudibles que dirigían el sonido hacia uno de los tres altavoces detrás de la pantalla.  Un tono de 30Hz enviaba el sonido al altavoz de la Izquierda, un tono 35Hz al Central y uno de 40Hz al Derecho, creando un pseudo sistema multipista.  

1.1.3.  La estereofonía

Alan D. Blumlein y un fotograma con banda sonora óptica binaural

Fue en 1931 cuando el inglés Alan Dower Blumlein comienza el desarrollo de un sistema estereofónico, que él llamó binaural, para discos de vinilo y lo adaptó con éxito a una pista óptica de sonido en 1936. Nacía así el cine estereofónico pero fue un ensayo experimental y su implantación comercial nunca llegó a producirse. 

Stokowski y Harvey Fletcher (derecha) durante los experimentos estereofónicos registrados en los Laboratorios Bell

En la otra orilla del atlántico, el canal de radio NBC que realizaba transmisiones en directo de la orquesta de Filadelfia, quería que el director Leopold Stokowski se sumara a la iniciativa.  Stokowski que no estaba satisfecho con la calidad del sonido transmitido se dirigió a Harvey Fletcher de los Bell Telephone Laboratories para buscarla manera de mejorar la calidad de las retransmisiones. En 1931, Stokowski comenzó las primeras grabaciones experimentales con la orquesta de Filadelfia, se mejoró toda la cadena de grabación y se aumentó el rango dinámico de los registros y una año más tarde comenzaron las grabaciones estereofónicas en disco.

El sistema estereofónico de la Bell Telephone se presentó en el National Academy of Sciencies en Washington con una demostración de la reproducción estereofónica de música de Stokowski. 

Sistema multipista óptico utilizado por los Laboratorios Bell Telephone

De estos experimentos nació un sistema multipista óptico, que contenía tres pistas para el sonido y una cuarta pista de control. En 1926 hubo una demostración de grabación y reproducción estereofónica de música para los miembros de la Academy of Motion Picture Arts and Sciencies y la Society of Motion Picture Engineers.


Las bases de la estereofonía quedaron asentadas pero el cine comercial,  tras el terremoto acaecido por la industria con la irrupción del sonido, todavía no estaba preparado para sufrir una nueva revolución. Visionarios como Walt Disney vislumbraron el potencial del audio multicanal y abrió las puertas a la expansión sonora más allá de la pantalla. El sonido envolvente estaba a punto de despegar.


José Pastor



martes, 13 de mayo de 2014

Blackmagic Cintel, el 35mm a 4K

Recién acabado el artículo el Full Frame y el 4K es el momento de añadir un pequeño apéndice para hablar de esta pequeña joya, presentada en el NAB 2014 celebrado en Las Vegas, el telecine Blackmagic Cintel 4K que saldrá próximamente a la venta por el increíble precio de 22.125 Euros.


La compañía Australiana Blackmagic Design, creadora de la famosa cámara Blackmagic, ha dado un paso de gigante al utilizar toda la sabiduría de la compañía británica Cintel (Cinema-Television). La compañía fue fundada en 1927 por John Logie Baird (nada más y nada menos que el inventor de la  televisión), su empresa también fue una de las pioneras en el diseño y fabricación de telecines profesionales (formó parte de los famosos estudios británicos Rank Organisation).


Este revolucionario telecine portátil y ultraplano puede escanear películas de 35mm y 16mm  con una velocidad de hasta 30fps y convertirlas de una manera simple al formato UHD 4K. Es tan fácil porque utiliza una salida Apple Thunderbolt 2 que permite transferir directamente el archivo, a un ordenador Mac, a una resolución completa de 3840x2160 píxels.


Esta noticia es importante porque se puede rodar con celuloide tradicional de 35mm o 16mm y escanear el negativo para realizar la postproducción y abaratar costos. Hasta hace poco la mayoría de las películas se telecinaban a resoluciones de 2K. Hace unos años, utilizar una resolución mayor era impensable por su complejidad y alto costo. La consecuencia es que hay muy poco material en UHD 4K. Con este telecine se puede convertir fácilmente las cintas a formato digital con un coste muy bajo y aumentar por ende la disponibilidad de películas en este nuevo estándar. Con el telecine se entrega el software DaVinci Resolve para etalonaje, restauración o masterización y la plataforma ‘Image Mill’ que permite la estabilización óptica de los fotogramas y la reducción del grano de la imagen.

Blacmagic también ha tenido en cuenta el escaneo de viejas películas, por esta razón utiliza iluminación LED RGB de baja intensidad porque su sensor es muy sensible. Con ello se consigue reducir el calor para proteger un viejo negativo (si trabajamos con el original es muy importante tratarlo con delicadeza y no someterlo a una potente fuente de luz que podría dañarlo) y a la vez mejorar la respuesta colorimétrica de la cinta respecto a los sistemas de iluminación tradicionales. A la vez utiliza un sistema de difusión esférica que reduce la visibilidad del polvo y de las rayas de las imágenes. También es posible incrementar la estabilidad hasta puntos insospechados, utilizando una bandeja de entrada, opcional, que permite procesar la película detenidamente cuadro a cuadro permitiendo inmovilizarla al máximo posible.      

Las perspectivas se van ampliando en el camino del UHD 4K, ya tenemos a nuestra disposición cámaras que alcanzan esta resolución a precios muy competitivos o podemos seguir registrando las imágenes en película y escanearlas con este telecine a tiempo real. Realizar la edición, postproducción y etalonaje todo digitalmente con una calidad similar a la del cine.

A mí en particular me encantaría montar una empresa de restauración de viejas películas y lanzarlas en Blu Ray UHD 4K. Alguien con ganas de invertir se apunta. La compañía Blackmagic nos abre un mundo de posibilidades en Ultra Alta Definición y nos deja la elección a nosotros. ¿Tú que decides?

  
José Pastor



lunes, 5 de mayo de 2014

El 4K y el Full Frame: 6ª Parte "1.6. El 4K vs Full frame"

Medidas de un sensor “Full Frame”


A lo largo de este artículo hemos desgranado la evolución de los sistemas digitales, hasta la actualidad, para sopesar sus pros y sus contras. En el camino hemos visto el avance que se ha producido en muchas de las piezas del puzle: La evolución del sensor de la cámaras fotográficas o DSLR que buscaban el ‘Full Frame’ de 35mm, la influencia de las tramas de filtro tipo Bayer en la perdida de resolución cromática, el avance de la resolución en el telecine digital hasta alcanzar el 4K y el impulso que ha tenido el tamaño del sensor en las cámaras de Cine Digital hasta alcanzar el Super 35 fílmico. Pero hemos dejado para el final una pregunta obvia ¿Qué resolución tiene la película de cine de 35 mm? 

Contestar esta pregunta no es fácil porque la película fotoquímica no tiene píxeles y su resolución depende de muchos factores: La calidad del objetivo influye muchísimo en la nitidez de una imagen, la escala de sensibilidad ASA de la película interviene en un mayor o menor grano en la película,  la correcta exposición o revelado del negativo, la obturación utilizada en la toma, el contraste, el rango tonal, el copiado, la degradación por uso o mala conservación, etc. 

Ampliación de un fotograma donde se aprecia el grano de la película

Imaginemos que todos estos factores nos han sido favorables y que hemos conseguido un negativo de 35mm, expuesto y revelado, con la mayor calidad posible. La compañía Arri, en un interesante estudio, concluye que en buenas condiciones el punto de resolución más pequeño de un fotograma fotoquímico puede alcanzar los 0,006mm. Como una película de 35mm de formato completo (4:3) tiene 24,92 mm de ancho, si lo dividimos por 0,006mm nos da 4153 puntos (4K). Por otro lado tiene 18,67mm de altura, si la divididos por 0,006mm nos da 3112 puntos. Si los puntos los equiparamos a píxeles, un fotograma fílmico completo nos da 12,9 Mpx. De nuevo nos aparece la cifra mágica de 4K en la anchura de un fotograma y como decían en la antigüedad “Todos los caminos llevan a Roma”, aunque queramos escaparnos esta cifra siempre aparece emparejada al cine de 35mm. Aclarado y cerrada la primera cuestión. Nos falta descifrar la segunda ¿Qué tiene que ver aquí el full frame? 

Tampoco es fácil contestar a esta pregunta porque la tecnología está en constante evolución. Una cámara de cine profesional utiliza un sensor normalmente de Super 35 en la variante 3p o 16/9. Su meta es alcanzar una resolución 4K porque, como hemos visto, es semejante a la ofrecida por una  película de celuloide. Pero aquí comienzan los ‘peros’. Esto puede ser cierto para una cámara o telecine que trabaje con un bloque prismático con tres sensores para el conseguir un RGB completo a 4:4:4. En este caso los  fotosites verde, rojo y azul coinciden con un píxel porque llevan la información de color completa. Pero ¿Qué ocurre si trabajamos con un único sensor con trama de color?

Pues que la superposición de la trama o filtro de color en el sensor solo permite que cada fotosite reciba únicamente uno de los valores de RGB. Esto es así porque la malla, compuesta de pequeñas filtros dispuestos en un patrón de cuadriculas de 2x2 píxeles (trama Bayer), reparte los filtros rojo, verde y azul, imposibilitando que una celda reciba los tres valores cromáticos a la vez (salvo el sistema Foveón X3). Para recuperar la información cromática perdida, cada píxel tiene que calcular los tres valores colorimétricos posibles, tomando como referencia los fotosites circundantes y generando artificialmente los valores perdidos por interpolación (demosaicing). Por desgracia este proceso de recomposición colorimétrica produce perdidas de resolución  cromática y causa la aparición de artefactos de color y moaré en la imagen restituida.

Tramas de color utilizadas para una cuadricula de cuatro píxeles

Resumiendo,  una trama Bayer tendría una resolución RGB de 2:1:1, una trama Q67 (utilizada por Sony) tendría 4:2:2  y  una Foveon X3 Quattro tendría 1:1:4 (el viejo Foveon X3 tenía 4:4:4). En estos tres casos los píxeles nunca pueden ser exactos al fotosite. Si tomamos por ejemplo, la Red One con el sensor Mysterium de 4K que tiene 4520 x 2540 píxeles activos e imaginamos que  tuviera tres sensores con RGB completo 4:4:4, tendría una resolución total de 4520 x 2540x3 = 34,4Mpx. Pero como realmente tiene un único sensor con mosaico Bayer RGB a 2:1:1, tiene: 

4.520 x 2.540 = 11.480.800 / 2 = 5.740.400 o 5,7Mpx para el verde (G)
 2.260 x 1.270 / 1 = 2.870.200 o 2,8Mpx para el rojo (R)
2.260 x 1.270 / 1 = 2.870.200 o 2,8Mpx para el Azul (B)

5.740.400 (G) + 2.870.200 (R) + 2.870.200 (B) = 11,48 Mpx

Por lo tanto podemos afirmar que el sensor Mysterium de 4K, tiene una resolución de 11,5 Mpx para color (34,4 Mpx en blanco y negro). En mi opinión, esta es la principal razón para que las cámaras de Cine Digital profesional utilicen un sensor de un tamaño más grande al Super 35 (o con una resolución mayor a 4K). Debería ser así para que el mosaico ofreciera mayor cantidad de fotosites expuestos y permitiera aumentar la información colorimétrica, minimizando su posible pérdida durante la interpolación. Para demostrar que no digo ninguna tontería, diré que hay quién afirma que un fotograma de 35mm analógico de alta calidad ofrece 25 Mpx o 6K (Arri dice 4K), lo que equivale a una imagen de 6144 x 4668 píxeles.

Red One Epic Dragon de 6K de resolución

Curiosamente existen cámaras de 6K en el mercado, tomaré como ejemplo la última cámara Red Epic Dragon que tiene 6144 x 3160 píxeles, 19 Mpx o 6K de resolución. El tamaño del sensor es de 30,7 x 15,8 mm con una relación de aspecto 2:1 como en la película de 70mm. La publicidad de la cámara dice "6K de resolución se traduce en más de 19 Mpx con el mismo detalle usted espera de su cámara réflex digital en una cámara de cine”, también dice “produce una imagen más limpia, reduciendo drásticamente el efecto moaré y los artefactos producidos por el aliasing” y para finalizar enfatiza “La elección es simple. Más grande es mejor” y lo más importante “Conserva el mismo detalle que usted espera de su réflex digital en una cámara de cine… El sensor de RED DRAGON impide distinguir la frontera entre el movimiento y las cámaras fotográficas, porque le da lo mejor de ambos mundos”. Para que nadie diga que exagero, son palabras textuales de la publicidad de la cámara con las que estoy totalmente de acuerdo. Si tanto interés tiene la cinematografía digital en utilizar sensores de tamaño 'Full Frame' ¿Qué pasa con el vídeo en las DSLR? 

Comparativa de los tamaños de los sensores de las cámaras DSLR respecto al Full Frame.

Pues que trabajar con un sensor de gran tamaño redunda en la calidad de imagen ofrecida y ofrecen un 'look' más cercano a la textura de cine analógico que a la del vídeo. [Este artículo ha sido modificado a partir de aquí por la aparición de cámaras DSLR con capacidad de grabar vídeo a 4K. En su génesis quería demostrar que el Full Frame se merecía una calidad mínima de vídeo a 4K y esta resolución sería adoptada en muy poco tiempo. La actualidad ha provocado que una predicción se convierta en algo cierto.]

Comparativa del tamaño del sensor Full Frame respecto al Micro 4/3 de la GH4

La aparición de la Panasonic GH4 ha puesto en el mercado una cámara, con un sensor de Micro Cuatro Tercios, de 16 Megapíxeles que consigue grabar a  4096 x 2160 píxeles (4K). Utiliza un factor de recorte de 2.3x respecto a una óptica ‘Full Frame’.  Bueno, el primer paso ya se ha dado y me ahorro las palabras porque el 4K ya está aquí. Ya no necesito argumentar nada en su favor para que se adopte porque Panasonic ya lo ha hecho.

Aquí tenemos la demostración de la perfecta convivencia del 4K y el Full Frame con la cámara Sony α7s 

El siguiente paso lo acaba de dar Sony, anunciando que comercializará la nueva Alfa 7s que ofrece la posibilidad de grabar vídeo a 4K utilizando todo el ancho del sensor ‘Full Frame’ de 12,2 Megapíxeles. Utiliza una trama Q67 para el color que se beneficia colorimétricamente porque emplea todo el sensor para el registro de vídeo. Si la mejora es buena en 4K, es espectacular en Full HD confirmando todo lo que hemos dicho en este largo artículo.


Todo esto viene a cuento porque el aumento del tamaño del sensor y su resolución, permitirían multiplicar los fotosites. Con ello se conseguiría que se repartiera mejor el filtrado RGB, durante la interpolación, y la restauración de la crominancia la información colorimétrica sería mucho más rica. Por esta razón no es descabellado que Sony esté trabajando en un nuevo sensor de 54Mpx que podría estar disponible en un nuevo modelo Alfa en el 2015 o 2016.


Si esto te parece descabellado, la compañía de cámaras digitales Red, ante la competencia de las DSLR con el vídeo en Alta Definición, lanzó una gama de sensores conocidos como Mysterium Monstro que incluyen tamaños de sensor que van desde el ‘Full Frame’ con la versión FF35, a tamaños mayores como la versión 645, que alcanza los 56mm x 42mm, y la 617 que dispone de un sensor de   186mm x 56mm, con una resolución descomunal de 28.000 x 9.334 píxeles (261Mpx) o 28K y una proporción 3:1.

Está claro que existen detractores al aumento de la resolución en el sensor y bromean sobre la verdadera utilidad de aumentar la definición digital más allá de los 2K. Argumentan que ver tanta definición en una pantalla no es necesaria si el espectador no está muy cerca de ella. Objetivamente es cierto que un espectador más allá de la fila 5 o 7 de una sala de cine percibe menor resolución (unos metros delante de un televisor),  pero también es cierto que subjetivamente la resolución mejora la percepción de una imagen más nítida.


Esta discusión ya fue planteada cuando el formato VistaVision fue lanzado, por los estudios Paramount en 1953, como respuesta al CinemaScope de la 20th Century Fox. En su publicidad, alegaban que un tamaño de imagen mayor mejoraba la definición en la pantalla aunque se redujera el tamaño en la copia estándar de 35mm. Cuando apareció el Todd-AO, con película de 70mm, la compañía Fox respondió a las críticas lanzando el CinemaScope 55 (en película de 55mm). Está comprobado que cuando vemos una película rodada en VistaVision (negativo 35mm 'Full Frame'), la mejora de la definición es más que notable y ocurre lo mismo cuando vemos una película en formato IMAX (70mm, con 15 perforaciones de anchura). Su espectacular definición de imagen, por muy subjetiva que esta sea, va más allá de nuestra capacidad visual real y nuestro cerebro la admite como una experiencia mucho más enriquecedora.  

La combinación de un sensor ‘Full Frame’ utilizando todo su ancho para alcanzar una resolución 4K en vídeo no es una quimera. Seguro que cuando esta combinación se extienda para grabar vídeo en las DSLR, las cámaras de Cine Digital profesional seguirán su ejemplo. Tenga yo razón o no, la ventaja es evidente y es cuestión de esperar unos pocos años para ver cual será la tendencia. Si ya existen cámaras asequibles con 4K para el mercado semiprofesional  quizá el Cine Digital del futuro tenga que migrar hacia el 8K, pero de eso, ya hablaremos en otro artículo. 

José Pastor

FÍN DEL ARTÍCULO


viernes, 2 de mayo de 2014

El 4K y el Full Frame: 5ª Parte "El tamaño del sensor para cinematografía"

1.5. El tamaño del sensor para cinematografía


Vieja televisión de tubo de rayos catódicos

Antes de entrar en materia repasaremos la evolución que ha tenido la cámara  de vídeo en su conversión hacia el cine digital. Cuando nació la televisión mecánica, en 1884, la calidad de imagen era muy pobre y fue gracias a la electrónica, concretamente el tubo de rayos catódicos, lo que permitió mejorar su definición. Se crearon los famosos estándares de 525/30i/60Hz para América y 625/25i/50Hz para Europa, estos han perdurado durante décadas con ligeros cambios, la introducción del color (NTSC, PAL y SECAM)  y la conversión de la señal de analógica a digital. Aun así, la definición prácticamente no llegó a alterarse durante el Siglo XX. La irrupción a principios del nuevo milenio del Alta Definición, en la emisión y en los hogares, ha provocado el inicio de una carrera de cambios hasta conseguir, en las imágenes, resoluciones más allá de la cinematográfica. El 4K ya está aquí  y el futuro 8K ya está en desarrollo, pero eso es otra historia...  


1.5.1. Los comienzos del Alta Defición


Aunque parezca increíble, el nacimiento de la alta definición se inició hace décadas. Podríamos decir que todo comenzó tras la retransmisión televisada de las Olimpiadas de Japón de 1964. El impacto que tuvo sobre el público japonés, provocó que el STRL (Sciencie Technology Research Laboratories) comenzara a estudiar la viabilidad de un sistema nipón de Alta Definición (es curioso que las Olimpiadas o los Mundiales de fútbol sirvan como acicate para introducir mejoras en la televisión). En este estudio también se investigó la visión humana y cuál sería la mejor proporción para la futura pantalla de televisión. Concluidos sus estudios, los laboratorios STRL determinaron una norma provisional de alta definición hacia 1970. 



La primera pantalla experimental HDTV de 27 pulgadas de 1969. Eran necesarios tres tubos de televisión en blanco y negro para ofrecer esta definición extra.

Esta norma la adoptó experimentalmente la cadena NHK. Se realizaron   pruebas con 1125 líneas verticales entrelazadas, con 30ips/60Hz y una relación de aspecto de 5:3 (casi 16:9). También probaron un sistema monocromo de 2.125 líneas, con 30ips/60Hz y una relación de aspecto de 4:3. En Estados Unidos la EIA (Electronic Industries Alliance) experimentó con un sistema monocromo de 1.023 líneas, con 30ips/60Hz y una relación de aspecto de 4:3. En Gran Bretaña, la BBC hizo pruebas con un sistema en color de 1.501 líneas y una relación de aspecto marcadamente panorámica de 8:3 (2,66:1). En 1980 el SMPTE presentó sus trabajos sobre un sistema de 1100 líneas (en vertical), con 60Hz entrelazados y una relación de aspecto de 6:3 (la misma que las copias de película de 70mm). En 1984 se buscaba una relación de aspecto y resolución más cercana al celuloide de 35mm (el doble de la televisión estándar, tanto en horizontal como vertical), con la intención de estandarizar el formato. Finalmente la relación de aspecto que triunfó fue la famosa 16:9 que es casi es idéntica a la del Super 35/3p. 

Toda la familia HDVS de Sony

En 1981, Sony presentó el HDVS (High Definition Video System) que incluía todo el equipamiento para producir en Alta Definicion. En 1983 se estableció la norma HDTV, en una conferencia en Suiza, y este mismo sistema lo adoptó el SMPTE en Estados Unidos. En Febrero de 1985, Hitachi demostró un prototipo de cámara con tubos Saticon de 1125 líneas verticales entrelazadas, la señal se registraba en un grabador analógico de una pulgada ‘C’. En 1986, la televisión japonesa presentó oficialmente el estándar conocido como Hi-Vision o MUSE (Multiple Sub-Nyquist Sampling Encoding) con 1125, con 30 imágenes entrelazadas (60Hz) y formato 16:9. En 1987, comenzaron las emisiones utilizando un ancho de banda de 12MHz que era el doble de uno normal. 

Cámara Sony HDC-300 y póster de la primera película que utilizó el HD
            
Por primera vez, la producción de la RAI “Julia y Julia” (Giulia e Giulia, 1987) de Peter Del Monte, se rodó utilizando una cámara Sony HDC-300.  Las imágenes se registraron en el formato japonés analógico HDVS de 1125/60i. Un año después, durante los Juegos Olímpicos de Seúl 88, se emitió con  regularidad una hora al día en Alta Definicion. Europa. impresionada ante este avance, decidió crear su propio sistema compatible con las famosas 625 líneas y los 25ips/50i para no claudicar ante la industria japonesa. La Comunidad Europea crea el proyecto Eureka-95 y nace un consorcio de empresas de electrónica que se unen para desarrollar su propio sistema europeo HDTV (HD-MAC). 

Móvil y cámaras HDTV 1250/50i, utilizadas en los juegos de Olímpicos
de Albertville 92 y Barcelona 92

El sistema ofrecía 1250 líneas verticales y 50Hz entrelazados y el aspecto 16:9. Se probó con gran éxito durante los juegos de invierno en Albertville 92 y las Olimpiadas de Barcelona 92. Estaba previsto que el sistema estuviera implantado en Europa en 1995 (yo tuve la suerte de asistir a varias conferencias sobre el HD en Barcelona, a principios de los 90, y también realicé un reportaje sobre la móvil de Alta Definición de Televisión Española. Yo estaba convencido que el 16/9 iba a funcionar y daría paso al HD en pocos años, desgraciadamente no fue así).  

En 1990, Estados Unidos decidió entrar en la competición. La FCC (Comisión Federal de Comunicaciones) estableció una propuesta de trabajo para Alta Definición. Tenía la obligatoriedad de ser compatible con el sistema NTSC, poder ser emitido como señal terrestre ATV (Advanced Television) y ocupar los 6 MHz de un canal estándar. Ante este requerimiento varias empresas presentaron diferentes soluciones basadas en tecnología digital, para reducir el ancho de banda, descartando la analógica. Los japoneses no se rindieron y presentaron el proyecto Narrow-MUSE, una versión de Hi-Visión para Norteamérica que ocupaba solo 6 MHz, era un híbrido analógico-digital. La búsqueda de un sistema digital, puso en duda la puesta en marcha de un sistema de Alta definición analógico en Europa. El principal problema era que utilizaba un ancho de banda enorme de 36 Mhz que únicamente podía ser emitido por satélite o cable y no como señal terrestre. Además la crisis de finales del noventa y dos se llevó al traste el proyecto Eureka 95. En 1993 en Estados Unidos nace un nuevo consorcio conocido como la ‘Gran Alianza’ para desarrollar el hardware necesario para el DVB (Digital Video Broadcasting). Se crean los formatos 720p y el 1080i que se convertirán en estándares mundiales para la captación y emisión en HD. Lo única diferencia fue que en Europa se utilizarían 25ips/50i y en América-Japón 30ips/60i.

En 1995, la ‘Gran Alianza’ completa el hardware necesario para receptores prototipo de HDTV. El ATSC (Advanced Television System Comittee) recomienda  al FCC, el empleo de la tecnología de modulación digital VSB. Esta norma será el estándar de emisión para ser utilizada en Estados Unidos, tanto para Televisión Digital Terrestre como para la difusión por Cable. Ese mismo año se realiza la primera película íntegramente confeccionada por ordenador “Toy Story” (1995), de John Lasseter que, por primera vez, es exhibida utilizando un proyector HD en un cine en Francia.

En junio de 1996, la cadena de televisión norteamericana WRAL-TV comienza sus emisiones en digital y en HD 1080i, empleando el sistema de la ‘Gran Alianza’.  En octubre del 1997, Sony lanza la cámara HDW-700 en formato HDCAM. Tenía una resolución 1440 x 1080i con píxeles cuadrados (se podía registrar la imagen con 1920x1080i, utilizando píxeles estirados 1,3333 en su anchura).  Los primeros receptores de HDTV se introducen al mercado en 1998, y en noviembre comienzan las emisiones regulares en Norteamerica, coexistiendo las normas 720p y 1080p a 69Hz, que van en aumento progresivamente.


1.5.2. El Alta Definición llega al cine


El cine de Hollywood sigue de cerca el avance del HD y reclama una cámara que permita grabar en condiciones similares a las del cine. En junio de 1999 se produce la noticia más importante que cambiará la historia del cine, George Lucas anuncia que el 'Episodio II' de la precuela de 'Star Wars', será la primer película comercial e importante que se va a rodar totalmente con cámaras HD. Para conseguirlo Sony y Panavision unieron fuerzas y desarrollaron la cámara de Alta Definición, con el nuevo estándar de 1920x1080/24p,  que se iba a utilizar en el rodaje. Así nació la Sony HDW-F900 (también conocida como Panavision HD-900F) y la nomenclatura HD HDCAM SR CineAlta que aportaba todo el equipamiento necesario para esta producción. Estos equipos fueron comercializados en el 2000. Todavía utilizaba tres CCD de 2/3 para registrar el RGB. Se podía grabar material HD a 4:2:2 por componentes o 4:4:4 RGB HD. Con el mismo cuerpo de cámara se rodó la cinta francesa “Vidocq” (2001), de Pitof que se convertiría en el primer largometraje estrenado y grabado en su totalidad con tecnología de Alta Definición en formato 16/9.

En el 2000, se estandariza para televisión el HD CIF ITU-R BT 709-4 con una resolución de 1920 x 1080 como formato de imagen internacional para intercambio. Esta es la norma que regula actualmente la producción y el intercambio internacional de programas en televisión de Alta Definición y es también la recomendación 709-5 CIF (Common Image Format) de la UIT (Unión Internacional de Telecomunicaciones). 

El Episodio II de "Star Wars" se grabó en HD analógico y para su exhibición se realizarón copias a 35mm anamórficas. Para el episodio III se grabó en HD Digital, coexistieron copias en 35mm anamórficas y en proyección digital.

Un aspecto importantísimo que marcará el estándar del futuro Cine Digital panorámico fue que toda la saga anterior de 'Star wars' (Episodios I,IV,V,VI) había sido rodada en formato anamórfico PANAVISION 2,35:1. El problema era que para el registro del Episodio II "La venganza de los clones” (2002), de George Lucas, el sensor de la cámara tenía una proporción de 16:9 que era inferior. La manera de solucionarlo fue muy simple, en el rodaje el visor tenía unas marcas que permitían componer el encuadre en la relación de aspecto adecuada de 21:9. De este modo se recortaba resolución utilizando únicamente 1920 x 817 píxeles (de los 1920 x 1080 que se registraban), en imitación a lo que ocurría en el moldeable Super 35. Finalmente en las copias de 35mm la imagen se anamorfizaba en un factor 2x1. 


Para el episodio III, “La venganza de los Sith” (2005) de George Lucas, se utilizó una cámara más avanzada, la Sony HDC- F950. Registraba en digital y tenía sensores de mayor resolución y mejor reproducción de los color (4:4:4) que su predecesora. La imagen también fue recortada a una relación de aspecto de 2,35:1 de su marco original de 16:9. Existieron copias de exhibición tanto en película de 35mm como en Digital. Por el contrario, la película española “Salvador Puig Antic” (2006), de Manuel Huerga,   fue grabada en digital utilizando un objetivo anamórfico en la cámara que permitía registrar directamente en el formato 2,35:1 sin perder resolución en el sensor. 


La Arriflex D-20 fue de las primeras cámaras profesionales
en incorporar un único sensor CMOS

En noviembre de 2005 la compañía alemana Arri, famosa por sus cámaras analógicas para cinematografía, presentó su primera cámara digital. La Arri D-20 es que incorporaba un único sensor CMOS de tamaño Super 35, con una resolución de 2880 x 2160 y filtro de color Bayer. El vídeo se registraba en el formato ArriRaw a 12 bit, en 2008 fue sustituida por la D-21 que fue utilizada en el rodaje de “El gran golpe” (The bank job, 2008), de Roger Donaldson. En 2006, la compañía norteamericana Panavision presentó la cámara Genesis, también con un único CCD de 12,4 Mpx también con formato Super 35 y filtro de color Bayer. La resolución era de 1080p y se utilizó parcialmente en “Apocalypto” (2006) de Mel Gibson

El primer prototipo de la Red One construido en una caja de madera

En 2005, la historia del cine cambio de rumbo porque Jim Jannard comenzó los trabajos de diseño y pruebas de una cámara digital económica para cine. Tenía la condición de que grabara archivos RAW, utilizara un único sensor (como en las DSLR Digitales porque 3 sensores para el RGB complicarían la electrónica y encarecerían la cámara) pero en un formato de vídeo 4K y que alcanzará un máximo de 30ips. 


La Red One se anunció en el NAB 2006 y se comercializó en agosto de 2007. Fue el comienzo de una verdadera revolución digital en la industria del cine. La cámara utilizaba el códec R3D (Redcode en Raw) que permitía que el balance de blancos, la gamma y la nitidez se ajustaran durante la postproducción. Este archivo podía convertirse, utilizando un software propio llamado  Redcine, en una gran variedad de formatos que incluían el famoso DPX. Utilizaba un único sensor llamado Mysterium de 11,5 Mpx con filtro de color Bayer y tenía unas dimensiones de 24.4mm x 13.7mm de 4K con 4520x2540 píxeles, acordes a las del ‘Super 35’ en cine y formato 16:9 (1,78:1). Se utilizó en Hollywood, en la segunda unidad de rodaje, en “Jumpers” (2008) de Doug Liman, y en la película en 3D (con dos Red One sincronizadas) “San Valentin sangriento” (2009), de Patrick Lussier. Así comenzó una carrera ascendente que actualmente continua y está en la vanguardia de las cámaras de cine digitales.

En abril de 2010, la compañía alemana constructora de cámaras de cine analógicas, introduce la Arri Alexa con sensor CMOS de Super 35 y una resolución de 2880 x 2160 píxeles que se registraba en formato ArriRaw o sin comprimir.


La Phantom 65 es la cámara que está equipada con un sensor mayor que el área de la película negativa en 65mm (positivo en 70mm) 

En 2007, cuando Vision Research presentó la Phantom 65 con un único sensor CMOS de 4096 x 2440 pixeles o 4K, pero con un tamaño de 51,2 x 28,8 mm (mayor al Super 35) y una relación de aspecto de 16:9; podía registrar hasta 140 fotogramas por segundo. 


Dimensiones de un fotograma de 70mm   

Es importante esta cámara porque utilizaba un sensor mayor al Super 35, por este motivo se llamó ‘65’ porque su anchura era un poco mayor al de la película negativa de 65mm (positivo en 70mm). En 2011 se utilizó como cámara 3D (los dos fotogramas los registraba el mismo sensor) en algunas secuencias IMAX 3D del documental “Born to be Wild” (2011), de  David Lickley. También se ha utilizado parcialmente en la nueva película 3D de “Transformers: La era de la extinción” (Transformers: Age of Extinction, 2014), de Michael Bay.


José Pastor