miércoles, 24 de julio de 2013

3D 4º: Sistemas de Proyección y Visionado - ALTERNADO

2.- ALTERNADO o OBTURACIÓN (ACTIVO)

El principio de proyección alterna ya estaba patentado en 1897 y el primer proceso que lo utilizó en el cine fue 1921. Parece extraño que un sistema tan moderno, como es el de tecnología de gafas activas, este colocado después del anaglifo y antes del polarizado. La explicación es sencilla… si quieres saber el porque sigue leyendo.

2.1. Teleview


                         
Cartel anunciando la presentación del sistema 3D Teleview y fachada del cine  Selwyn

El sistema Teleview fue desarrollado por Laurens Hammond, conocido por inventar el órgano Hammond, y William F. Cassidy en 1921. Fue presentado el  27 de Diciembre de 1922 en el Cine Selwyn en Nueva York. El programa incluía varios cortos demostrativos que contenían escenas con efectos especiales, dibujos experimentales, imágenes de la danza de las sombras de los indios Hopi y Navajo, y escenas documentales de Arizona y de las montañas rocosas.

Dibujo de la sala de cine Televiev donde se aprecian los visores individuales

La estrella de la función fue la película “M.A.R.S”  (1922) de Roy William Neil. La cinta estaba protagonizada por Grant Mitchell, interpretando el papel de un inventor que hacia contactos con Marte a través de la  televisión. Se filmó utilizando dos cámaras sincronizadas a 16 imágenes por segundo.

Dibujo del sistema de proyección empleado por el Teleview inscrito en la patente original

Para la proyección era necesario emplear también dos proyectores entrelazados que funcionaban de manera alterna con sus obturadores, uno respecto al otro, fuera de fase. Los obturadores tenían tres palas y permitían proyectar 3 veces el mismo fotograma en la secuencia fotograma izquierdo/derecho, izquierdo/derecho, Izquierdo/derecho, antes del avance de la película (16x3=48 destellos por segundo en cada ojo).


 Fotos y dibujos del sistema obturador que debían emplear los espectadores en el sistema Teleview

Cada butaca del cine estaba equipada con un dispositivo de visualización que contenía un obturador giratorio sincronizado con el de los proyectores, de modo que cada uno de los ojos del espectador solo veía las imágenes proyectadas destinadas para su ojo correspondiente. La persistencia de la visión hacía que los dos fotogramas parecieran ser una imagen totalmente estereoscópica.

No todas las proyecciones se hicieron con este sistema que era caro de instalar con un coste estimado 30.000 dólares. A pesar de la buena acogida del público, la inconveniencia de tener que mirar a través del visor individual lo convertían en un sistema muy caro y complejo. Por ese motivo tras esta experiencia el sistema desapareció en 1923. El método alternado no volvió a ser utilizado hasta su renacimiento en la década de los 70 después de la llegada de la optoelectrónica y su actualización a las modernas gafas de obturación de cristal líquido o LC que se emplearon en el sistema IMAX SOLIDO.  También fue empleado en algunos videos o DVD en 3D, TV 3D y algunos programas informáticos por ordenador. Su encumbramiento llegó al ser empleado en el cine comercial por el actual sistema Xpand de gafas activas.

José Pastor

Próximo capítulo “2.2. EL OBTURADOR ACTIVO SE ESTRENA EN EL VÍDEO DOMÉSTICO"


lunes, 22 de julio de 2013

3D 3º: Sistemas de Proyección y Visionado - SUPER ANAGLIFOS

1.2.2. - Infitec (Pasivo)

Este es el sistema más moderno de todos, aunque en esencia se basa en la misma vieja técnica anaglifa ahora modernizada.  Fue un proyecto de investigación de Daimler AG desarrollado en la ciudad alemana de Ulm, en 1999. El origen de este estudió era conseguir un proceso que mejorará la proyección de realidad virtual. Se le llamó ‘Sistema de Visualización en longitud de Onda  Multiplex’ y se dio a conocer en el 2003 bajo el nombre de Infitec. Este sistema es en realidad un super anaglifo mucho más complejo y pertenece a la multinacional GMBH.  Es un serio rival para el viejo y vigente sistema polarizado de proyeción en 3D.


Dolby 3D Cinema Digital

Esquema de proyección Dolby 3D Digital Cinema. Se filtran tres longitudes de onda diferentes de cada color para el ojo izquierdo y el derecho

El sistema Dolby 3D Digital Cinema utiliza unos filtros dicromáticos de interferencia dispuestos en un disco, en constante rotación, delante del objetivo del proyector. Su misión es filtrar primero el fotograma izquierdo en el espectro de color el rojo en tres partes del espectro el rojo a 629nm, el verde a 532nm y el azul a 446nm. Después en el fotograma derecho filtra el rojo a 615nm, el verde a 518nm y el azul a 432nm.

Gafas dicromáticas de interferencia Dolby,  filtran 3 longitudes de onda del espectro de color

Para poder ver los dos fotogramas hacen falta unas gafas especiales con tecnología Infitec, que llevan unos filtros de interferencia que permiten pasar las tres longitudes de onda, para cada ojo, correspondientes a las del filtro de proyección. Es un concepto difícil de entender pero funciona como un anaglifo tradicional cuyos colores se filtran por longitud de onda en el proyector y las gafas especiales se encargan de ocultar o mostrar su imagen al ojo correspondiente. Es un sistema pasivo y no necesita que el proyector esté sincronizado con las gafas. Tiene la ventaja de poder proyectarse sobre pantallas normales de los cines sin ningún tipo de modificación, el inconveniente del Dolby 3D es que las copias necesitan estar balanceadas colorimétricamente para que los filtros de interferencia no varíen las tonalidades cromáticas en la pantalla. El Dolby 3D digital Cinema se implantó en algunas salas de los cines Kinépolis. Recuerdo haber visto allí la película “Beowulf” (2007) de Robert Zemeckis,  la luminosidad y la calidad del 3D era bastante buena. Tras estrenar algunas películas más, abandonaron este sistema a favor del polarizado porque, en aquellas fechas, las gafas eran muy caras, había que devolverlas al final y tenían que limpiarse para cada sesión. La compañía Dolby, bajó en 2010 el precio de las gafas a unos 17 dólares, pero salvo que los espectadores las compren, mantener personal en la sala para recogerlas y limpiarlas es todavía algo engorroso.


Panavision 3D


Esquema de proyección Panavision 3D. Se filtran cinco longitudes de onda  diferentes de cada color para el ojo izquierdo y el derecho 

La compañía americana de cámaras Panavision  y la Omega Optical  ha adoptado también la tecnología de filtros de interferencia pero con mejoras. El sistema fue demostrado en la ‘Cinema Expo Internacional’ de Ámsterdam el 21 de junio de 2010.  Los tres filtrados por ojo utilizados por el Dolby, los ha ampliado a cinco. Con ello consigue eliminar la necesidad de procesar la colorimetría de la imagen que requiere este, con la ventaja de que se consigue dividir uniformemente el espectro visible entre los dos ojos. Esto da al espectador una sensación más relajada y una mejora en luminosidad y balance de color. Otra diferencia es que el sistema puede utilizarse en proyector de película tradicional 35mm, es compatible con el sistema Technicolor 3D, o en cine digital. Puede utilizarse una pantalla blanca estándar o la plateada que emplea el polarizado Real D.
Gafas dicromáticas de interferencia Panavision, filtran 5 longitudes de onda del espectro de color

Los filtros del proyector y las gafas son fabricados por la empresa Omega Optical, Panavision afirma que son más baratas de fabricar que las del sistema Dolby, y cuestan entre los 5 y los 7 dólares. Respecto al tema de limpieza, la compañía ofrece dos opciones de higienización, toallitas antibacteria para que el espectador limpie su gafa individualmente o un sistema de lavado automatizado que permite limpiar 900 gafas por hora.


José Pastor Jaén


Próximo capítulo: "2.- ALTERNADO o OBTURACIÓN (ACTIVO)"


viernes, 19 de julio de 2013

3D 2º: Sistemas de Proyección y Visionado - ANAGLIFO color

1.2.1.  Para imágenes en color



Dispositivo de Leslie P. Dudley para la toma de fotografías anaglifas directas

La utilización del sistema anaglifo directamente durante la toma de imágenes fue idea de Leslie P. Dudley en 1951. Él ideó un proceso especial que, utilizando varios prismas, separaba interaxialmente el par estéreo y los superponía, filtrándolos en rojo y en cian, directamente sobre un único objetivo fotográfico. La novedad de este sistema era que la imagen compuesta con los dos registros se impresionaba directamente sobre la película creando un fotograma anaglifo superpuesto sobre un negativo o positivo a todo color. Este sistema fue inicialmente creado para su utilización en fotografía en color, con estampación anaglifa directa sobre papel fotográfico. Fue utilizado también en revistas en color imprimiendo la doble imagen con los colores rojo y cian. Era necesario emplear gafas con los colores invertidos para poder ver el efecto 3D. Estos colores, en concreto, permitían una menor interferencia colorimétrica y una satisfactoria percepción tridimensional del observador bastante aceptable.








  Objetivo Vivitar Qdos permitía dividir el haz de luz, en dos imágenes separadas axialmente, y filtrar cada una de ella en color rojo y cian directamente sobre la película en color

En la década de los 80 la compañía Vivitar comercializó un objetivo el Vivitar Qdos 70-210mm f 2,8-f 4,0 que posibilitaba realizar fotos anaglifas directas sobre negativo o diapositiva en color. La doble imagen se registraba con los colores rojo/cian. En el pack venían varios pares de gafas anaglifas para poder ver el efecto 3D conseguido en las copias en papel o en las diapositivas proyectadas. 

Las dos imágenes se funden en una sola sobre la película negativa o positiva en color, filtrándose impresionando una doble imagen compuesta de un color secundario cian (a  la izquierda) y primario rojo (a la derecha). Esta imagen puede imprimirse directamente sobre papel


Si nos colocamos unas gafas, donde los filtros están colocados al contrario, nos permiten visualizar una imagen tridimensional en color 

                          
Carteles de dos películas con secuencias en 3D anaglifas "The mask" en blanco y negro y "Three Dimensions of Greta" en color. 

Cuando nació el sistema polarizado en la década de los 30, el anaglifo quedó relegado a películas en blanco y negro, pero cuando este desapareció, los viejos sistemas se hundieron con él. Hay casos curiosos como el de la película en blanco y negro La Máscara” (The Mask, 1961) de Julian Roffman que era en 2D pero cuando el personaje principal se ponía una máscara las escenas eran en 3D se proyectaban en rojo y verde. El sistema anaglifo fue parcialmente utilizado en la película en blanco y negro “Paradisio” (1962) de H. Haile Chace  y también parcialmente en otra erótica, pero ya en color, “Three Dimensions of Greta”  (1972) de Pete Walter que obtuvo un relativo éxito tras su estreno.

Cartel de “Night of the living dead 3D” (2006) estrenada en 3D anaglifo

Respecto a las copias en anáglifo rojo/cian, en formato de vídeo doméstico, solamente  “Comin 'At Ya!” (1981), “Parasite” (1982) y “Viernes 13 Parte III” (Friday the 13th Part 3, 1982) fueron oficialmente lanzadas en VHS o DVD en los Estados Unidos. La película “Amityville 3D” (1983) salió en anáglifo en DVD pero únicamente en el Reino Unido. La mayoría de las largometrajes en 3D de los comienzos de los 80 y algunos de los clásicos de los 50 como “La casa del museo de cera” tuvieron copia 3D en el viejo sistema de disco ya desaparecido VHD. Muchas de estas copias sobreviven aun hoy como copias no oficiales en DVD en el mercado pirata y en internet. La última película comercial estrenada en anáglifo en 35mm fue “Night of the living dead 3D” (2006) de Jeff Broadstreet que es un homenaje al clásico ‘La noche de los muertos vivientes’.

                 

Emisión de "Fort Ti" por TVE en 1984 las gafas anaglifas te las regalaban en los quioscos

Este sistema fue adaptado por la televisión porque permitía la emisión de películas 3D anaglifas en color. Para ello era necesario imprimir una copia anaglifo compuesta rojo/cian sobre un único positivo en color. Que yo conozca, la primera emisión de una película 3D en Europa, la realizó la televisión británica el 5 de diciembre de 1982. Dos años más tarde, TVE hizo lo mismo utilizando la misma copia, rojo y cian, de una vieja película 3D en color “Fort Ti”(1953) de William Castle. Se emitió el 7 día Reyes de 1984 y yo la grabe en mi flamante vídeo Betamax, hace unos años hice una copia en DVD como recuerdo de ese experimento. La experiencia no fue muy satisfactoria porque el efecto 3D no era muy bueno, los televisores de la época no tenían suficiente calidad para hacer un visionado agradable. Pero este tipo de emisiones tridimensionales no volvieron a repetirse, al menos en España pero si se extendió al mercado de vídeo en copias que solo se podían obtener en USA y Japón (allí siempre habían existido copias en S-8 con fragmentos extraídos de viejas películas convertidas al anáglifo).

Cartel de "Pesadilla final: la muerte de Freddy" (1991) donde la secuencia final era en 3D anaglifa

El sistema paso al cine comercial pero únicamente en secuencias especiales 3D compuesta en anáglifo en color. En “Pesadilla final: la muerte de Freddy” (1991) de  Rachel Talalay, la secuencia final era anaglífica, aunque fuera rodada originalmente con dos registros stereoscópicos separados. Respecto a la película “Spy kids 3D: game over” (2003) de Robert Rodriguez,, contenía muchas secuencias en 3D. Cuando los protagonistas se colocaban las gafas el publico tambien debía hacerlo para verlas en 3D. La edición en DVD también ofrecía una copia anaglifa en rojo y cian con un par de gafas de cartón y filtros de plástico. En lo referente al Blu-ray las primeras películas en editarse fueron “Expreso Polar” (2004) de Robert Zemeckis, “Destino final 4” (2009) de David R. Elis, también con imagen rojo y cian

Trioscopic: izquierda verde y derecha magenta. ColorCode: izquierda el ámbar y derecha el azul

El sistema anaglifo fue evolucionando para ofrecer mayor rango en el espectro de colorimetrico. En 2007 Jhon D. Lowry y Ian Cavén fundaron la empresa Trioscopic que proponía utilizar filtros ‘Verde y Magenta’. Según sus desarrolladores esta combinación consigue una mejor gama de colores, tanto en tonos suaves o muy saturados, además el color de la piel se ve mucho más natural con esta nueva propuesta  respecto a otros sistemas anaglifos. Este proceso se estrenó en la copia Blu-ray de “Viaje al centro de la tierra” (2008) de Eric Brevig, continuó con “Valentin sangriento” (2009) de Patrick Lussier, “Monstruos contra  alienígenas” (2009) de Rob Letterman y Conrad Vernon, “Coraline”(2009) de Henry Selick y  “Saw VI” (2009) de Kevin Greutert. Con la llegada del verdadero Blu-ray 3D este tipo de copias ya no se comercializaron.

Las gafas y los actores de la serie “Chuck” anunciando la emisión de un capítulo especial tridimensional con las gafas del sistema ColorCode

Otra propuesta posterior fue el sistema ColorCode que utiliza los colores ‘Ámbar y Azul’ fue utilizado en la televisión norteamericana en varios anuncios tridimensionales durante la emisión de la ‘Super Bowl’ el 2 de febrero de 2009. También en un doble episodio de la serie norteamericana de espías “Chuck”. Esta campaña sirvió como publicidad al estreno de la película de animación en 3D “Monstruos contra alienígenas”. El primer  lanzamiento en Blu-ray del documental “Misterios del titánic” (2004) de James Cameron, utilizó este sistema y también las copias para cines en 35mm eran anaglifas (Las copias IMAX eran polarizadas),  

Existen más propuestas como el Anachrome y el Inficolor, ambos consiguen mejores resultados para color pero son menos conocidos y poco utilizados comercialmente. 


José Pastor Jaén


Próximo capítulo:  "1.2.2. El super anaglifo - Infitec"





miércoles, 17 de julio de 2013

3D 1º: Sistemas de Proyección y Visionado - ANAGLIFO B/N

INTRODUCCIÓN

En esta ocasión vamos a desglosar los diferentes sistemas que existen para poder proyectar o visualizar imágenes en formato estereoscópico. En artículos futuros iré contando la historia del cine tridimensional en película, pormenorizando uno por uno, y veremos que fueron muy variados, curiosos y exóticos. Quiero recordaros, antes de comenzar, que ya vimos en un artículo anterior los tipos de formatos actuales que existen para su proyección digital, sus distintas combinaciones y  resoluciones para Blu-ray, “mkv” o “avi”. Ahora es el momento de estudiar las maneras que existen para que cada ojo pueda separar independientemente de la pantalla, de cine o televisión, la  imagen que le corresponda y que el cerebro pueda fundirlas en una única tridimensional.


Fotogramas duales  para el ojo Izquierdo y Derecho necesarios para la proyección o el visionado estereoscópico

Lo más importante es obtener dos imágenes estereoscópicas perfectamente sincronizadas, existen dos maneras de hacerlo: 1) Utilizar dos cámaras que obtienen dos fotogramas totalmente separados.     2) Utilizar una única cámara empleando un conversor, u objetivo compuesto, que permite separar ambos registros dividiendo en un fotograma partido por las dos imágenes. En último caso tendremos una perdida de resolución de la imagen a la mitad.

Elijamos el método que queramos, en ambas maneras, las imágenes que capturemos deben tener una separación de unos 65mm entre la distancia de los centros ópticos de sus dos objetivos. Esta distancia interocular es la que existe, normalmente, entre un ojo y el otro en los seres humanos. Por lo tanto son necesarias dos imágenes, una para el ojo  izquierdo y otra para el derecho. Necesitamos que ambos registros se adapten al sistema particular que deseemos, para permitir su visionado o proyección tridimensional.


1 - ANAGLIFO (PASIVO)

1.1. Para imágenes en blanco y negro


Francia, década de 1880, proyección anaglifa en linterna mágica de dos objetivos. Los espectadores llevaban gafas de colores para percibir el relieve

El anaglifo es el sistema de visionado o proyección tridimensional pasivo más antiguo, su extraño nombre viene del griego antiguo ἀνάγλυφος (anáglyfos) y su significado es ‘tallado en relieve’. La búsqueda de un proceso de visualización de imágenes fijas tridimensionales se inicia, en la década de 1850, cuando la proyección con linterna mágica era un éxito muy popular. El alemán Wilhelm Rollmann vislumbró en 1852 el primer sistema anaglifo empleando los colores rojo y azul, para percibir el efecto tridimensional era necesario emplear unas gafas con los mismos colores, pero colocados al revés, porque neutralizaban la luz de su mismo color. En 1858 Joseph D’Almeida proyectó diapositivas utilizando una linterna mágica estereoscópica. El primero en utilizar el anaglifo, correctamente y con calidad, sobre papel fotográfico fue el francés Louis Arthur Ducos Du Hauron  en 1881. En todos los casos se empleaban los mismos filtros de color rojo y azul, tanto en la proyección como en las gafas.

Edwin S. Porter y William E. Wadell pioneros del cine anaglifo

Aunque existen patentes tridimensionales muy antiguas no se sabe, a ciencia cierta, cuando el sistema anaglifo se adaptó con éxito al cinematógrafo. La primera noticia documentada de una proyección estereoscópica, utilizando anaglifos, fue realizada por Edwin S. Porter y William E. Waddell. Realizarón varios cortos demostrativos  utilizando una nueva combinación de colores contrarios, rojo y verde; en las gafas los colores estaban cambiados. Los primeros test tridimensionales se exhibieron en el ‘Cine Astor’ de Nueva York el 10 de junio de 1915 bajo los auspicios de los estudios Famous Players-Lasky.  La proyección, seguramente filmada por Porter, fue muy variada "Rural America" un cortometraje con escenas rurales de los Estados Unidos, una bobina con escenas rodadas en los decorados de la película “Jim the Penman” (Producción de la 'Famous' de la cual era el director Porter y que se estrenó ese mismo año y no era 3D), en ellas aparecían los actores John Marston y Marie Doro. También se exhibieron fragmentos de unos ‘bailarines orientales’ y una bobina “Niagara Falls” donde se mostraba la espectacularidad de las famosas cataratas. Adolph Zukor jefe y creador de los estudios Famous Players-Lasky (años más tarde se convirtieron en la famosa productora ‘Paramount Pictures’), declaró en su autobiografía que tras esta experiencia, su compañía no realizó más experimentos en 3D.


Carteles del sistema anaglifo Stereoscopicks de Ives - Leventhal

Fotogramas anáglifos de “Plastigrams” (1922), filtrados en rojo y azul

Siete años más tarde Frederic Eugene Ives y Jacob Leventhal presentaron su sistema anaglifo ‘Stereoscopiks Plasticon’ en el cine Rivoli de Nueva York en 1922. También utilizaban los colores rojo y azul, tanto en la proyección como en las gafas. El espectáculo se llamaba “Plastigrams” (1922) de J. A. Leventhal y uno de los cortos tenía la particularidad de tener dos finales distintos, si el público veía solo por el filtro rojo de las gafas el final era feliz, y si lo hacían por el color azul el final era trágico. Ese mismo año en diciembre de 1922, William Van Doren Kelley,  presentó en el Cine Rivoli de Nueva York el espectáculo tridimensional ‘Kelley’s Plasticon Pictures: Movies of the Future and Thru’ the Trees’ (1922) de W. V. D Kelley  que incluían los cortos “New York City” y “Plasticons”. Este sistema empleaba los colores de la imagen roja impresa en rojo en una de las caras de la película, y, la imagen verde, tintada en verde en la otra cara inversa. Las gafas para su visionado tenían los colores invertidos en rojo y verde.

La cámara estereoscópica 3D utilizada en el rodaje de “Power of love” (1922)

Ese mismo año se estrena la primera película de ficción estereoscópica “The power of love” (1922) de Nat G. Deverich y Harry K. Fairall. Fue exhibida en el cine Ambassador Hotel en los Ángeles el 27 de septiembre de 1922. Para lograr el efecto tridimensional, el productor Harry K. Fairall y el cámara Robert F. Elder, utilizaban dos películas sincronizadas que proyectaban el par de fotogramas estéreo sobre la pantalla. También utilizaban filtros de proyección y gafas con colores rojo y verde.

B/N: La izquierda en verde y la derecha roja     B/N: La izquierda en azul y la derecha roja
  
B/N: En las gafas se invierte los filtros  el ojo izquierdo en rojo y el derecho en verde  o azul

La explicación del porque de la elección de estos colores primarios ‘Verde y Rojo’ o ‘Azul y Rojo’ para el sistema anaglifo en película en blanco y negro es sencilla.

Si proyectamos la imagen izquierda en color verde sobre la pantalla, el ojo izquierdo debe llevar el filtro rojo porque oscurece la imagen verde y aclara la roja (es casi invisible). Respecto a la imagen derecha en color rojo en la pantalla, es el ojo derecho el que debe llevar el filtro verde porque oscurece el rojo y aclara el verde. Con ello conseguimos que cada ojo vea su imagen correspondiente tal como fueron filmadas, el cerebro se encarga de fundirlas en una imagen tridimensional

En los primeros años cuando las películas eran en blanco y negro no había problemas en utilizar estas dos combinaciones de dos colores primarios en los filtros. Cuando apareció el cine en color estaba claro que no eran los adecuados para hacerlo porque afectaban gravemente a la colorimetría y oscurecían la imagen con lo que el efecto 3D se diluía perjudicando una visión cómoda para el espectador. 

José Pastor

Próximo capítulo: 3D 2º parte "ANAGLIFO -  1.2. Para imágenes en color"


miércoles, 10 de julio de 2013

5º Día de Rodaje "Ciudad de las ciencias 3D"

Aquí están las fotos del último día de rodaje del 5 de Julio de 2013. Ya prácticamente está finalizado y el proyecto está en proceso de premontaje con una banda sonora provisional inacabada. Faltan todavía rodar Planos de Detalle con teleobjetivo con dos cámaras sincronizadas y con diferentes distancias interoculares (paralelajes) y  diferentes convergencias. La idea es realizar un zoom digital en el espacio 3D, todo ello es experimental y muy complicado de rodar. En el futuro escribiré un artículo sobre esta experiencia. Como el tiempo pasa tan rápido y el verano ya esta aquí (el tiempo ha sido horroroso en primavera) seguramente se grabarán en septiembre y habrá que esperar a que acabe al final del verano para tener el video acabado.


Aquí tenéis nuevos planos en 3D. Varios P.G. del museo 'Principe Felipe'.



Como de costumbre aquí os dejo un fotograma estereoscópico compuesto en 'Anaglifo' para que podáis apreciar el efecto de profundidad conseguido con el 3D. Los colores de las gafas deben colocarse como indica el dibujo: Rojo (ojo izquierdo), Cían (ojo derecho). 

José Pastor

lunes, 8 de julio de 2013

4º Día de Rodaje "Ciudad de las Ciencias 3D"

Mientras preparo el próximo artículo sobre "Sistemas de proyección y visionado en 3D". Sigo colgando fotogramas de los días de rodaje que faltaban. Estos pertenecen al cuarto día, el 21 de Junio 2013.


Aquí tenéis nuevos planos en 3D. Un G.P.G. del edificio de la ópera 'Reina Sofia' y un P.D. También un P.D. del interior del museo 'Principe Felipe'.


Como de costumbre aquí os dejo un fotograma estereoscópico compuesto en 'Anaglifo' para que podáis apreciar el efecto de profundidad conseguido con el 3D. Los colores de las gafas deben colocarse como indica el dibujo: Rojo (ojo izquierdo), Cían o Azul (ojo derecho). 

José Pastor

miércoles, 3 de julio de 2013

3º Día de rodaje "Ciudad de las Ciencias 3D"

Continúo colgando fotos de los días de rodaje que faltaban del corto "Ciudad de las Ciencias 3D". No lo había  hecho antes para no interrumpir los artículos del HFR. Pertenecen al día 13 de Junio.

Este año la primavera no ha ofrecido días muy claros y despejados. El rodaje se alargado más de la cuenta y va con bastante retraso. Pero las imagenes tienen buena pinta.


Aquí tenéis nuevos planos en 3D con diferentes ángulos y vistas generales del complejo de Calatrava.


Como de costumbre aquí os dejo un fotograma estereoscópico compuesto en 'Anaglifo' para que podáis apreciar el efecto de profundidad conseguido con el 3D. Los colores de las gafas deben colocarse como indica el dibujo: Rojo (ojo izquierdo), Cían o Azul (ojo derecho). Espero que os guste.

José Pastor Jaén

martes, 2 de julio de 2013

HFR 8ª: ¡120 imágenes por segundo! ¿Es una broma?

Televisor LG de 4K y 120Hz de 84 pulgadas soporta los 60Hz en HD y 30Hz en 4K

Ya vimos en el capítulo 4, de este extenso artículo, que durante el desarrollo de la alta definición, la NHK (Asociación de Radiodifusión de Japón) realizó un estudio sobre la visión humana y una de sus conclusiones fue que para garantizar la perfecta sensación de movimiento la frecuencia mínima debía ser 45Hz reales. Actualmente en plena expansión de la televisión HD, hablamos de 1920 x 1080i pixels (televisión comercial para informativos, entretenimiento, etc.), debemos recordar que son el resultado de dos campos entrelazados de 1920 x 540 pixels con una frecuencia de 50Hz o 60Hz  por segundo (Europa o Estados Unidos). La televisión actual supera, por lo tanto como ya vimos antes, los 45Hz mínimos exigidos pero a costa de sacrificar la mitad de su resolución vertical.

Otra alternativa para la emisión en HD es bajar a 1920 x 720p pixels (televisión de pago con emisión de películas, series, documentales, etc) donde los fotogramas son progresivos o completos (no van entrelazados) y por ello su aspecto es más cinematográfico. En este caso la frecuencia de imagen por segundo llega a los 25Hz y 30Hz y como no cumple el mínimo de 45Hz recomendados,  el televisor debe repetir el mismo fotograma 2 veces, como mínimo, para evitar el temido parpadeo. Este sistema aunque objetivamente tenga menos líneas que el entrelazado de 1080i tiene una calidad superior. El principal motivo es que las películas y series están grabadas a 24p o 25p, utilizando la obturación clásica del cine de 180º, por lo que el espectador percibe mayor definición espacial aunque disminuya la definición temporal. En el  vídeo entrelazado obturado a 360º ocurre lo contrario y por eso no tiene el aspecto estroboscópico característico del ‘Film Look’ que sí consigue el progresivo. Durante décadas el entrelazado ha sido el sistema preferido por la televisión, por una razón muy sencilla, es una manera barata de comprimir la señal a la mitad. Hoy en día esta situación está cambiando gracias al empleo de eficientes algoritmos de compresión. El progresivo avanza con fuerza gracias al empuje que tiene la tecnología electrónica en la conversión que está sufriendo el cine analógico en película hacia el digital. 

TVE HD alterna la emisión entre 1080i y 720p mientras la BBC HD alterna la emisión 1080i con 1080p

¿Y que pasa con el Full HD 1080p? Bueno parece que el formato completo que casi alcanza los 2K con una resolución de 1920 x 1080p pixels se utilizará únicamente para las ediciones en Bluray. Si hablamos de emisión progresiva, existir existe, la BBC HD la está probando desde 2011, pero combina las emisiones 1080i y 1080p. La pega es que la resolución real es de 1440 x 1080p a 25Hz. El problema, seguramente, es de los decodificadores de satélite y TDT que aunque trabajan en Mpg4 no están preparados para emitir a la resolución completa de 1920x1080p, ocuparían mucho ancho de banda para un solo canal en Alta Definición. La BBC HD ha tenido muchos problemas con el audio en algunos receptores HD cuando cambiaba la emisión de 1080i a 1080p.

La televisión 2K parece que está estancada y no evolucionará más. Uno de los motivos  podría ser que la NHK japonesa y varias empresas fabricantes de equipos de televisión ya están pensando en la próxima televisión del futuro, el Super Hi-Vision o UHDTV (Ultra High Definition TeleVisión)  de 3840 x 2160 pixels a 4K (8,3 megapixels).  La primera cámara prototipo se construyó en el 2003 y fue demostrada en la Expo 2005 de Aichi, Japón. Teniendo en cuenta que en las mejores condiciones el negativo cinematográfico puede alcanzar los 6K , una copia positiva en condiciones hasta los 4K y una copia final para proyección puede bajar hasta los 2K, estamos hablando de una resolución mayor a la del cine analógico de 35mm o digital que vemos actualmente en las salas de exhibición. 

Cámara portátil de Super Hi-Vison 8K de la NHK

Pero lo más increíble de todo es que, cuando todavía esta el 4K en fase de pruebas, los laboratorios de investigación de la NHK, van un paso más allá, y ya están desarrollando la televisión de 8K que alcanza la increíble cifra de 7680 x 4320 (33 megapixels). Si los planes de implantación se cumplen en un futuro no muy lejano nuestros televisores o proyectores de última generación podrán alcanzar tanta calidad como la conseguida en formatos gigantes como el IMAX.

Cámara ligera de 8K de NHK japonesa con el mismo tamaño de una cámara HD con un peso de 4 kilos, puede trabajar a 60 imagenes por segundo.

No contentos con ello los japoneses ya han fabricado una cámara de 8K de un solo sensor  CMOS,  formato equiparable al Super 35mm,  que es tan ligera como una de HD portátil y con un peso de 4 kilos. Además permite la captación en HFR hasta las 60 imágenes por segundo y estará disponible en el 2014.


El Hypercinema 120Hz

Douglas Trumbull rodando una demo del Hypercinema 120Hz

Respecto al mundo del cine, ahora que las cámaras digitales ya han alcanzado la velocidad del Showscan, su creador Trumbull vuelve a la carga con el HFR y su nuevo invento el Hypercinema 120Hz. La propuesta es atractiva, él piensa que en el futuro podremos ver películas que se adapten a velocidades variables. Por ejemplo para las escenas normales se puede utilizar las tradicionales 24ips y para las escenas de acción se puede cambiar la velocidad a framerates más altos, como por ejemplo, 60ips e incluso es posible llegar a las 120ips. Douglas comenta sobre su nuevo proyecto  “He estado rodando a 120 fps, con un obturador de 360 grados en la cámara. Esto hace que sea posible combinar digitalmente cualquier número de fotogramas adyacentes con el fin de recuperar la cantidad apropiada para compensar  la falta de definición necesaria para una pantalla 24 fps. Hay que tener en cuenta que en los rodajes estamos acostumbrados ha utilizar un obturador de 160 a 200 grados que da como resultado la ‘textura’ que conocemos en las películas (no en la televisión). Obtener material de rodaje a 120 fotogramas con un obturador de 360 grados, es una forma sencilla de conseguir, mediante combinación digital de tres fotogramas y convertirlos fusionándolos en uno solo y eliminando los dos fotogramas siguientes sobrantes que da como resultado una copia a 24 cuadros sin artefactos, al mismo tiempo que conserva la perdida de definición normal. Este proceso patentado proporcionará una compresión de datos visuales que traerán inmensa mejora a la experiencia visual, y también ofrece la oportunidad única de ‘integrar’ 60 fps de  movimiento del objeto dentro de 24 fps, preservando así la textura de cine al tiempo que permite una acción rápida no borrosa". 

El HYPERCINEMA 120Hz parte de una secuencia de 120 imágenes, elimina una parte y mezcla otra hasta conseguir 72, 60, 48 o el estándar de 24 fotogramas  que es el ejemplo mostrado en el dibujo

Resumiendo, propone registrar las imágenes a 120Hz, separarlas en bloques de 5 fotogramas, 3 de ellos fusionarlos en una única imagen y eliminar los 2 restantes. De este modo se consiguen 24ips estándar aunque es posible otras combinaciones como 48Hz, 60Hz, 72Hz, etc. 



La cámara experimental de NHK de 3 CCD’s a 120Hz

En el medio televisivo, la NHK también quiere impulsar la tasa de fotogramas de 60ips a 120ips. El porque de ello es que los objetos o sujetos en rápido movimiento aparecen borrosos en las gigantescas pantallas Hi-Vision 4K. Los japoneses para solucionarlo han presentado un prototipo de cámara que utiliza un CMOS de 1’5 pulgada que es más pequeño de los sensores tradicionales Ultra HD. La nueva cámara  Super Hi-Vision de 4K (4.329 pixels) alcanza las 120 imágens por segundo. Con ello se consigue registrar con mayor calidad los movimientos rápidos en los programas de deportes como Formula 1, motos GP, fútbol americano, carrera de caballos, etc. Si la tendencia actual no para, no es de extrañar que en un futuro no muy lejano podamos ver prototipos con 8K a 120Hz.

La cámara Sony F65 4K,  la RED Epic Dragon 6K y la Alexa Plus admiten la velocidad de 120Hz

Los fabricantes de cámaras de cine profesional no se quedan atrás y admiten la grabación a 120 imágenes por segundo. Las más nuevas son la Red Epic Dragon a 6K, la Sony F65 cuyo último modelo con un sensor CMOS de 8K  (20 megapixels) fue presentado en la Feria NAB en Las Vegas Sony aunque su resolución final es de 4K y 120Hz a la espera de actualización para utilizar todo el potencial del 8K y por último la Arri Alexa Plus de casi 3K. 

  Proyectores 4K Christie Mirage 4K  y Barco DP4K-32

 Los fabricantes de proyectores de cine profesional afrontan el envite y ponen en el mercado máquinas que soportan los 4K (4096 x 2160) y las 120 imágenes por segundo. Los más destacados son el Christie Mirage 4K y el Barco DP4K-32.


  
Proyector Sony VPL-VW100ES,  televisor Sony XBR-84X900 y televisor   LG 84LM9600

En lo que respecta al mercado doméstico, ya han salido los primeros televisores 4K,  destacamos dos de 84 pulgadas. El LG 84LM9600 que en sus especificaciones técnicas dice que admite hasta 60 imágenes por segundo pero solo en 1080p (2K) y el Sony XBR-84X900. La compañía Sony también dispone de un proyector doméstico 4K el VPL-VW100ES que puede reproducir archivos de vídeo HD de hasta 60 imágenes por segundo. De todos modos estos equipos todavía no tienen el nuevo codec HEVC (High Efficiency Compresion) o H.265 que se ha elegido para Ulta-HD porque es dos veces más eficiente que el actual AVC (Advanced Video Coding) o H.264 que se utiliza para HD. En las especificaciones del nuevo HEVC dicen que la velocidad máxima de fotogramas por segundo soportada, es la increible cifra de 300fps. 

Proyector JVC DLA-VS4800 de 8K

A nivel profesional la NHK, no para en lanzar novedades, en colaboración con JVC ha desarrollado un proyector 8K el DLA-VS4800. El panel del proyector es D-ILA y tiene una resolución real de 4K (4096 x 2400), gracias al empleo de la tecnología de pixel e-Shift de JVC junta dos imágenes alternadas de 4K a 120Hz y consigue alcanzar los 8K efectivos. Pero esta tecnología tan avanzada no estará disponible hasta el 2020.


La NHK comenzará en Japón las emisiones regulares 4K en julio de 2014, se adelantan dos años para coincidir con el Mundial de Fútbol de Brasil 2014. Utilizarán sus propios satélites para evitar problemas en la emisión y posteriormente se iniciaran las emisiones 4K en TDT. Las pruebas en HFR todavía no están previstas que se incluyan, pero todo se andará. Lo que sí tiene claro el país del sol naciente, es que estos planes podrían precipitar el inicio de las emisiones en 8K para el año 2016. Pero la crisis financiera mundial es uno de los principales enemigos para que esta tecnología despegue, si verdaderamente lo hace. Como hemos visto la técnica se ha adaptado para permitir el HFR, quizás en la próxima década el cine y las retransmisiones deportivas utilicen esta tecnología y el espectador la acepte como algo normal y cotidiano.


Conclusión

Muchos de los que pacientemente han leído este artículo, habrán dudado de que el HFR, el 4K, el 8K, las 60ips o 120ips triunfen en el futuro.  Yo asistí, en Barcelona, a varias conferencias a principios de los 90 que auguraban que, en 1995, en los principales países de Europa habrían canales de satélite D2MAC que emitirían en HD analógico a 1080i. La crisis del 92 se llevó al traste estos planes, desapareció el D2MAC, el HD analógico y la emisión en 16/9 se retrasó algunos años más. Cuando yo me compré un televisor Panasonic CRT en 16/9 de 26 pulgadas, aún no había emisiones panorámicas, ni cintas VHS en ese formato. Yo era un verdadero ‘freaky’ y un incomprendido, casi todos mis amigos o conocidos me decían que nunca se emitiría en 16/9. Apareció el PAL Plus pero murió prontamente. Algunos canales de satélite comenzaron tímidamente las emisiones en 16/9 y la tecnología digital irrumpió en nuestras vidas. Primero con los canales satélite en HD, pero ahora digitales, y luego comenzó a implantarse en la  TDT. Ahora ya estamos preparados para el siguiente salto. Si alguien lo pone en duda, os aseguro que aunque más tarde de lo que nos cuentan, tendremos en casa una televisión 4K en cuestión de unos años. Los chinos, en Amazon, ya venden un televisor de 50 pulgadas 4K por un poco más de 1.000 y los reproductores Bluray 4K están a la vuelta de la esquina.


Directores fans del 3D Lucas, Zemeckis, Kleiser, Rodriguez, Cameron

Referente al mundo del cine creo a pies juntillas al maestro Douglas Trumbull, Cameron, Jackson, Spielberg, Zemeckis, Lucas...  también le creen. El cine tal y lo conocemos va a cambiar aunque no queramos, los planes ya están en marcha y la tecnología digital lo permite. La culpa de esta rápida mutación la tiene la descarga ilegal de películas por Internet, allgo similar pasó, en la década de los 50, con el despegue de la televisión en USA y la bajada de espectadores en los cines. La industria respondió con el color, la pantalla ancha del Cinemascope, el Todd-AO en 70mm, el 3D y el sonido estereofónico. Con altibajos la mayoría persistieron hasta nuestros días y cambiaron a la industria del entretenimiento. Estamos en un época de transición, el 3D cada vez tiene más calidad y el HFR ayudará a su despegue. El problema sigue siendo las gafas y la perdida de luz en la pantalla, pero lo que más daño le hace al cine estereoscópico, es la conversión indiscriminada de películas 2D a 3D. Tienen calidad pero no es un verdadera experiencia tridimensional porque no están planificadas para este formato, además es un engaño al espectador que tiene que pagar más cara su entrada.

Hay algo que todo el mundo sabe, si una película no se estrena en una sala no tiene un futuro en el mercado, si encima, todo el mundo la piratea no se producen beneficios y la producción no será rentable. Trumbull lo tiene claro “Creo que un cambio de paradigma en la tecnología de experimentar una película en los cines se necesita con urgencia” y Hollywood también lo cree, por eso busca una nueva manera de exhibir sus ‘Blockbusters’  que la gente vuelva a las salas de cine y desciendan las descargas por Internet. Los proyectores digitales más modernos ya están operando regularmente a 144 imágenes por segundo para  las películas en 3D del estándar a 24 imágenes. Utilizan 72Hz por segundo para el ojo izquierdo (cada fotograma se proyecta tres veces) y 72Hz por segundo para el ojo izquierdo. Con ello consiguen minimizar el parpadeo y mejorar la experiencia cinematográfica como si entráramos en un sueño.


Douglas defiende el registro de imagen con ‘sobremuestreo’, en otras palabras, grabar con más fotogramas por segundo para mejorar la calidad de movimiento de la imagen y luego en postproducción reducir los fotogramas al framerate que queramos. De este modo es posible no perder el deseado ‘Film Look’ de las películas tradicionales a 24ips. El fracaso que todos auguraban a Peter Jackson con “El Hobbit: Un viaje inesperado” en HFR a 48ips,  no ha sido tal. Parece que las nuevas generaciones, de menos de 20 años, están dispuestas a aceptar el cambio. Cameron tiene todo el camino despejado para aterrizar con sus 60 imágenes por segundo (parece ser que finalmente la rodará a 48ips) para “Avatar II”, ya sabemos que esto no es una quimera y es técnicamente posible que lo consiga por fin. Pero eso es ya otra historia...


José Pastor


Fin del artículo HFR que está compuesto de 8 capítulos.