4.2.3. Postproducción
4.2.3.1. Efectos visuales
Los efectos visuales se distinguen de los efectos especiales en que estos últimos se producen físicamente en un rodaje, como pueda ser una explosión real, lluvia utilizando agua, viento, niebla o cualquier otro elemento de la naturaleza o trucos como hacer desaparecer un objeto mediante un corte, un cambio de fondo mediante la proyección de un vídeo de fondo o la utilización de robótica y maquetas. Con la entrada de la tecnología digital la manera en la que se introducen los efectos especiales en el cine ha cambiado radicalmente.
Los efectos visuales se realizan digitalmente en la fase de postproducción mediante las siguientes técnicas:
Composición
Componer consiste en poner por capas distintas imágenes e integrarlas de manera que parezca todo un conjunto. Por ejemplo, un escenario grabado en vídeo en el que colocamos un personaje en 3D. O bien un edificio real al que le hemos destruido digitalmente parte de la fachada. O colocar lluvia rodada a parte encima de un vídeo en el que no estaba lloviendo.
Composición por capas
Veamos algunos ejemplos de postproducción mediante técnicas como composición y tracking:
En este ejemplo hemos eliminado los celos que sujetan los folios en la pared ya que provocan unos brillos indeseados.
En este otro ejemplo se ha realizado la extensión de la pared y armario del fondo hacia arriba para ocultar zonas ajenas al decorado.
Aquí hemos reparado la zona izquierda para ocultar la suciedad. También ha sido reemplazado el logotipo de la empresa sobre la carpeta
para una mejor definición. Para acabar la deformación de lente y perspectiva han sido corregidas.
En el último ejemplo hemos simulado el exterior (ha sido rodado en un entorno cerrado interior).
También ha sido eliminado el elemento de iluminación de la derecha que entró en el plano.
Keying
El keying consiste en hacer transparente el fondo de un elemento para poder ser compuesto posteriormente sobre otro fondo. Decíamos que en 3D podemos generar el canal alpha en el que le estamos especificando qué partes son transparentes. Cuando estamos realizando una grabación de imagen real para poder decir qué partes serán transparentes debemos colocar un chroma tras el objeto a aislar. Un chroma es una tela o pared pintada de un color uniforme que suele ser verde o azul intenso. Se utiliza una iluminación especial para darle la máxima uniformidad al color. Gracias a este fondo podremos decirle al programa que reemplace el color (azul o verde) por transparencia. Se utiliza azul o verde debido a que la piel contiene tonalidades del rojo. Si el color de fondo fuese otro diferente a azul o verde podríamos convertir a transparente la cara de un personaje de forma involuntaria. También se pueden utilizar otros colores como el blanco o el negro pero puede dar problemas con las partes brillantes u oscuras de los objetos. Si el objeto a aislar contiene verde se utilizamos un chroma azul, si contiene azul utilizamos uno verde.
Grabación con chroma verde
Canal alpha generado mediante keying
Grabación con fondo transparente
Fondo a componer
Composición final
Rotoscopia
Es otra técnica para separar un objeto del fondo pero consiste en recortar fotograma a fotograma su contorno. Es un proceso muy laborioso pero hay ocasiones en las que no se puede hacer de otra manera más sencilla.
Rotoscopia mediante máscaras
Resolver problemas de cámara
Uno de los procesos que también se pueden solucionar en postproducción son algunos problemas de la cámara como pueden ser eliminar el exceso de ruido, el flickering (parpadeo), la estabilización de la imagen, corregir la distorsión de la lente o cualquier otro problema derivado de las características físicas de la cámara. Se pueden realizar muchas mejoras pero hasta cierto límite por lo que siempre hay que procurar evitar estos problemas desde el rodaje.
Hay ocasiones en las que conviene añadir ruido en vez de eliminarlo. Cuando integramos un elemento CGI sobre un rodaje, que tiene una textura característica gracias al ruido, podemos copiar esa textura y aplicarla al CGI para que esté mejor integrado.
Eliminar objetos
También es habitual el poder eliminar en postproducción elementos que no queremos que se vean, como pueden ser cables que sostienen a los actores, marcas situadas para el tracking, o cualquier otro elemento como pueda ser un avión en una película ambientada en una era antigua, una marca comercial de un establecimiento que queremos que no aparezca, etc.
Elementos de la naturaleza
Como hemos adelantado en la composición podemos incluir cualquier elemento de la naturaleza o cualquier efecto inventado como pueden ser explosiones, efectos de luz como lens flares, lluvia, humo, fuego, rayos, electricidad, chispas, disparos, sangre, suciedad…
Lluvia digital
Lens flare
Tracking
El tracking consiste en realizar un seguimiento de objetos de forma automatizada de manera que podamos enlazar otro contenido en ese punto. Por ejemplo, si tenemos la pantalla de un smartphone, haremos un tracking de sus cuatro esquinas para poder reemplazar el contenido de su pantalla, de esta manera podemos imitar el movimiento de la pantalla y de la cámara de forma muy precisa. Puede servir para muchas cosas como por ejemplo hacer que un texto siga a un objeto a pesar de un movimiento aleatorio de la cámara. Este es un tracking en el que se realiza un seguimiento en dos dimensiones a lo largo y ancho del vídeo. Otro tipo de tracking es el 3D, en el que se realizan cálculos para deducir cuál ha sido el movimiento en todos los ejes de la cámara en un espacio tridimensional y poder generar así una cámara virtual con exactamente el mismo movimiento. Esto nos puede servir para trasladar esa cámara virtual a un programa de edición 3D y generar una animación que se integre perfectamente con la grabación en vídeo. Un ejemplo de esto es la integración de un personaje 3D en una grabación real.
Tracking 2D
Tracking 3D
Filtros y efectos
Se pueden aplicar infinidad de filtros y efectos a un vídeo como pueden ser destellos de luz, resplandores, simular una emisión de poca calidad, etc.
Filtros
4.2.3.2. Corrección de color
La corrección de color es el proceso en el que se solucionan y mejoran problemas de contraste y color tanto de grabaciones reales como de CGI.
Se realiza en dos fases: correcciones primarias y correcciones secundarias.
En cuanto a las primarias consiste en exponer y contrastar correctamente toda la imagen, además de ajustar el color y la saturación. Con esto se logra sacar el máximo partido a la imagen. Especialmente en las grabaciones RAW se puede recuperar mucha información que aparentemente no está visible.
Las secundarias consisten en realizar correcciones aisladas como pueda ser ajustar el tono de la piel, reemplazar un color por otro, ajustar el cielo, focalizar la atención donde interese, etc.
Una vez se han corregido los cortes de vídeo (o clips) más representativos el resto deberán ser ajustados para que se mantenga la continuidad. Esto es lo que se llama shot matching.
En el siguiente ejemplo podemos observar en detalle una corrección de color completa en la que se ha realizado una corrección de la exposición, el balance de color, el contraste, la saturación, makeup digital de la piel, color correcto de la piel, mejorar la definición y saturación de los ojos, ajustada la saturación del pelo y focalización de la atención mediante vignette.
En el siguiente ejemplo destacamos el haber solucionado el problema generado por una luz puntual demasiado intensa en la pared. Además se ha igualado con el resto de iluminación para que no tenga tanto contraste.
4.2.3.3. Color grading
El concepto de color grading se suele englobar en la corrección de color pero no se trata de una corrección sino de darle un aspecto concreto o look.
Existen tantos looks como podamos imaginar pero hay algunos que están o han estado de moda en algún momento. Una muestra:
Teal and orange
Bleach bypass
Yellow / Vintage
Washed-pastel-blue
Redscale look
Day-for-night
Finalmente se aplican transformaciones técnicas para adaptar los colores a los medios de reproducción finales teniendo en cuenta sus limitaciones en la reproducción de los colores.
Estas transformaciones se realizan mediante unas tablas de conversión denominadas LUTs (Look Up Table), en las que cada color de origen se corresponde con uno de destino adecuado a las limitaciones de cada medio de reproducción como pueda ser un reproductor de cine o una pantalla de ordenador.