4.2.2. Producción

A continuación se describen distintos procesos y aspectos importantes a tener en cuenta según la naturaleza de la producción:

 

 

4.2.2.1. Filmación o live action

Siempre que intervenga una cámara de fotos, de vídeo o de cine estaremos hablando de imagen real o live action.

Algunos aspectos a tener en cuenta:

•   Saber a qué dispositivo va destinado para decidir la resolución.
•   Si se van a producir acelerones o cámaras lentas para decidir los FPS.
•   Si va a haber efectos visuales o chromas para escoger la cámara y el formato de grabación prestando especial atención a la compresión del vídeo.
•   Si va a llevar sonido en directo, ambiental, etc…
•   Muy importante también es tener todas las grabaciones bien organizadas y con una o varias copias de seguridad.

Principalmente podemos rodar[1] un vídeo de tres maneras:

1. RAW

Con toda la información posible. Ocupa mucho pero es la mejor opción si vamos a realizar mucha postproducción. Además, trabajar en RAW requiere de equipos muy potentes por lo que hay que tenerlo en cuenta. Un vídeo en RAW permite exponer correctamente en postproducción y con mayor margen.


Imagen original en RAW.
El primer plano está expuesto correctamente pero el fondo queda sobreexpuesto.

 


Al estar en RAW podemos recuperar mucha información que aparentemente no se ve
por lo que podemos ajustar en posproducción la exposición, el balance de blancos y otros ajustes. 

 


Si intentamos realizar la misma operación desde una grabación que no esté en RAW
no podemos recuperar información de la parte sobreexpuesta..

2. Logarítmico

Si no tenemos la posibilidad de rodar en RAW, esta opción nos permite almacenar bastante información lumínica pero dentro de un archivo normal de vídeo. Un vídeo logarítmico (o simplemente log) es visualmente muy característico ya que tiene un aspecto muy lavado, con mucho brillo y poco contraste. El aspecto de este vídeo no será el aspecto final (a no ser que sea lo que se busque). Esto suele generar confusión al cliente, que prefiere ver el vídeo con el aspecto final ya contrastado.


Imagen logarítmica

 

3. Linearizado 

A diferencia de los otros dos estaremos grabando con un contraste y color similar al que reproduciremos finalmente. Aunque se pueden realizar ajustes de color y contraste como en cualquier imagen, no tenemos tanto margen para recuperar detalles en las partes más brillantes y oscuras. Las cámaras de consumo o baja gama utilizan este tipo de grabación. Por ejemplo Rec.709 en el caso de HD.


Imagen linearizada

Proxy

Una vez rodado y con sus correspondientes backups, se realiza lo que se llama proxies que no es otra cosa que una versión de todos los archivos de vídeo en baja resolución y con un códec de compresión para poder editar y reproducir los vídeos de forma fluida. Los archivos originales, que contienen toda la información, se reservan para la postproducción, los efectos visuales, la corrección de color y finalmente la exportación.


Edición

En este punto se realiza la edición de vídeo con sus transiciones y el montaje de sonido.


Edición

 

Transiciones 

Las transiciones es el efecto que puede ir entre los cortes de vídeo o también al inicio y fin. Pueden ser de varios tipos:
•   A corte: es decir, sin transición.
•   Fundido o cross dissolve: en el que una imagen va desapareciendo dejando paso a la siguiente.
•   Fundido a negro o fade to black: en el que la imagen va o viene del negro.
•   Fundido a blanco o fade to white: en la que la imagen va o viene del blanco.
•   Wipe: en el que la imagen desaparece con alguna forma (línea, cuadrados, iris, estrella, tiras, curvas…) para dejar paso a la siguiente.
•   Otros: pueden haber muchos tipos de transiciones con efectos de luz, desenfoques incluso movimientos en 3D.

Audio 

En cuanto al sonido pueden intervenir varios tipos:
•   Sonido ambiente: Es aquel sonido que ayuda a crear la atmósfera como pudiese ser el canto de los pájaros en un parque, coches en una ciudad, o ruidos sintéticos en un mundo alienígena. Los sonidos de ambiente pueden ser grabados en el mismo lugar del rodaje (es lo que llamamos wildtrack), puede ser grabado en uno o varios lugares distintos al del rodaje, pueden ser sonidos comprados de librería, o sintetizados por ordenador.
•   Efectos de sonido o SFX: Son aquellos sonidos que se producen con algunos eventos como puede ser una pisada, una explosión, etc. Al igual que con el de ambiente puede ser grabado en directo, o a posterori en un estudio (es lo que se conoce como foley o efecto de sala). También pueden ser comprados de librería o sintetizados por ordenador.
•   Sonido en directo: Es aquél que se graba durante el rodaje, como pueda ser el diálogo de los personajes.
•   Locuciones: Ya sea el doblaje de los personajes o una voz en off, las locuciones se realizan por profesionales en un estudio. Se realiza con las frases por escrito para su locución, o bien con los diálogos y una edición provisional del vídeo para la sincronización labial.
•   Banda sonora (música): La música del vídeo puede ser compuesta por encargo (banda sonora original) o bien comprada de una librería. En ese caso hay que vigilar las limitaciones de la licencia. Una música comprada puede ser editada hasta cierto punto en cuanto a lo que el montaje se refiere, incluso algunas se venden con los instrumentos por separado para poder realizar un montaje a medida. Estas modificaciones se limitan a recortar o alargar partes para que coincida con el vídeo, realizar bucles de algún fragmento, variar el volumen para que los diálogos se entiendan mejor y poca cosa más. Por el contrario no podemos realizar cambios de melodías ni de instrumentación, algo que sí permite una composición por encargo.

 

 

 

4.2.2.2. Animación 3D

Cuando hablamos de 3D podemos referirnos a varios tipos:

3D en tiempo real o realtime

Es aquel en el que podemos interactuar y la animación, tanto de los objetos como de la cámara, puede cambiar a nuestro antojo. Sería el caso de los videojuegos y de la realidad virtual.

 

Estereoscopía

Cuando grabamos dos vídeos, uno para cada ojo, ya sea imagen real o CGI y luego lo reproducimos en cada ojo por separado ya sea mediante un visor de realidad virtual o gafas polarizadas. Con esto se logra la sensación de que lo que estamos viendo “sale” de la pantalla.

 

Animación 3D renderizado

Cuando generamos un vídeo CGI mediante ordenador en el que se representan volúmenes y el movimiento de una cámara virtual. A diferencia del 3D en tiempo real una vez el vídeo está renderizado y lo reproducimos no podemos interactuar para cambiar el punto de vista o animar objetos. Esto es debido a que el tiempo de renderizado de la animación 3D respecto al realtime puede ser muy superior ya que puede aportar una mayor cantidad de efectos y un mayor realismo. El realtime se optimiza para que puedan renderizarse los fotogramas a un mínimo aceptable de por ejemplo 30 FPS.
Este tipo de animación 3D es en el que nos centraremos. El concepto de renderizado se desarrollará más adelante.

 

Fases de la animación 3D:

Modelado

El modelado consiste en “esculpir” los volúmenes y formas que queremos recrear en 3D. Si un escultor utiliza arcilla o piedra, los animadores 3D utilizan caras de cuatro vértices o triángulos de tres vértices. Con estas caras y triángulos, como si de origamis[2] se tratase, se puede generar cualquier forma con volumen.



 

UVW Mapping

Antes de aplicar los materiales hay que realizar un proceso que se denomina UVW Mapping. Imaginaos que creáis con arcilla una figura compleja y luego pretendemos envolverla para regalo. Nos daremos cuenta que aplicar un papel que es plano a una superficie con volumen, nos sobrarán partes, habrá que hacer pliegues para que encaje perfectamente.
Con el 3D hay que hacer algo similar para especificar cómo aplicaremos a continuación los materiales y donde pondremos esos “pliegues” virtuales.



Dos tipos de UVW para un mismo objeto

 

Shading

Una vez tenemos el modelo hay que aplicar materiales. Este proceso se denomina shading. Cada objeto, ya sea un personaje o un escenario, puede tener uno o varios materiales. Por ejemplo, el agua contendrá un sólo material, mientras que un personaje puede llevar múltiples: piel, pelo, tela, plásticos, metales…
Cada uno de esos materiales a su vez pueden contener varios tipos de texturas para definir cada uno de los siguientes parámetros del material: 

 

Diffuse
Es el color del material. Puede ser totalmente uniforme para dar un aspecto minimalista o tener más complejidad para dar mayor realismo.

Bump
Es una manera de simular la rugosidad de la superficie. Es una simulación porque realmente no aplica un relieve a la superficie a diferencia del siguiente parámetro.


Displacement
Aplica un relieve real a la superficie, pudiendo ser muy leve para dar sensación de rugosidad o muy grande pudiendo generar incluso formas complejas de un paisaje como puedan ser unas montañas.

Arriba textura que provoca el desplazamiento de abajo.



Reflection
Genera los reflejos que pueda tener el material, como pueda ser un metal, un plástico, una madera pulida… Hay un tipo de reflejo que se llama Fresnel en el que la cantidad de reflejo depende del punto de vista que estemos utilizando. Por ejemplo, el agua si la miras completamente perpendicular apenas refleja. Si la miras casi en paralelo a la superficie del agua, refleja mucho más.

Arriba reflejo, abajo reflejo de tipo fresnel.


Refraction
Es la cantidad y tipo de translucidez de un material como pueda ser el cristal, el agua, etc. Tiene la propiedad de desviar la luz que pasa a través de él por lo que puede deformar lo que esté al otro lado como ocurre cuando miramos a través de una pecera.

Glossiness
Se puede aplicar tanto a la refracción como a los reflejos y se utiliza para definir la dispersión de estos reflejos.


Opacity
Es la opacidad (lo contrario a la transparencia). Es similar a la refracción pero sin deformar la luz. Se utiliza por ejemplo para definir la forma de las hojas de los árboles sin tener que modelar cada una de la forma de estas.


Arriba textura que provoca la transparencia de abajo.

SSS

O subsurface scattering es la capacidad de algunos materiales opacos en transmitir luz a través de ellos como puede ser la piel humana, la cera de una vela…


Self-illumination
Es la capacidad de emitir luz por sí mismo o incandescencia como puede ser la lava de un volcán.

Arriba self-illumination con textura, abajo con color uniforme.



Pueden existir otros parámetros para emular los materiales pero los que se han descrito hasta ahora suelen ser bastante comunes en todo software orientado al 3D.
En cada uno de estos parámetros podremos aplicar una textura, que no es otra cosa que una imagen como pueda ser la arena, la rugosidad de una pared, una mancha, los poros de la piel, etc. o una imagen en blanco y negro como pueda ser la opacidad del contorno de la hoja de una planta. Con todos estos parámetros podremos simular cualquier material de la realidad y también inventarnos materiales inexistentes.
De este modo debemos diferenciar entre textura y material, en el que una textura es una imagen en color o blanco y negro en 2D mientras que un material es un conjunto de propiedades y texturas en el que hace que un objeto que tenga asociado ese material responda de una forma concreta a las distintas fuentes de luz de la escena.
Cuanta más cantidad de elementos y complejidad tengan los materiales de la escena, más tiempo tardará en renderizar.


Rigging

Aquellos objetos que requieren ser animados de una forma compleja necesitan unas propiedades y automatizaciones para que tengan un comportamiento concreto a la hora de ser animados. En el caso de un personaje por ejemplo debemos especificar qué partes son rígidas y qué partes son flexibles mediante unos objetos virtuales que se llaman huesos. Gracias a estos objetos podremos mover de una forma natural las extremidades de un personaje. Existen rigs de todo tipo, tanto para objetos orgánicos como pueda ser un animal, como para aparatos mecánicos con engranajes, cadenas y pistones en los que se aplican ecuaciones matemáticas para que funcionen de forma realista.
El propósito del rigging es facilitar el proceso de animación y conseguir un mayor realismo.


 

Rig creado con huesos. A la izquierda rig de tipo mecánico, a la derecha de tipo orgánico.

Visualización de huesos (bones) a la izquierda y el resultado de la animación con volumen a la derecha.

 

Animación

Es el proceso en el que se especifica el movimiento que deben tener los objetos, personajes y cámaras a lo largo del tiempo. Para ello se utilizan lo que se llaman keyframes de tal manera que situando un keyframe en un fotograma concreto y otro keyframe en un fotograma más adelante (no tiene porqué ser consecutivo, puede ser el fotograma 100 o el que se quiera) el programa irá cambiando fotograma a fotograma de forma automatizada las propiedades que hayan cambiado del objeto que estemos animando entre esos dos keyframes. Por ejemplo, si un objeto lo colocamos en una posición concreta del espacio virtual 3D y en el fotograma 50 lo movemos a un lugar distinto, el objeto empezará a moverse del origen al destino durante esos 50 fotogramas. En este ejemplo hemos animado la posición pero podría ser cualquier otra: la rotación, el tamaño, el color de un material, la intensidad de una luz, el movimiento de cámara…
Existe otra manera de animar que consiste en la capturar de movimiento. Este proceso consiste en realizar una grabación de un actor y aplicar de forma automatizada ese movimiento al personaje en 3D. Este proceso requiere de tecnología específica y la animación es mucho más realista aunque es menos flexible ya que este proceso genera mucha información difícil de modificar a nuestro antojo.

 

Animación de un objeto con dos keyframes situados en el fotograma 0 y 50.

 

La interpolación que se produce entre estos keyframes puede ser lineal o no lineal para reproducir la aceleración o desaceleración.

Interpolación lineal


Interpolación no lineal

 

Iluminación

Para que los materiales reaccionen de forma realista ante la cámara es necesario colocar puntos de luz de la misma forma que iluminamos una escena en un rodaje. Gracias a estos puntos de luz se visualizan correctamente los volúmenes, materiales, los brillos, las sombras, etc.

 

Distintas configuraciones de iluminación



Hay una técnica que sirve para dar el mayor realismo al 3D que se llama GI (global illumination) o iluminación global. Consiste en simular cómo los fotones se generan en los puntos de luz y rebotan en las distintas superficies hasta llegar a la cámara. Estas trayectorias generan la iluminación de los materiales, las sombras, pero también el cómo el color de unos objetos afecta a los otros dependiendo de la potencia de la luz o de la cercanía de estos objetos entre ellos. Si situamos nuestra mano a cierta distancia de un folio blanco a plena luz del sol veremos como nuestra mano se ilumina a pesar de que el papel es mate y no genera luz propia. Esto es debido a que los rayos del sol rebotan en la superficie del papel y nuestra mano toma el color del papel. Este proceso es uno de los puntos críticos por el que un renderizado puede tardar mucho. A mayor realismo, mayor cantidad de rayos a simular y mayor tiempo de cálculo.

 

Sin GI ni sombras

Con GI y sin sombras

Sin GI y con sombras

Con GI y con sombras

 

También se puede emular un fenómeno de la luz que se produce cuando ésta impacta sobre objetos reflectantes y refractantes en los que se produce una concentración de la luz. Esto son las cáusticas. Emular este efecto requiere de una gran cantidad de cálculos.

 


Cáusticas desactivadas


Cáusticas activadas

 

Cámara

Se trata de un objeto especial que sitúa el punto de vista de la escena. Puede ser animada para que podamos movernos por el entorno 3D con total libertad y sin ninguna limitación. La cámara puede tener las mismas propiedades de una cámara real como puede ser la profundidad de campo (DOF o Depth of field), el efecto producido por la obturación (motion blur o desenfoque de movimiento), el ángulo de visión, tamaño del sensor, distancia focal, etc.

 

Profundidad de campo

Desenfoque de movimiento

85mm de distancia focal

20mm de distancia focal

 


Efectos especiales

Existen otro tipo de elementos 3D como puedan ser los sistemas de partículas para generar humo, fuego, energía, o cualquier efecto que requiera gran cantidad de elementos que interactúen de forma automatizada. También se pueden utilizar simulaciones físicas para animar ropas, pelo, vehículos, derrumbamientos, líquidos, etc. Las simulaciones físicas requieren gran tiempo de cálculo pero dan un realismo difícilmente igualable cuando se anima manualmente.

Simulación física de líquido mediante partículas



Render (o renderizado)

Una vez el programa de 3D tiene toda la información de cómo queremos que sea la animación (con todo lo explicado en los puntos anteriores), debe realizar gran cantidad de cálculos matemáticos que tendrán como resultado cada uno de los píxeles que formarán cada imagen. Ese proceso de cálculo intensivo es lo que se denomina renderizado.
Las imágenes resultantes de cada fotograma las podremos exportar como secuencia (PNG, EXR…) o bien en un vídeo (AVI, MOV…). Siempre es recomendable configurarlo en formato de secuencia ya que si se produce algún error en unos pocos fotogramas o se quiere realizar algún pequeño cambio, es mejor renderizar solo esos fotogramas en vez de todo entero desde el inicio.

Al exportar la secuencia de imágenes también se puede hacer utilizando un canal alfa que no es otra cosa que información acerca de qué parte de la imagen es transparente. Esto es muy útil a la hora de integrar elementos 3D dentro de otro vídeo como grabaciones reales sin tener que recortar el contorno manualmente.

Imagen de fondo

Elemento 3D con fondo transparente

Visualización del canal alpha

Composición de ambos planos

 


El tiempo de renderizado total de una secuencia puede variar entre unos pocos minutos y varios días dependiendo de los siguientes factores:
•   Cantidad y complejidad de los objetos.
•   Complejidad de los materiales (los materiales con mayor coste de cálculo son aquellos que tengan glossiness, SSS y displacement).
•   Cantidad de los puntos de luz y calidad de las sombras.
•   Calidad de la iluminación global.
•   Efectos como de cámara como el DOF y motion blur.
•   Número de fotogramas.
•   Resolución de cada fotograma.
•   Potencia de cálculo del ordenador.

Es por ello que para el renderizado de escenas largas y complejas como pueden ser la de un largometraje, se requieran gran cantidad de equipos renderizando en paralelo todos los fotogramas. Son los llamados render farms que pueden estar situados en data centers.

 

 

Distintos niveles de realismo en el renderizado

 

Muestra de proyecto de animación 3D completo



 

 

 

 

4.2.2.3. Motion graphics

Los motion graphics engloba toda aquella animación 2D que pueden ser ilustraciones, títulos, animación tradicional…

Ejemplo animación motion graphics

Existen dos tipo de gráficos con los que podemos realizar motion graphics:

•   Imágenes rasterizadas: son aquellas compuestas por píxeles cuyo origen puede ser un dibujo o una fotografía. Las imágenes rasterizadas suelen ocupar más ya que contienen la información de cada uno de sus píxeles. Su desventaja es que si queremos aumentar una imagen rasterizada a más de su tamaño original esta se pixela y pierde definición. La ventaja es que pueden contener mucho detalle sin requerir gran potencia de cálculo. Se utiliza para dibujos con mucho detalle y fotografías.

•   Imágenes vectoriales: consiste en un conjunto de ecuaciones matemáticas con las que se definen puntos, curvas y rectas para generar sólidos en dos dimensiones. La textura de esas figuras pueden ser un color plano o un degradado de color. Ocupan poco peso ya que con poca información se pueden crear múltiples formas y puede aumentar de dimensiones tanto como se quiera sin perder definición. La desventaja es que requiere mayor potencia de cálculo y no puede tener demasiado detalle comparado con las imágenes rasterizadas. Se utiliza para dibujos minimalistas o ilustraciones. Las tipografías también son imágenes vectoriales.

Ampliación de imagen rasterizada y vectorial

 

En motion graphics también podemos utilizar herramientas del 3D como son la simulación de partículas, el rigging de personajes con huesos, motion blur y DOF, keyframes para la animación…
También se pueden realizar algunos movimientos en 3D como pueden ser rotaciones y movimientos pero muy básicos y sólo de elementos planos: un texto, una fotografía o una imagen.

 


Sistema de partículas 2D

Sistema de huesos 2D
Animación mediante keyframes y muestra de motion blur

Cuando no utilizamos keyframes para que el programa realice una interpolación y calcule el movimiento entre cada keyframe, es lo que llamamos como animación tradicional en el que realizamos la animación dibujando fotograma a fotograma el movimiento de los objetos.

Varios fotogramas superpuestos de animación tradicional

Es una animación muy laboriosa pero puede lograr efectos más orgánicos y realistas que utilizando keyframes. La mayoría de dibujos animados en 2D que se producen en la actualidad utilizan keyframes para ahorrar tiempo y costes pero el resultado no es tan fluido como el de la animación tradicional de los dibujos animados de antaño. Escoger una u otra técnica es sólo por una cuestión de coste y no de capacidad técnica de las herramientas actuales.

La rotulación es todo aquello en lo que intervengan textos como pueden ser subtítulos, títulos, cairons, créditos… Hay que prestar especial atención en no situar textos demasiado cerca a los bordes ya que corremos el riesgo de que queden recortados. Deben estar en lo que se denomina title-area safe que es uno de los márgenes seguros o safe-margin. Este problema era más acentuado en las antiguas televisiones CRT pero no está de más tenerlo en cuenta como precaución.

 

Visualización de texto y safe margins

 

 



[1]  Estamos suponiendo que el rodaje se realiza en digital, no en celuloide.
[2]  Arte japonés de recrear formas con pliegues del papel. Papiroflexia.