2. Vídeo

El vídeo es el 50% de lo que aporta cualquier producto audiovisual. La otra mitad es el audio.
Podemos considerar vídeo cualquier secuencia de imágenes reproducidas a una frecuencia tal que nos da la sensación de que se produce un movimiento continuo en lo que se muestra.
Las principales especificaciones que definen un vídeo digital son la resolución, la relación de aspecto, el tamaño de píxel, los fotogramas por segundo, la imagen y el tipo de archivo.
 

 

2.1. Resolución

Son las dimensiones del vídeo expresadas en ancho x alto y cuyas unidades son los píxeles. Por ejemplo 1920x1080 píxeles. Los píxeles son cada una de las unidades de color que componen una imagen. Cada píxel está compuesto por la suma de los tres colores básicos rojo, verde y azul o abreviado en inglés: RGB (Red, Green, Blue).
Perdonarme si insisto pero la resolución se mide SIEMPRE en píxeles, no en centímetros, ni pulgadas, ni en tamaño folio A4, ni en palmos (especialmente para quienes vengan del diseño offline). [1]
Las resoluciones estándares son las siguientes [2]:
 

 

SD (Standard Definition)

Es un rango de dimensiones para el formato pequeño de los antiguos televisores y monitores CRT (tubo de rayos catódicos).

 

TV
• NTSC: 720x486
(Usado en televisión de América y Japón)
• PAL: 720x576
(Usado en televisión de Europa, Asia, África y Oceanía)
Monitores
• 640x480, 400x300, 320x240, etc…
(Algunos móviles, monitores pequeños…)
 


 

 

HD (High Definition)

Es un rango de dimensiones mayores utilizado en monitores, TV y dispositivos actuales.

 

TV
• 720p: 1280x720
(Llamado también HD Ready)
• 1080p: 1920x1080
(Llamado simplemente HD o Full HD)
Monitores
• 1024x768, 1366x768, 1280x800, etc…
 
Cine digital
• 2K: 2048x1080
 


 

 

UHD (Ultra High Definition)

Es un rango de las mayores dimensiones utilizado en monitores, TV y cine.

 

TV
• 2160p (o UHD-1): 3840x2160 
(Una TV 4K pertenece a esta resolución)
• 4320p (o UHD-2): 7680x4320:
(Las futuras TV 8K)
Monitores
• 5616x3370, 2560x1440, 3200X1800, etc...
 
Cine digital
• 4K: 4096x2160
• 8K: 8192x4320


 
Comparativa entre distintas resoluciones. Todo el conjunto ha sido reducido en proporción para que quepa en este espacio.

 

Una nota adicional al respecto de la resolución es que este parámetro suele ser utilizado con fines de marketing a pesar de que en algunos casos no aporte mejora en la calidad. Me explico, el ojo humano tiene también una “resolución” máxima a la que puede captar la luz. Podemos distinguir la definición de un vídeo 4K en una pantalla de cine de varios metros a cierta distancia, pero esos mismos 4K en la pantalla de 5” de un smartphone no somos capaces de distinguirlo de un vídeo a menor resolución ya que los píxeles están demasiado juntos y son demasiado pequeños. Tendríamos que acercarnos mucho a la pantalla para poder apreciar la diferencia. Por ello no hay que dejarse llevar por la “guerra” de a ver quien ofrece mayor resolución. Hay que tener siempre presente a qué tipo de dispositivo va orientado el vídeo.

 

 

 

2.2. Relación de aspecto

Si os habéis fijado en las resoluciones anteriores no todas forman el mismo rectángulo. Unas son más apaisadas y otras más cuadradas. Esto es debido a la relación de aspecto (o aspect ratio en inglés), que no es más que la relación que existe del ancho entre el alto. Por ejemplo, una resolución de 1920x1080 son 16 partes de ancho y 9 partes de alto. Esto se expresaría como 16:9 o bien 1,77 que es lo que nos da al dividir 1920 entre 1080, que es lo mismo que dividir 16 entre 9. Así pues tiene la misma relación de aspecto que 1024x576 que también tiene una relación 16:9. Por el contrario una resolución de 768x576 tiene una relación 4:3 o 1,33 al igual que 1280x960.
Proporción 16:9 y 4:3 

Fijaos que un vídeo 16:9 es mucho más apaisado que uno 4:3 que es más cuadrado. Hay que prestar especial atención a esto a la hora de realizar o pedir adaptaciones a distintas resoluciones ya que pueden producirse recortes o franjas negras. Si vemos que la imagen está deformada, por ejemplo que un círculo aparece ovalado, quiere decir que el vídeo se está reproduciendo en una relación de aspecto que no es adecuada ya sea porque ha sido redimensionado incorrectamente o porque se está reproduciendo en un dispositivo con una resolución que no se corresponde con sus dimensiones.

La adaptación de contenido 16:9 a 4:3 produce Letterbox

La adaptación de contenido 4:3 a 16:9 produce Pillarbox
Si ampliamos un contenido 4:3 al máximo de anchura de una pantalla 16:9 
lo que se produce es un recorte o crop

 

Las relaciones de aspecto estándar para pantallas son las siguientes: 5:4 (1’25), 4:3 (1’33), 3:2 (1’5), 16:10 (1’6), 5:3 (1’66), 16:9 (1’77), 19:10 (1’9), 21:9 (2’33). En cine son 1,85 para cines europeos y 2,39 en cinemascope.

Actualmente la proporción 16:9 es la más extendida ya que es un intermedio entre las antiguas proporciones más cuadradas de TV y los formatos panorámicos del cine. De esta manera se maximiza la capacidad para adaptar antiguos formatos cuadrados y nuevos contenidos panorámicos.

 

¿Qué ocurre si quiero reproducir en una pantalla vertical?

En muchos establecimientos utilizan pantallas orientadas verticalmente para mostrar los contenidos. Los reproductores de vídeo no están optimizados para reproducir vídeos verticales. Lo que se hace es reproducir un vídeo horizontal estándar, cuyo contenido ha sido creado en vertical y posteriormente girado 90º. La pantalla debe estar girada en vertical en sentido contrario al que hemos girado el vídeo.
Proceso de creación para pantalla vertical

 

¿Y si tengo un videowall o un panel LED con una proporción que no es estándar?

Por ejemplo, utilizamos 10 pantallas Full HD y las montamos todas en fila. En ese caso habrá que utilizar un tamaño de píxel no cuadrado como veremos a continuación o deformar la imagen previamente, en cualquier caso el vídeo a reproducir siempre debe estar en una resolución estándar para evitar problemas de reproducción.

 

Cambios de resolución

Hay que tener especial cuidado al realizar adaptaciones de dimensiones. Ya hemos visto que si estamos adaptando a un tamaño cuya relación de aspecto es diferente, se producen franjas negras (letterbox o pillarbox) o recortes (crop).
Pero independientemente de que la proporción sea la misma o no, pueden ocurrir tres cosas: que el tamaño de destino sea igual, mayor o menor.

Si el tamaño de destino es igual, sólo estaremos añadiendo franjas negras o recortando la imagen, pero no estaremos variando el tamaño de los píxeles.

Si el tamaño de destino es más pequeño querrá decir que estamos eliminando información. Por ejemplo, si reducimos una imagen a la mitad de su tamaño y manteniendo su proporción, estaremos eliminando la mitad de los píxeles. Este caso no es problemático ya que el único inconveniente es que perdemos definición.

Ahora bien, si el tamaño de destino es mayor que el de origen, al aumentar de tamaño esa imagen, el ordenador tendrá que inventarse píxeles. Esto provoca un efecto negativo que se denomina pixelación.
Si aumentamos una imagen al doble de su tamaño quedará un hueco entre píxeles que habrá que rellenar con algo. Existen varias maneras de rellenar esta información. La más básica sería duplicar el color del píxel que tiene a su lado provocando una pixelación muy evidente.

Otra forma es utilizar lo que se llama interpolación, que consiste en hacer una media entre los píxeles colindantes al hueco. De esta manera la pixelación es menos evidente hasta cierto punto pero se aumenta el desenfoque de la imagen.

En conclusión, al redimensionar una imagen hay que procurar evitar siempre aumentarla aunque permite un poco de margen a partir del cual la pérdida de definición es evidente. Recomiendo no sobrepasar el 110% del tamaño original. Siempre habrá que tener precaución de que los cambios de tamaño sean para reducir y no para aumentar.

Efectos en el cambio de dimensiones 

 

 

 

2.3. Tamaño de píxel

Si no era todo ya suficientemente complicado añadamos una variable más: pixel aspect ratio.
Supongamos que reproducimos un vídeo de tamaño 1440x1080 en una TV HD 1920x1080 y la imagen no se deforma ni aparecen barras negras a pesar de que no tienen la misma proporción. ¿Qué está pasando? Pues que cada uno de estos píxeles que forman la imagen no es cuadrado sino rectangular. Esos 1440 píxeles de ancho, al ser un poco más anchos llegan a llenar hasta los 1920 de la pantalla.
Esta es una técnica que se utiliza para comprimir información que ya se utilizaba en el famoso cinemascope, en el que con lentes anamórficas se deformaba la imagen estrechándola para luego volver a ensancharla al reproducirla. Así conseguían una proyección más panorámica en el mismo espacio de film.
En vídeo digital se utiliza ahorrar espacio a la hora de grabar o emitir formatos de televisión panorámicos como el WPAL 720x576 que pasa a ser 1024x576. Otro ejemplo es el de HDV 1440x1080 que pasaría a 1920x1080.

Si lo que nos interesa es la calidad en vez de ahorrar espacio entonces siempre deberemos utilizar píxel cuadrado.

 

¿Por qué no puede ser todo más simple?

Al fin y al cabo todo se trata de la eterna lucha en la que los fabricantes de dispositivos intentan imponer su tecnología. Todos quieren estandarizar pero nadie quiere ceder.

 

 

 

2.4. Fotogramas por segundo (FPS)

Hasta ahora hemos hablado de las características de una sola imagen o fotograma pero, como hemos dicho, un vídeo está compuesto por múltiples fotogramas para lograr la sensación de movimiento. La cuestión es, ¿a qué velocidad reproducir cada uno de esos fotogramas?

Las imágenes que se reproducen durante un segundo es lo que llamamos FPS. A mayor FPS el movimiento es más fluido.
En la teoría se pueden reproducir vídeos a cualquier FPS, pero existen varios que son estándar:

- Menos de 24: en la animación tradicional se suelen utilizar 12 o 15 FPS para simplificar el costoso proceso de este tipo de animación.
- 24: es el estándar del cine y es el que le da un aspecto cinematográfico.
- 25: es el estándar PAL de televisión en Europa.
- 30: es el estándar NTSC de televisión en América y Japón.
- 48: es el doble de los 24 de cine y es la velocidad a la que se está experimentando actualmente para la reproducción en salas de cine.
- 50 y 60: son el doble de PAL y NTSC respectivamente y con las que se está experimentando actualmente ya que aportan una mayor definición en los movimientos. A partir de aquí en adelante su uso más habitual es el de los videojuegos y realidad virtual.
 

Escaneo progresivo y entrelazado

Los fotogramas por segundo también suelen ir acompañados por una letra ‘p’ de progressive o ‘i’ de interlaced. Esto es para indicar qué tipo de escaneo se utiliza.

El escaneo entrelazado es una técnica utilizada para solventar un problema en la velocidad de refresco de las antiguas televisiones CRT. Las actuales pantallas LCD no tienen ese problema por lo que lo más habitual es el uso progresivo.

El escaneo entrelazado consiste en mostrar primero las líneas impares de un fotograma y luego las líneas pares. Esto tiene algunos inconvenientes muy característicos especialmente en zonas con mucho movimiento.

El orden de escaneo también puede ser configurado a la inversa. Si alguna vez habéis visto algún vídeo, especialmente en algún programa de televisión, en el que se producía un parpadeo muy extraño es porque se trata de un vídeo entrelazado en el que se están leyendo las líneas de forma errónea: por ejemplo las pares primero y las impares después.


Entrelazado

Progresivo
Por el contrario el progresivo consiste en mostrar todo el fotograma de una sola vez. Actualmente esto es lo más habitual.
Así pues, 25p, 30p son FPS progresivos y sus equivalentes en entrelazado son 50i y 60i respectivamente. Por lo tanto no hay que confundir 50i con 50p.
 

Evidentemente podemos pasar de un progresivo a un entrelazado y viceversa. El proceso de pasar de un entrelazado a un progresivo es lo que llamamos desentrelazar. Es muy importante desentrelazar antes de realizar cualquier cambio de tamaño o compresión.

 

Cámara rápida, cámara lenta

Hasta ahora hemos hablado de los FPS de reproducción, pero ¿qué ocurre si capturamos o rodamos imágenes a unos FPS diferentes al de su reproducción? Si capturamos a menos FPS obtenemos lo que se llama cámara rápida. Si capturamos a más FPS obtenemos una cámara lenta.

Por ejemplo, si reproducimos a 25p pero capturamos a 1p será una cámara rápida. Por el contrario si capturamos a 300p, conseguiremos una cámara lenta.
Un caso extremo de cámara rápida es lo que se llama timelapse en el que cada fotograma puede durar varios segundos, minutos, horas… incluso días.

También se puede jugar con la captura en FPS variable. Esto se utiliza para realizar acelerones y parones en la acción capturada. Aunque si no se ha previsto este tipo de efectos durante el rodaje también es posible realizarlo en postproducción aunque con algunas limitaciones.

 

 

 

2.5. Imagen

Brillo

Es la cantidad de luz general de la imagen. En entorno profesional se denomina gamma aunque no es exactamente lo mismo.

 

Más y menos brillo

 

Contraste

Es la distancia de luz entre las sombras más oscuras y las luces más brillantes. A más contraste esta distancia es mayor.

 

Más y menos contraste

 

Saturación

Es la intensidad del color. El caso extremo de baja saturación se denomina desaturación cuyo resultado da una imagen en escala de grises o comúnmente llamado “en blanco y negro”.

 

Más y menos saturación

 

Tono

Es el tipo de color en sí. Cada tono de color pertenece a un ángulo dentro de la rueda de color.

Tono desfasado

Rueda de color
 

 

Balance de blancos

El color que toma el blanco de una escena depende de la iluminación. Es diferente el color que toma por ejemplo un folio de papel con una luz cálida, a una fría, en un exterior soleado, en un atardecer, o en un día nublado. Incluso es diferente dependiendo el tipo de iluminación que se utilice: tungsteno, fluorescente, led…
Es por ello que al realizar un balance de blancos (white balance) contrarrestamos esa desviación del color de la luz para que el blanco no tenga ningún tipo de coloración. En consecuencia el resto de colores también quedan corregidos.
 

Balance cálido

Balance frío

Balance neutral
 

 

Enfoque

En postproducción se puede aplicar enfoque y desenfoque hasta cierto límite mediante filtros blur y sharpening respectivamente. Es primordial obtener un buen enfoque y desenfoque en el momento de captar imágenes.
 
Más y menos enfocado 

Ruido

El ruido es un defecto provocado por los sensores digitales en los que se producen pequeños errores aleatorios a nivel de píxel. Estos errores tienen mayor presencia en las partes más oscuras de la imagen o bien cuando hemos captado imágenes en un modo de sensibilidad muy elevado. Aumentando esta sensibilidad (ISO en fotografía, EI en cine) se consigue que podamos captar más cantidad de luz pero también multiplica el efecto del ruido. Aunque es un efecto indeseable, nos hemos acostumbrado a que el grano del film en celuloide (ruido provocado por otros motivos) nos sea agradable a la vista añadiendo un poco de “textura” a la imagen. Es por ello que un poco de ruido no viene mal.

Imagen con ruido

 

 

 

2.6. Archivo de vídeo

Todos los vídeos digitales [3] están en un archivo de ordenador. Incluso un disco DVD o un Blu-ray están compuestos por archivos de vídeo.

 

Formato contenedor

El archivo es lo que se llama un contenedor dentro del cual puede haber más información a parte del vídeo: varias pista de audio, subtítulos, metadatos con información extra, etc.
El archivo contenedor puede estar en distintos formatos como puede ser AVI, MPG, MOV, MWV, MP4, etc. Este formato contenedor sólo sirve para que el reproductor sepa qué tipo de archivo va a reproducir.

Otra opción, que se suele utilizar para intercambiar archivos entre profesionales del sector, es una secuencia de imágenes en vez de un solo archivo. Esto es poniendo cada fotograma en un archivo de imagen por separado como pueda ser PNG, EXR, DPX, TIFF, PSD, etc. Esto se hace para tener el material en la máxima calidad posible y tener la versatilidad de poder reemplazar unos cuantos fotogramas al realizar correcciones sin tener que volver a enviar todo el vídeo que ocupa muchísimo espacio.

 

Códec

Tanto para el vídeo como para el audio se utiliza una codificación especial para comprimir la información. Existen muchas maneras distintas de comprimir esta información y por eso hay multitud de códecs de vídeo entre ellos xvid, divx, h264, DV, etc. Para audio son wma, ac3, aac y el famoso mp3 entre otros.
Hay que señalar que un formato contenedor puede albergar información de vídeo o audio en distintos códecs pero todas las combinaciones no son compatibles. Por ejemplo un avi puede contener vídeo en xvid y audio en mp3, pero también podría estar en divx. Un wmv puede contener vídeo en wmv y audio en wma pero no contener un xvid. Un mp4 puede contener h.264 y un mov también puede contener h.264. Estos dos últimos son los más utilizados actualmente, mov para Apple y mp4 para el resto.
También hay que decir que los archivos AVI y MOV permiten contener vídeo sin comprimir, como las secuencias de imágenes que comentaba pero todo incluido en un solo archivo, con la desventaja de que perdemos la capacidad de reemplazar fotogramas que hayan sido corregidos posteriormente.

 

Compresión

Un vídeo sin comprimir tiene la ventaja de que contiene toda la información y calidad posible pero la desventaja de que ocupa un tamaño de almacenamiento muy elevado. Por ejemplo 1 minuto de vídeo sin comprimir a 25 fps y a una resolución HD de 1920x1080 ocupa cerca de 8,7 Gb. Si fuese un largometraje de dos horas ocuparía 1042 Gb (1 Tb). Algo totalmente inviable en la actualidad. Aunque el vídeo sin compresión puede tener utilidad para intercambiar material de un proyecto entre profesionales como pueden ser escenas sueltas.
Otro problema del vídeo sin comprimir es que requiere un ordenador con un sistema de almacenamiento muy rápido para poder leer y reproducir tal cantidad de información. Es por ello que al reproducir este tipo de vídeos se producen parones y saltos.

La solución consiste en comprimir el vídeo y también el audio como se verá más adelante.
El vídeo comprimido tiene la ventaja de que puede ocupar muy poco almacenamiento y por lo tanto requiere poca velocidad en el dispositivo de almacenamiento. La principal desventaja es la pérdida de calidad ya que comprimir significa eliminar información a no ser que se trate de compresión sin pérdida como veremos a continuación. Otra desventaja menos evidente pero no por ello menos importante, es que un vídeo comprimido requiere más potencia del ordenador ya que necesita realizar más cálculos para descomprimir y reproducir la información. ¿Alguna vez has descomprimido un ZIP o un RAR? Pues imagina tener que realizar ese proceso para cada fotograma, 25 veces por segundo mientras se reproduce un vídeo. Por este motivo, algunos ordenadores poco potentes tienen problemas para reproducir videos comprimidos.

Existen varias maneras de comprimir un vídeo. Lo podemos clasificar en dos grandes categorías: sin pérdida y con pérdida.

 

Compresión sin pérdida (o Lossless)

Como hemos dicho hay un tipo de compresión que no elimina la información para lograr que ocupe menos. Es el caso por ejemplo de una secuencia de PNG. El archivo PNG consigue reducir el tamaño de cada imagen pero mantiene la calidad original. Aquellos fotogramas con menos detalle se podrán comprimir mucho más y por lo tanto ocuparán menos espacio, mientra que si tienen muchos detalles ocuparán más. El RAW de una cámara es también una compresión sin pérdida en el que se almacena toda la información captada por el sensor.
Este tipo de compresión no es apta para una reproducción fluida ya que requiere mucha más potencia de cálculo que la compresión con pérdida. Se utiliza principalmente para trabajar con secuencias de vídeo a máxima calidad pero siendo más transportables que un vídeo sin compresión ya que ocupan menos espacio.

 

Compresión con pérdida (o Lossy)

Sería el caso de los conocidos mp4 (h.264), mov (h.264), avi (divx), wmv, etc. Estos vídeos han sido previamente comprimidos eliminando información prescindible hasta cierto umbral. Ese umbral, que configuramos a la hora de comprimir, nos permite decidir si queremos mayor calidad o menor tamaño de almacenamiento. Es lo que se conoce como bitrate o tasa de bits y cuyas unidades son bits por segundo o cualquiera de sus múltiplos: Kbps o Kb/s, Mbps o Mb/s, Gbps o Gb/s [4]
Por ejemplo, un vídeo cuyo bitrate sea de 3 Mb/s significa que cada segundo de vídeo ocupará 3 Mb. Un minuto de vídeo ocuparía 180 Mb. Dos horas de vídeo 21 Gb [5]. En este caso es un bitrate constante (CBR, Constant Bit Rate), es decir, la cantidad de información de cada fotograma es igual y constante.
También se puede utilizar un bitrate variable (VBR, Variable Bit Rate). Esto tiene la ventaja de que escenas que pueden ser muy comprimidas ocupen menos y otras que no puedan ser tan comprimidas ocupan más preservando los detalles. Por ejemplo, un fragmento de vídeo con colores muy lisos sin mucho detalle, una imagen desenfocada o una escena con muy poco movimiento puede comprimirse mucho sin perder apenas calidad, mientras que un fragmento con mucho detalle como pueda ser un bosque, o una escena con mucho movimiento, o con mucho ruido se podrá comprimir muy poco sin llegar a sacrificar de forma evidente la calidad. La compresión variable ofrece la ventaja de decidir, según el tipo de contenidos, si comprime más o menos. Esto maximiza la calidad con el mínimo espacio de almacenamiento posible. Para ello se especifican dos bitrates: uno base y luego uno máximo para esos picos que necesitemos más definición y por lo tanto menos compresión.

Como hemos dicho, a más bitrate necesitamos más velocidad de almacenamiento para poder reproducirlo correctamente. Algunos dispositivos tienen un bitrate máximo limitado al que pueden reproducir con fluidez por lo que deberemos ceñirnos a ello. Por ejemplo, un DVD tiene como estándar 7 Mb/s de bitrate constante (no permite variable).

Los vídeos comprimidos son adecuados para ser visionados mientras que los no comprimidos o poco comprimidos son adecuados para trabajar con ellos en edición y postproducción.

Demasiada compresión puede provocar artefactos visibles:

 

Vídeo muy comprimido

Vídeo poco comprimido
 

A continuación veremos otros tipos de compresión menos conocidos en el entorno del consumidor final pero muy presentes e importantes en entornos profesionales.

 

Submuestreo de crominancia

El ojo humano es más sensible a los cambios de luz que a los cambios de color. Este tipo de compresión aprovecha esa ventaja para eliminar definición del color manteniendo la de la luz. Si alguna vez observáis una numeración en las especificaciones de una videocámara tipo 4:4:4, 4:2:2, 4:2:0, etc., se refiere al submuestreo de crominancia o color subsampling, donde 4:4:4 es el máximo sin compresión y el resto contienen compresión. Esto es muy importante a la hora de rodar para efectos visuales. Una cámara que grabe sin comprimir a 4:4:4 es perfecta por ejemplo para realizar un chromakey (substitución de fondo verde o azul). Por el contrario si contiene compresión de color no se puede lograr un chromakey de calidad.

 

Entrelazado

Como ya hemos visto, el entrelazado es una forma de comprimir para poder lograr mayor velocidad de transmisión y reproducción pero actualmente está casi desaparecido por haber dejado de usarse los antiguos monitores y TV CRT.

 

Profundidad de color

Supongamos que tenemos 256 lápices de diferentes tonalidades de gris y con ellos pintamos una línea desde el negro más oscuro al blanco más claro. Obtendremos así un degradado de 256 tonalidades. Ahora bien, si en vez de 256 tenemos 1024 con distintas tonalidades de gris obtendremos un degradado mucho más definido en cuanto a la cantidad de tonalidades que representa. Pues bien, esta cantidad de tonalidades es lo que en digital llamamos bits por canal. Los canales más habituales que definen cada píxel de una imagen son los tres canales de color RGB (red, green, blue). Si para el canal rojo tenemos 256 tonalidades de rojo y lo mismo para el verde y azul, podremos realizar hasta 16,7 millones de combinaciones distintas, o lo que es lo mismo 16,7 millones de colores. Sin entrar en el porqué, diremos que esas 256 tonalidades por cada canal requieren 8 bits (28 = 256), concretamente 8 bits por canal o abreviado 8 bpc. Si el vídeo o la imagen está a 10 bpc (210 = 1024) tendremos una combinación total de 1073 millones de colores.
Con un vídeo a 8 bpc necesitaremos 24 bits para almacenar esos tres canales RGB de 8 bits cada uno. En ese caso se tratará de un vídeo a 24 bits de color o 24 bpp (bits por píxel).
Si está a 10 bpc, tendremos un vídeo a 30 bits de color aunque se ponen 2 bits adicionales para redondear a 32 bits.

Por lo tanto, a mayor número de bits de profundidad de color, mayor fidelidad de color pero también mayor espacio de almacenamiento y mayor consumo de potencia de cálculo. Aunque cabe decir que la profundidad de color no es propiamente un método de compresión, pero sí es un aspecto importante a tener en cuenta a la hora de evaluar la calidad, espacio ocupado y potencia necesaria para ser reproducido.

Pero existe una limitación importante y es que la mayoría de pantallas sólo pueden reproducir 8 bpc por lo que aunque tengamos una imagen a 10 bpc no podremos visualizar todos los matices.

 

¿Entonces para qué se trabaja a más de 8 bpc?

El resultado final siempre es mejor trabajando a mayor calidad para luego acabar reduciendo que trabajar directamente a la mínima calidad. Es por ello que en entornos profesionales de alta gama se utilizan carísimos monitores de 10 bpc para monitorizar correctamente el color en su máxima gama de colores.
Distintas profundidades de color

 

Un efecto muy visible por una insuficiente cantidad de colores es el llamado banding en el que se observan unas bandas muy definidas por ejemplo en un degradado de color.

Si no podemos visualizar a mayor bpc porque la pantalla no lo permita, la única manera de disminuir este efecto es aplicando ruido para “romper” las bandas. Tendremos la misma cantidad de colores pero las líneas de esas bandas no serán tan visibles. Esto es lo que se llama dithering.

 

Degradados a distinta profundidad de color y aplicando dithering



[1] Nota para ilustradores: siempre que se diseñe para vídeo ha de ser a 72ppp (píxeles por pulgada) y en RGB ya que está orientado a pantallas a diferencia del papel que se utiliza 300ppp y CMYK.
[2] Para consultar más resoluciones estándar visitar: https://en.wikipedia.org/wiki/Graphics_display_resolution
[3] A excepción de los vídeos en cintas magnéticas como pudieran ser las cintas DV pero prácticamente en desuso.
[4] Para pasar de Byte a Gigabyte hay que multiplicar por 1024 a cada cambio de unidad: 1 GB = 1024 MB, 1 MB = 1024 KB.
[5] Equivale a 2,62 GB de almacenamiento. La b minúscula es la abreviación de bit mientras que la B mayúscula es de byte. Un byte son 8 bits. Es por ello que hemos dividido entre 8 el espacio en Gb para obtener los GB. Un DVD de consumo tiene habitualmente un espacio de almacenamiento de 4,7 GB.