Guía Práctica

Hoy en día, y debido a los avances tecnológicos, trabajar con vídeo se ha convertido en algo bastante común para muchas empresas y particulares. El videólogo es una guía práctica que pretende acercar al mundo del vídeo a todos aquellos que quieran adentrarse en el campo de la edición a nivel profesional.

Luis Durán-Campos

La edición de vídeo

(VÍDEO BÁSICO)


Sería imposible concebir el cine o la televisión (tal y como lo conocemos) sin la edición. Hay muchos factores dentro de una producción audiovisual que se controlan desde el proceso de edición, pero podríamos decir que el control del orden la duración de los planos y el ritmo son los principales.
La edición de vídeo la podemos dividir en dos tipos (aunque personalmente, yo lo veo como dos etapas): la edición lineal y la no lineal. 

Edición lineal

Es la que se ha utilizado tanto en el cine como en el vídeo analógico desde sus inicios.
Esta forma de edición no permite cortar un fotograma de forma libre sin ningún orden, sino que sigue de forma secuencial a la grabación. Por ejemplo, si quisiéramos retocar o eliminar un fotograma que se encuentra en el intervalo 150, deberíamos pasar del 1 al 149, cortarlo y luego volverlo a unir. Este sistema conlleva una gran pérdida de tiempo a la hora trabajar con vídeo.

Edición no lineal

Con la edición no lineal, la forma de trabajar cambia radicalmente. A un golpe de ratón podemos ir a cualquier punto de nuestro material sin la necesidad de pasar por lo previamente grabado. Esto acelera enormemente el trabajo del editor, eliminando así el proceso de rebobinado. También hay que tener en cuenta que este tipo de edición es no destructiva; lo que significa que (al contrario que con la edición lineal) cuando manipulamos los archivos de vídeo, no manipulamos los originales.

Nota: Una edición no lineal siempre es digital, pero una edición digital no tiene porque ser no lineal.  Es decir, si trabajamos con un programa en el ordenador, tenemos una edición no lineal y por supuesto digital, pero si tenemos dos magnetoscopios un reproductor digital y un grabador digital lo que tenemos es una edición digital, pero en este caso lineal.
Programas
En la actualidad podemos encontrar gran variedad de programas para editar vídeo. El gran parecido que guardan entre sí, facilita a los editores el poder cambiar de uno a otro sin grandes trastornos. Final Cut, Avid, Adobe Premiere y Edius son algunos de los más populares a nivel profesional. Los interfaces de estos programas están dispuestos de forma casi idéntica, los cuales se dividen en cuatro áreas principales.
  • Ventana de proyecto (1): es donde se organizan tanto el material con el que vamos a trabajar como las secuencias.
  • Viewer o visor (2): como el propio nombre indica es donde visionaremos todo el material que más tarde añadiremos a nuestras secuencias.
  • Timeline o línea de tiempo (3): en esta área iremos ordenando y formando nuestro montaje.
  • Canvas o Visor de línea de tiempo (4): en el canvas podremos visionar como va quedando el timeline.

Screen capture of Final Cut Pro interface.

Fases en la edición
Dentro de la edición no lineal podemos distinguir tres fases claras:

Captura / Transferencia: Mediante este proceso pasamos nuestro material desde la cámara al disco duro del equipo en el que vamos a  trabajar.
Hablamos de “capturar” cuando extraemos el material desde una cinta, ya sea en una cámara o magnetoscopio, y de “transferir” cuando importamos archivos desde la memoria de la cámara. La captura es un proceso lineal.

Edición: Es la fase en la que trabajamos con nuestro material hasta obtener el resultado deseado.

Volcado / Exportado: Proceso por el que sacamos nuestro montaje definitivo una vez ya terminado.

Hablamos de “volcar” cuando el montaje final lo enviamos directamente a una cinta o DVD  y de “exportar” cuando lo sacamos en forma de archivo
 

Lo que hoy conocemos como edición de vídeo, es la forma más actual de llamar a lo que se ha conocido desde sus comienzo como "montaje". El término “montaje” viene del francés montage, que traducido al español viene a ser algo así como organizar o armar un todo.

El tiempo pasa, los términos se actualizan y los procesos cambian, pero a fin de cuentas, la esencia sigue siendo la misma. El paso de la edición lineal a la no lineal ha supuesto un gran cambio en la forma de trabajar, pero no podemos dejarnos atrás el hecho de que tanto una moviola como un Avid no son más que meras herramientas  creadas para un fin concreto; por lo tanto, no importa realmente que herramienta usemos ni como lo hagamos, siempre que el resultado al que lleguemos sea el deseado.

La compresión de vídeo (el MPEG)

(VÍDEO BÁSICO)
  

Como hemos visto en el artículo sobre las resoluciones, la información digital está relacionada por dos factores; la frecuencia de muestreo y la resolución en número de bits. Cuanto mayor sean estos dos factores mayor será el tamaño de nuestro archivo de vídeo. El gran ancho de banda que requiere el vídeo hace necesaria la compresión, sin la cual sería prácticamente imposible desde reproducir el vídeo a nivel doméstico, hasta editarlo a tiempo real con un equipo semi profesional.

Para muestra un botón: el vídeo SD sin comprimir, con un muestreo de 4:2:2, tiene un flujo de datos de 166 Mbits por segundo. Este mismo vídeo, tal y como lo vemos en televisión hoy en día, tiene una compresión MPEG lo que reduce su tasa de bits a 3,5 Mbits por segundo. En el caso del HD (720p) estas cifras se multiplican por 16.

En este artículo me gustaría abordar de la forma más sencilla posible un concepto básico con el cual convivimos todos aquellos que nos dedicamos al vídeo y que a veces,  no terminamos de tener del todo claro, la compresión.


Compresión

El tipo y la cantidad de compresión depende mucho de la aplicación a la que vaya destinada. A mayor compresión, menor será la cantidad de información obtenida.  En el proceso de compresión hay dos conceptos a tener en cuenta; la redundancia y la entropía.
  • Redundancia: son los que llamamos datos repetitivos o predecibles.
  • Entropía: es lo que conocemos como información fundamental.
Lo que hacen los sistemas de compresión es básicamente eliminar la información que se percibe con menor claridad, información redundante.


Compresión intraframe (espacial)

El ser humano es más sensible al cambio de brillo (luminancia) que al cambio en el color (crominancia).  Para aprovechar esta percepción del ojo humano se utiliza un algoritmo llamado “DCT” (Discreet Cosine Transform) Trasformada Discreta del Coseno. Este tipo de compresión se usa, por ejemplo en la compresión JPEG para imágenes estáticas y en la compresión DV para vídeo. Esta compresión se conoce como intraframe o espacial porque usa los píxeles en el espacio.

El algoritmo DCT analiza las imágenes interpretando como único dato aquellas que son muy similares. La compresión JPEG para fotografías y la DV para vídeo usan este algoritmo.

Compresión interframe (temporal)

La compresión interframe analiza lo que cambia de un frame a otro, de esa forma se puede enviar sólo la información de movimiento, la cual se envía en forma de cuadros P (predictivos) y cuadros B (bidireccionales), estos cuadros contienen mucha menos información que los cuadros que contienen imágenes completas, cuadros I (Intraframe).

Secuencia de cuadros I, B y P.  Cada secuancia de cuadros entre cuadros I se denomina GOP (Group Of Pictures).

Los cuadros I se envían sólo unas pocas veces por segundo, siendo el resto cuadros P y B. Esto hace que en un segundo de vídeo (con compresión interframe) el flujo de datos sea mucho menor de lo que sería si ese segundo estuviese compuesto solo por cuadros I

Los cuadro I tienen la información completa, los cuadros P y B contiene la información que cambia.

Los procesos de compresión, ya sean espacial o temporal, están compuestos por una fase de compresión o codificación, y otra de descompresión o descodificación. Todos  los sistemas de compresión incorporan un codec (codificador/decodificador) que es el encargado de llevar a cabo este proceso.

La compresión MPEG utiliza las dos técnicas de compresión (intraframe e interframe) a la vez,  la cual la hace reducir los flujos de datos hasta niveles muy bajos.


La compresión MPEG

MPEG viene de Moving Pictures Expert Group (Grupo de expertos en imágenes en movimiento). Este grupo de expertos del sector está formado por más de 350 miembros de distintas industrias dedicados a definir estándares para imagen en movimiento y sonido (entre otros). Desde 1988 han formalizado varios formatos de compresión.

MPEG-1
  • Este fue el estándar inicial de compresión de audio y vídeo.
  • A partir de 1993 se usaría como la norma de VCD (Vídeo CD).
  • La calidad de salida del VCD es similar a la de un VHS, con una resolución de 352x288 píxeles.
  • En estos momentos, su codificación de audio en el nivel 3, es una de las más populares en el mercado de consumo; el MPEG-1 layer 3 más conocido como MP3.

MPEG-2
  • Este sistema de compresión, se diseñó para su uso en la transmisión de vídeo y audio con relaciones de compresión muy altas.
  • Tiene una gran importancia en el sector audiovisual. Se utiliza para DVD, para prácticamente todas las transmisiones de Televisón Digital del mundo, tanto SD como HD y para todas aquellas aplicaciones que necesiten una relación de compresión de vídeo alta.
  • La compresión MPEG-2 es asimétrica, lo que hace que el proceso de codificación sea mucho más complejo.  El formato HDV utiliza el MPEG-2, lo cual hace que a la hora de la captura con un software de edición esta sea más compleja.

MPEG-4
  • Fue desarrollado en1998, y toma muchas de sus características del MPEG-1 y el MPEG.-2.
  • La codificación es más compleja que la del MPEG-2, pero más efectiva, capaz de reducir los datos hasta un 30%; aprovechando  mayor información en menor ancho de banda.
  • Los formatos AVC-Intra de Panasonic y el doméstico AVCHD de Sony y Panasonic usan compresión MPEG-4 AVC/H.264. Los reproductores de Blue Ray son también compatibles con la compresión MPEG-4 AVC/H.264.

El MPEG-1 MPEG-2 y MPEG-4 están orientados a la correcta compresión  de vídeo.

Resoluciones y definiciones

(VÍDEO BÁSICO)


La resolución de un material es algo a tener muy en cuenta antes de comenzar a hacer un vídeo. Actualmente, la mayoría de las cámaras ofrecen diferentes opciones en cuanto a resolución, exploración e imágenes por segundo del material que queremos capturar. Factores como cuál será el destino de nuestro vídeo, el espacio en disco del que disponemos,  o la potencia de nuestras herramientas de post-producción entre otros, pueden ser claves para decidirnos por una resolución u otra. Es por eso que me gustaría dar un breve repaso por todas las resoluciones que nos podemos encontrar a día de hoy.

Diferentes resoluciones de vídeo digital.

SD (Standard Definition)  
(Definición Estándar) 

El vídeo SD se ideó como equivalente digital a los sistemas analógicos de televisión. Hay que partir de que tanto PAL como NTSC son formatos analógicos. No obstante, esta misma nomenclatura se sigue utilizando en vídeo digital, sólo que en este caso hace referencia al número de imágenes por segundo y a la resolución en píxeles.
  • NTSC: 720 x 480
  • PAL: 720 x 576
El primer número siempre determina el número de píxeles en horizontal y el segundo, el número de pixeles en vertical. Por lo cual, una imagen PAL tiene 720 píxeles en horizontal y 576 en vertical.

HD (High Definition)
(Alta Definición)

Al contrario de lo que muchos creen, no hay un significado específico para definir lo que es un vídeo en "Alta Definición". Por lo cual, cualquier formato  con mayor resolución a PAL (en Europa) o NTSC (en América) se podría considerar HD. Normalmente, se suele contar con que cualquier video HD parta de un mínimo de 720 píxeles en horizontal, aunque hoy en día muchos formatos HD superan con creces este parámetro.

En los últimos años han sido muchos los avances logrados dentro del campo del vídeo digital; creando vídeos con mayor resolución y por lo tanto mayor definición.

En 1991, SMPTE (The Society of Motion Pictures and Television Technology) crea el primer estándar para la televisión de alta definición. Hoy en día la resoluciones estándar en HD son tres:
  • 720p: 1280 x 720 (progresivo)
  • 1080i: 1920x1080 (entrelazado)
  • 1080p: 1920x1080 (progresivo)
Actualmente, la mayoría de canales de TV emiten en algunos de estos tres formatos HD. Tanto al 1080i como el 1080p se le conocen como Full HD.

El HD en el cine

Realmente y por definición, un vídeo en 2K puede ser cualquier vídeo que supere una resolución de 2.000 píxeles en horizontal. Decir que un dispositivo graba en 2K no implica necesariamente que este tenga una resolución determinada. No obstante, el "Cine Digital" en HD se ha marcado como 2K una resolución de 2048 × 1080 píxeles. Actualmente, esta resolución es en la que se proyectan la mayorías de películas grabadas en digital.

Más adelante profundizaré en las diferencias, pros y contras de cada formato HD.

UHD (Ultra High Definition)
(Ultra Alta Definición)

El UHD  se conoce también como UHDTV o Ultra HD. Aquí es donde ya empezamos a tener la gran lluvia de formatos  que rebasan los 4.000 píxeles en horizontal. Aunque  cada vez vamos teniendo más diversidad de resoluciones por encima de los 4K, son dos las resoluciones que definen el formato UHD o UHDTV:
  • UHDTV  4K (2160p),  con una resolución 3840 x 2160 píxeles, siendo cuatro veces mayor que el Full HD 1920 × 1080.
  • UHDTV 8K (4320p), con una resolución de 7680 x 4320 pixeles, la hace 16 veces mayor al 1080p HDTV. Es verdad, que aunque esta resolución se considera 8K, no llega exactamente a los 8.000 píxeles horizontales.
El Cine Digital también tiene sus formatos 4K y 8K,  siendo estos algo diferentes en dimensiones a los UHDTV. El 4K en cine digital tiene una resolución de 4096 x 2160 y el 8K de 8192 x 4608.




El vídeo digital

(VÍDEO BÁSICO) 

El paso del analógico al digital ha causado una verdadera revolución en el mercado audiovisual (entre otros). Se puede decir que entre las principales razones de esta gran transición se encuentran el abaratamiento en los costes de los equipos digitales, el poder de manipulación de estos formatos y su gran fidelidad a la hora de hacer copias. Prácticamente, el analógico ha desaparecido tanto de las casas como del sector profesional (con algunas excepciones). Por lo tanto, y antes de seguir adentrándome en conceptos de vídeos algo más avanzados, he pensado que no estaría mal hacer hincapié en las bases de la tecnología digital aplicada al vídeo.
 
Coméncemos por el “bit”

El “bit” (Binary Digit  o digito binario) representa la unidad básica dentro del mundo digital . Un “bit” puede tener dos valores; encendido y apagado o lo que es lo mismo 0 y 1. Un conjunto de 8 bits forma 1 Byte. Los bits se representan con la letra “b” minúscula  y los Bytes con la “B” mayúscula.
Me gusta siempre usar este ejemplo para explicarlo, digamos que si comparamos el lenguaje digital con un idioma; el bit sería a una letra y el Byte a una palabra.
 

Representación gráfica de un "bit" y un "Byte".

El sistema binario nos ha permitido entre otras cosas, hacer copias con ausencia total de pérdidas, pero aparte de esta gran ventaja, se puede hacer una pequeña lista de pros que ha traído el digital al campo del vídeo:
  • A la hora de la reproducción, la calidad del vídeo digital es independiente al soporte que se utilice.
  • Las copias de archivos digitales son completamente idénticas a sus originales.
  • En la señal de vídeo digital los errores son fáciles de detectar. En gran parte de los casos el sistema de corrección de errores se encarga de repararlos.
  • Igualmente, enviar señal de vídeo digital a largas distancias se convierte en un proceso más sencillo, y como ya mencioné antes; sin perdidas.

Conversión de analógico a digital

Realmente, todas las cámaras de vídeo captan las imágenes de forma analógica. Es un paso después de la captación, cuando se produce la conversión a digital

La señal de vídeo se digitaliza en dos partes; por un lado la luminancia y por otro el color.  Actualmente existen dos normas internacionales que especifican los parámetros de la televisión digital; la ITU-R BT601 para SD (definición estándar) y la ITU-R BT709 para HD (alta definición). Ambos sistemas definen sistemas con resolución de 8 bits (con 256 niveles de precisión) y 10 bits (con 1024 niveles de precisión).

Cómo anteriormente mencioné en el articulo sobre los sistemas de televisión; cada imagen de vídeo analógico se descompone en líneas, pero en el caso del vídeo digital, tenemos que hablar de píxeles, siendo estos la unidad mínima en una imagen digital. La palabra “pixel” viene de Picture element” o lo que es lo mismo; elemento de la imagen. A mayor número de píxeles, mayor será la resolución de una imagen.  Por ejemplo, en el caso del PAL con una resolución de 720 x 576 píxeles, el primer número nos indica el número de píxeles en horizontal de la imagen y el segundo, el número de píxeles en vertical. Por lo cual, el vídeo PAL tiene un tamaño de 720 píxeles horizontales y 576 píxeles verticales. 

El proceso de conversión de  analógico a digital, tiene tres partes: preparación, muestreo y digitalización.

Preparación
Todas las cámaras digitales tienen ADC "Analogic Digital Conversor" (conversor de analógico a digital). La preparación no es más que la forma de hacer llegar la señal analógica al ADC de la forma más adecuada. En este caso, la pureza de la señal que llegue al ADC dependerá de la calidad del equipo utilizado y del sensor, este último se encarga de transformar la señal de luz en señal eléctrica.


(De izq. a der.) Sensor CCD y sensor CMOS encargados de transformar la luz en señal eléctrica.
Muestreo
Una vez la señal eléctrica ha llegado a los ADC, se toman muestras de la misma. A mayor número de muestras, mayor será la fidelidad y el parecido a la imagen captada originalmente. 

Digitalización 
Una vez terminado el muestreo de la señal, los datos se codifican y transforman a digital. Por lo cual, lo que comenzó siendo una señal analógica se acaba convirtiendo en un archivo formado por ceros y unos.  

 Le voilà ! después de estos tres pasos ya tenemos nuestro vídeo digital.





Sistemas de televisión

(VÍDEO BÁSICO)


Los sistemas de televisión analógicos están prácticamente desapareciendo y dejando paso a la televisión digital. No obstante, creo que para poder entender la televisión digital es imprescindible conocer la televisión analógica.


La señal de vídeo analógico está compuesta por dos informaciones, la información de luminancia (Y) y la de crominancia (R-Y) (B-Y)
Luminancia (Y): Es la información en blanco y negro. Está codificada en escalas de grises.
Crominancia (R-Y) (B-Y): Es la información de color. Se obtiene partiendo de los tres colores primarios; rojo, verde y azul (RGB). Aunque estos colores primarios son tres, la crominancia solo lleva la información de rojo y azul. El verde se obtiene por deducción, de ahí que la información de crominancia se la nombre como (R-Y) = (Rojo – Luminancia ) y (B-Y) = (Azul – Luminancia).
Usando esta fórmula y mediante deducción, se obtiene la información del color verde.

Dependiendo de la señal, podemos dividir los sistemas de TV en tres grandes bloques; NTSC, PAL y SECAM.

NTSC:
  • Desarrollado a mediados de 1940 en EE.UU.
  • Su frecuencia es de 30 imágenes por segundo (60 campos).
  • Tiene de 525 líneas.
  • El gran inconveniente del NTSC es la cantidad de interferencias que produce. La señal tiende a deteriorarse en los tonos de color, sobre todo en el color de la piel. Como broma, se solía decir que “NTSC” eran las siglas para: “Never the same color” (Nunca el mismo color).
PAL:
  • Surge en Alemania en 1963, intentando mejorar el sistema NTSC. 
  • Su frecuencia es de 25 imágenes por segundo (50 campos). 
  • Tiene 625 líneas 
  • El PAL es un sistema mucho más estable que el NTSC (Sobre todo en cuanto a la señal de color).

SECAM:
  • Nace en Francia en 1967. La idea no era tanto la de mejorar el formato NTSC como la de crear un sistema diferente al estadounidense.
  • Frecuencia de 25 imágenes por segundo (50 campos)
  • Formada por 625 líneas
  • Es solo un formato de transmisión de vídeo y formato de grabación en VHS. Este formato nunca se llegó a utilizar en DVD. Los DVD de la zona con sistema SECAM son masterizados en PAL.

NTSC, PAL y SECAM son sistemas de trasmisión de televisión entrelazados.


Mapa de sistemas de televisión en el mundo.
 

El analógico (doméstico)

(DE ANALÓGICO A DIGITAL)
 

Hubo que esperar hasta los 70 para la llegada del primer magnetoscopio doméstico; el Betamax, de Sony.  Este dispositivo permitía grabar la emisión de un canal de televisión mientras se veía otro diferente. Poco después JVC, intentando competir con Sony, saca el VHS (Video Home System). Y a finales de los 70, entran a escena los holandeses de Philips con su “Video 2000”. La guerra de formatos había comenzado.


La guerra de formatos

Se puede de decir que esta batalla por conquistar el mercado doméstico se desarrolló en dos niveles diferentes: primero entre grabadores/reproductores, y más tarde entre cámaras.

Grabadores/reproductores

Paradójicamente, el primero en salir de trifulca fue Philips. El “Vídeo 2000” era un formato mucho más innovador y tecnológicamente superior al de los japoneses, JVC y Sony. Principalmente, la demora en la entrada al mercado  hizo que el Video 2000 no pudiese hacerle sombra a ninguno de sus dos competidores. Así pues, a mediados de los 80 comenzó a fabricar dispositivos VHS.
La producción de Video 2000  se inició en 1979 y finalizó en 1988.

JVC vs Sony
(o lo que es lo mismo; VHS vs Betamax)

El pulso entre VHS y Betamax se mantuvo durante varios años. No obstante, VHS se fue haciendo más fuerte día a día y a finales de 1988, VHS copa el 95% del mercado. Rindiéndose  a los datos, Sony cede definitivamente a la presión del mercado y anuncia la producción de grabadoras en formato VHS. Desde entonces y hasta la llegada del DVD, VHS se convertiría en el formato estándar.  No obstante Sony siguió produciendo Betamax hasta el 2002, año en el que detuvo la producción definitivamente. 

De izq. a der. grabadores de "VHS", "Betamax" y "Vídeo 2000".







Cámaras                                                               

A principios de los años 80 se lanzan al mercado las primeras cámaras con grabadoras de vídeo. En este caso la lucha sería más intensa que con los grabadores. Tanto Sony como JVC mantuvieron un "tira y afloja" por hacerse con el mercado de las cámaras de vídeo.

1983 - Sony lanza el primer dispositivo la "Betamovie" (sería el primer “camcorder”). Una cámara que usaba el formato Betamax.

1984 - JVC saca su primera cámara, la GR-C1 (de menor tamaño que el camcorder de Sony). La CR-C1 utilizaba el formato VHS, pero en cintas de menor tamaño; VHS-C (VHS-Compacto). Este formato podía reproducirse en cualquier grabadora VHS con la ayuda de un adaptador.

1985 - Sony, al ver la reducción de tamaño de los equipos VHS, contraataca  con una cámara aún más pequeña. La "handycam" de Sony reducía el ancho de cinta de 12 a 8 mm. Esta reducción de ancho de cinta, hizo que los equipos también fuesen más pequeños. Había nacido el "Video 8" también conocido como 8mm). El "Video 8" se consolidó y dominó el mercado durante los siguientes años.

De izq. a der: cámaras de "Betamax", "VHS" y "Video 8".












Las resoluciones de los formatos domésticos ofrecían prácticamente la mis calidad, unas 240 líneas. A lo que JVC y Sony respondieron con una mejora de sus respectivos formatos:

De VHS a Super VHS
De 8mm a Hi8
  
En este enlace podéis encontrar un repaso a la evolución de los principales formatos de vídeo domésticos.