Cuenta
Favor esperar un momento.

¿No tiene cuenta? Haga su registro.

×

La importancia del monitoreo analógico

Este artículo destaca el valor de los procesos tradicionales de control técnico. Pantallas y parlantes de referencia, monitores de forma de onda, vectorscopios, medidores VU/PPM y monitores de fase de audio son, según su autor, amigos de la calidad.

Para quienes llevamos cierto tiempo en el negocio de la TV, hay una experiencia especialmente frustrante: volver a ver un producto añejo. Hace un par de meses me encontré con una repetición a media noche de cierto producto que ayudé a perpetrar en los ochenta y de cuyo nombre no quiero acordarme. Y aunque en su momento el superespecial en cuestión barrió con premios y críticas favorables, tuve que revestirme de honestidad y aceptar que para los estándares técnicos de hoy el producto es simplemente pésimo. La dramaturgia resulta sólida, el montaje (casi) impecable, el trabajo de arte simplemente sublime y el sonido decoroso… pero la imagen es horrible.

Hablé con mis compañeros de esa época y llegamos a la misma conclusión: la verdad es que pudimos haberlo hecho mejor. Por esos años no habíamos aprendido a manejar las truculentas relaciones entre las exigencias estéticas y las limitaciones del video. Y para alcanzar el look que el producto requería optamos por ignorar el vetusto monitor de forma de onda que nos acompañaba.

El resultado fue una pieza de 88 minutos con los negros completamente “aplastados”, cuyas perspectivas de reutilización en el mundo digital son nulas. Y ese no sólo es un problema técnico: constituye un asunto comercial. Tarde o temprano el valor histórico de la pieza va a generar ideas de relanzamiento… y alguien va a hablar muy mal de quienes estuvimos por ahí.

Monitorear o no monitorear…

- Publicidad -

Conozco operaciones de televisión muy exitosas que han tomado la opción del preset: todo se emite tal como llega. Es frecuente que en las emisiones de noticias se produzca ruido en el audio porque el video está saturado, o que las inconsistencias en los niveles de audio generen variaciones desagradables en la sonoridad de la señal emitida. Y cuando se toma la opción de procesar el material con fines estéticos se suele incurrir en excesos: niveles de crominancia suficientes para generar pérdidas de sincronismo vertical, o excesos en la ecualización del audio capaces de eliminar completamente la inteligibilidad de las voces.

Muy bien. Con el tiempo aprendí mi lección. Lo siento mucho, pero no puedo estar de acuerdo con esa actitud hacia el manejo técnico de señales de audio y video. Soy un firme creyente en el valor de los procesos tradicionales de control técnico. Pantallas y parlantes de referencia, monitores de forma de onda, vectorscopios, medidores VU/PPM y monitores de fase de audio son amigos de la calidad. Y con el tiempo y las notables mejoras en el desempeño de las cámaras de video, han dejado de ser enemigos de la creatividad.

El aseguramiento de calidad de señales de audio y video no es tarea fácil. Si hablamos de video compuesto deberíamos controlar rigurosamente niveles de luminancia, crominancia, fase de color (sólo en NTSC), integridad de pulsos de sincronismo, tres o cuatro aspectos de timing y asegurarnos también, mediante una buena pantalla, de que estamos entregando una imagendecente. Y el audio puede ser aún más exigente.

¿Por qué necesitamos controlar todos esos aburridísimos parámetros técnicos? Simplemente para asegurar que la distribución del material que nos han entregado sea exitosa.

Desarrollemos un poco esta idea. ¿Qué ganamos registrando en cinta una señal de video tan saturada que genera “chispas” en el playback?, ¿o “subiendo” el nivel de audio hasta extremos que generen una distorsión constante en las voces? Nuestros sistemas de distribución tienen límites, y la razón de controlar los parámetros técnicos de nuestras señales es asegurar que estos límites no se excedan. Eso justifica el esfuerzo de monitoreo técnico: ¿qué sentido tiene grabar o poner al aire material que el público no va a ver y oír correctamente?

Una nota adicional: muchos tienden a creer que el uso de canales y soportes digitales hace irrelevantes estas cuestiones, pero recordemos que lo que en ambientes analógicos es distorsión, en entornos digitales se convierte en clipping, en la supresión total de la señal incorrecta que, de hecho, es más notoria que los problemas analógicos de saturación o contaminación de pulsos.

Creo que en este punto puedo ponerle un cierre a la historia de mi producto con los negros “aplastados”. Gracias a lo que he aprendido en los últimos años, ahora sé que en muchas regiones del país el público debió soportar perturbaciones constantes de sincronismo vertical porque nos las arreglamos para generar una señal grabada con perturbaciones en el pedestal, completamente inadmisibles en un entorno NTSC. Definitivamente, hubiera sido mejor respetar al monitor de forma de onda.

- Publicidad -

A partir de este punto vamos a concentrarnos en el tema del video. El de niveles de audio puede manejarse mediante un esfuerzo de adecuación del rango dinámico de las señales para cada canal de distribución, tema que hemos cubierto en varias oportunidades en TV y Video.

Espacios y límites

Hay un nombre en inglés para los límites propios de un “espacio” de transporte de señales, y este nombre es absolutamente intraducible. La palabra en cuestión es gamut. Para muchos, el gamut constituye un parámetro absurdo que aparece en los monitores de forma de onda y que podemos ignorar tranquilamente porque cuando se prenden las alarmas no pasa nada.

Cuando empezamos a trabajar con equipos completamente digitales, descubrimos encantados que las cámaras nos permitían manejar colores más saturados sin introducir defectos evidentes, y que los soportes de grabación toleraban aumentos drásticos en el nivel de nuestras señales de audio, sin distorsión aparente.

¿Qué ocurría? Pues bien, mientras producíamos en un ambiente digital con un mayor rango dinámico en audio y video, nuestros espectadores seguían viéndonos en sus televisores de siempre, usando la misma red de transmisión basada en enlaces analógicos de video compuesto, audio comprimido y con las limitaciones de siempre en cuanto a modulación. Pero con el tiempo empezaron a llegar los problemas: esos colores fuertes aparecen al aire acompañados por una danza de puntos saltarines, y el audio con el rango dinámico aumentado suena tan mal como su equivalente analógico.

En esencia, el problema consiste en que los sistemas de producción basados en la norma CCIR-601/709 generan señales que tienen un rango de colores mayor del que pueden manejar los sistemas de video RGB o codificado, definidos por los estándares de TV en color de los años cincuenta —y en muchos casos una conversión directa de material entre el ámbito digital y el analógico genera señales con valores “ilegales”—. Es posible que las cintas de video “resistan” los excesos, pero “el aire” no perdona.

- Publicidad -

Ahora bien, ¿de qué dependen los valores de gamut que disparan las alarmas en nuestros equipos de medición? Fundamentalmente de los procedimientos usados para generar y transportar la información de color, conocidos como espacios de color. Por ejemplo, las cámaras de video y las computadoras modernas usan el mismo espacio de color, basado en el uso de señales independientes para los tres colores básicos de una mezcla de color óptico, el famoso sistema RGB.

Las variaciones de color que pueden acomodarse en el espacio de color RGB son más de las que pueden describirse en señales PAL o NTSC, las cuales utilizan un modelo de codificación de color mediante la combinación matemática de señales de diferencia de color, los famosos componentes Y/Pb/Pr.

¿Por qué se tomó la opción de adoptar un espacio de color nuevo, cuando el formato nativo de las cámaras de video era RGB? Por la necesidad de mantener la compatibilidad con los televisores en blanco y negro existentes en el momento de la llegada del color. La codificación de color por componentes es más económica en función del ancho de banda utilizado para transmisión, pero cuando se trata de emitir la señal o de registrarla en los sistemas de grabación más antiguos, las señales se someten a una nueva reducción en el espacio de color al convertirse en video compuesto –que maneja el color mediante un modelo conocido como HSL (Hue/Saturation/Level)– , que en algunas circunstancias reduce la cantidad de colores posibles a menos de 90.000.

Usemos un ejemplo sencillo para describir las consecuencias de la coexistencia de distintos espacios de color en nuestro ambiente de trabajo. Las cámaras son dispositivos RGB por definición, y generalmente hacen una conversión interna a una señal de video por componentes, lo cual genera riesgos de errores de gamut. Es posible que algunos fabricantes traten de legalizar sus señales, pero para otros la fidelidad es más importante, aunque se generen señales ligeramente fuera de estándar. En muchos casos necesitamos usar señales de video compuesto, lo que supone una conversión adicional y en numerosas ocasiones una generación adicional de errores de gamut.

Y recordemos que nuestros queridos televidentes siguen viendo nuestro material en televisores basados en video compuesto al mejor estilo de la década de 1950. Lo cual justifica todos los esfuerzos de monitoreo técnico que hagamos para adaptar nuestros productos a lo que los televisores pueden reproducir.

La verdad es que tomando mediciones a principios de los noventa, cuando coexistían en nuestras plantas de producción equipos de video compuesto y por componentes, hubiéramos encontrado una altísima incidencia de errores de gamut generados por la conversión directa de señales. Un conocido ingeniero colombiano dice que a su personal los equipos digitales le han calentado los ojos, refiriéndose a la tendencia generalizada a operar con niveles de crominancia más altos, que si bien funcionan perfectamente en sus cámaras y monitores, pueden tener efectos impredecibles en la emisión.

Hagamos una pausa para plantear una pregunta: ¿creen ustedes que la incidencia de errores de este tipo en nuestras plantas de producción ha aumentado o disminuido en los últimos años? Cada vez trabajamos con equipos que ofrecen un gamut más amplio, y cada vez otorgamos menos importancia al control técnico, yo diría que esto da para pensar un poco.

El precio de la digitalización

Las variaciones de espacio de color de las que venimos hablando son características de los sistemas analógicos de producción. Cuando empiezan a aparecer sistemas completamente digitales basados en las normas CCIR-601 o CCIR-709 –su equivalente para entornos HD– las inconsistencias de gamut tienden a agravarse.

El espacio de color CCIR incluye y excede el gamut característico de los modelos de color RGB/YUV/HSL usados en la industria de la televisión. Esto implica que los equipos basados en los patrones 601/709 siempre tienen el potencial de generar señales ilegales en los otros entornos. Y este potencial tiende a concretarse cuando los sistemas de producción se digitalizan totalmente y se hace más difícil ubicar los posibles errores de gamut.

En algunas operaciones se implementan prácticas de ingeniería que abordan el problema del gamut desde la producción, tratando de que el personal utilice ajustes que permitan generar señales válidas de video codificado. Y a veces se hacen ajustes “al vuelo” de los niveles de señal que no dan resultados óptimos, pero son mejor que nada.

Finalmente, en algunos casos se implementan procesos de legalización de señales en la cadena de transmisión, lo cual tiene sentido pensando en que el material producido en la actualidad podría se reutilizado cuando la transmisión se digitalice y efectivamente empecemos a emitir en espacios de color muy cercanos a los establecidos por las normas CCIR.

Pero la verdad es que en muchísimas operaciones de televisión este tema simplemente no se trata, y esta actitud genera condiciones menos que ideales para los usuarios de nuestras redes analógicas de transmisión, las cuales, por razones obvias, no van a ser objeto de mejoras importantes desde este momento hasta su apagón final en los próximos años.

Paradójicamente, al ignorar los límites propios de las señales codificadas y los sistemas de modulación actuales, estamos exigiendo más que nunca a nuestras redes, y castigando a televidentes cada vez más exigentes y además equipados con pantallas que permiten evaluaciones más críticas del desempeño de nuestras operaciones de transmisión.

Es inevitable que nuestras señales SD no se vean muy bien al escalarlas en una pantalla plana con resolución HD, y creo que es un hecho que el ruido analógico generado por los errores de gamut no ayudará a que el televidente se sienta contento en un escenario como ese, especialmente cuando puede apreciar la diferencia en calidad con la señal que le entrega un reproductor DVD-Video de US$25 conectado por componentes.

Recordemos también que estamos en competencia directa con operaciones de TV paga con equipos y personal de primera línea, y que el televidente común y corriente tiende a calificar como más graves los defectos de la TV abierta que los problemas de compresión propios de las plataformas de TV satelital. Quizás forzar nuestras redes con señales fuera de estándar sea una forma de contribuir al descrédito de la TV terrestre.

En los próximos años tendremos la imperiosa necesidad de aprender sobre nuevos sistemas de medición, que nos permitan asegurar la integridad de los flujos digitales que alimentarán los nuevos canales de distribución, pero mientras tanto seguimos produciendo y transmitiendo señales en banda base, y debemos seguirlas cuidando como siempre, usando los mismos sistemas de monitoreo para señales codificadas que hemos utilizado en las últimas cinco décadas.

En los próximos años, muchos de nosotros deberemos enfrentar complejos escenarios de simulcasting durante nuestra migración a sistemas digitales de transmisión, pero aún en esas condiciones seguiremos teniendo un cuello de botella en la transmisión, hasta que nos alcance el cierre definitivo de las operaciones analógicas. Por esto conviene empezar a asegurarnos de que nuestros espectadores vean nuestros productos en una versión adecuada a sus condiciones de recepción. Después de todo, ellos nos sostienen en el negocio.

¿Por qué tenemos que medir señales de video compuesto en entornos digitales?

Por Thom Belford, director de manejo de productos, Wohler Technologies.

Todos los frentes de la industria de la televisión tienen que manejar programas y material de archivo. Y en el fondo, constituye una cuestión de economía: el material de archivo generalmente es muy valioso, pero los costos de su migración a soportes digitales imponen la necesidad de mantenerlo en sus medios de almacenamiento originales, generalmente analógicos.

Esto genera la necesidad constante de transferir parte de este material archivado en formatos basados en video compuesto, video por componentes o video digital compuesto, a los formatos de producción actuales basados en arquitecturas de video digital por componentes para su uso en aplicaciones SD o HD, y además de conformarlo a los requerimientos de las cadenas de transmisión DVB o ATSC.

Por lo general, en una instalación completamente digital, el material de archivo es convertido de análogo a digital antes de incluirlo en un programa nuevo. Esta conversión requiere el mismo tipo de cuidado respecto a la integridad de la señal y el cumplimiento de estándares que se ha aplicado a las señales analógicas durante los últimos 70 años, más o menos. Y como siempre, esto implica que las imágenes y el color deben validarse usando un monitor de forma de onda y un vectorscopio correctamente sincronizados con una señal de referencia válida.

Por otra parte, los ambientes de producción completamente digitales siguen requiriendo el mismo tipo de medidas en varios puntos de las cadenas de señal. Los usuarios que hacen estas tareas, frecuencia menudo cuentan con múltiples instrumentos de medición, incluidos monitores de forma de onda y vectorscopios que aceptan indistintamente señales análogas y digitales.

Y de hecho, cuando se concrete el apagón analógico en Estados Unidos, todos los teledifusoras que sigan usando su infraestructura analógica deberán seguir validando la integridad de sus señales antes de someterlas a una conversión digital para transmitirlas en una portadora ATSC, lo que representa una necesidad real de seguir usando este tipo de dispositivos para monitoreo de señales análogas en los próximos años.

No hay ideas en “La importancia del monitoreo analógico”

• Si ya estás registrado, favor ingresar primero al sistema.

Deje su comentario

En respuesta a Some User
Suscribase Gratis
SUSCRÍBASE AL INFO-BOLETIN
¿REQUIERE UNA COTIZACIÓN?
ENTREVISTAS DESTACADAS

Visita a MEDIA5 durante NAB SHOW Las Vegas 2023

Entrevista con MOISES MARTINI Empresa: MEDIA5 Realizada por Richard Santa Evento: NAB SHOW Las Vegas Abril 2023

Visita a LIVEU durante NAB SHOW Las Vegas 2023

Entrevista con JOSÉ LUIS REYES Empresa: LIVEU Realizada por Richard Santa Evento: NAB SHOW Las Vegas Abril 2023

Visita a LEYARD durante NAB SHOW Las Vegas 2023

Entrevista con DIMAS DE OLIVEIRA - CAMILO MADRIGAL Empresa: LEYARD Realizada por Richard Santa Evento: NAB SHOW Las Vegas Abril 2023

Visita a LAWO durante NAB SHOW Las Vegas 2023

Entrevista con Noach Gonzales Empresa: Lawo Realizada por Richard Santa Evento: NAB SHOW Las Vegas Abril 2023

Visita a IGSON durante NAB SHOW Las Vegas 2023

Entrevista con IGOR SEKE Empresa: IGSON Realizada por Richard Santa Evento: NAB SHOW Las Vegas Abril 2023
Load more...
PATROCINADORES










ULTIMO BOLETIN
Ultimo Info-Boletin