HDR y video RAW brevemente explicado (1a parte)

En esta nueva serie desmitificamos y simplificamos los principales puntos de conversación del video moderno. Espacio de color, HDR y RAW.

Dos palabras de moda han sido lo más destacado de muchos programas de tecnología en este último año: HDR y RAW. En esta primera parte, intentaré aclarar algunos de los conceptos que rodean las señales de video, incluido el alto rango dinámico (HDR). En la segunda parte, cubriré más sobre las grabaciones de Cámara Raw.

Resultado de imagen para video signal HDR

Espacio de color

Cuatro cosas definen la señal de video moderna: espacio de color (también conocido como gama de colores), punto blanco, curva gamma y rango dinámico. La forma más fácil de explicar el espacio de color es con la gráfica triangular estándar del espectro de color, conocida como diagrama de cromaticidad.

Esta tabla define los colores máximos visibles para la mayoría de los seres humanos cuando se visualizan en una cuadrícula x, y. Dentro de él hay numerosas gamas que definen una gama de colores inferior a la completa para varios estándares. Estos representan los espacios técnicos de color que pueden alcanzar las cámaras y los sistemas de visualización. En la mayoría de los gráficos, los rangos más restrictivos son sRGB y Rec. 709. Lo primero es lo que muchas pantallas de computadora han usado hasta hace poco, mientras que la Rec. 709 es el estándar de espacio de color para TV de alta definición. (Estas recomendaciones fueron desarrolladas por la Unión Internacional de Telecomunicaciones, por lo que la Rec. 709 es simplemente una abreviatura de la Recomendación UIT-R BT.709).

Resultado de imagen para diagrama de cromaticidad

El siguiente es P3, un estándar adoptado para la proyección de cine digital y, más recientemente, nuevas pantallas de computadora, como las del Apple iMac Pro. Mientras que P3 no muestra sustancialmente más color que Rec. 709, los colores en los extremos de la gama parecen diferentes. Por ejemplo, el espacio de color P3 generará rojos más vibrantes con un tono más preciso que el Rec. 709 o sRGB. Con UHD / 4K convirtiéndose en la corriente principal, también hay un impulso para «mejores píxeles», que ha provocado Rec. estándar 2020 para video 4K. Este estándar cubre aproximadamente el 75% del espectro visible, aunque es perfectamente aceptable entregar contenido 4K que se calificó en Rec. 709 espacio de color. Eso es porque la mayoría de las pantallas actuales que son Rec. La compatibilidad con 2020 no puede mostrar el 100% de los colores definidos en este estándar todavía.

El punto central del diagrama de cromaticidad es blanco. Sin embargo, diferentes sistemas consideran que una temperatura de color ligeramente diferente es el blanco. La temperatura del color se mide en grados Kelvin. Las pantallas son una fuente de iluminación directa y para ellas, 6500 grados (más precisamente, 6504) se considera blanco puro. Esto se conoce comúnmente como D-65. El cine digital, que es una imagen proyectada, utiliza 6300 grados como punto blanco. Por lo tanto, cuando se entrega algo destinado a P3, es importante especificar si se trata de P3 D-65 o P3 DCI (cine digital).

color-modes-gamut-650.jpg
Diagrama triangular del espectro de colores que muestra los diferentes espacios de color.

Rango Dinámico

El espacio de color no vive por sí solo, porque el brillo de la imagen también define lo que vemos. El brillo (y el contraste) se expresan como rango dinámico. Hasta la llegada de UHD / 4K hemos estado viendo pantallas en SDR (rango dinámico estándar). Si piensas que el diagrama de cromaticidad es plano y dinámico como una columna que se extiende hacia arriba desde el gráfico en el eje z, puede ver rápidamente que el concepto puede considerarse como una combinación volumétrica de espacio de color y rango dinámico. Con SDR, esa «columna» va desde 0 IRE hasta 100 IRE (también expresado como 0-100 por ciento). Con la llegada de UHD / 4K, los usuarios también han introducido HDR (alto rango dinámico), que nos permite mostrar imágenes más brillantes y recuperar los elementos de rebasamiento en un marco, como luces brillantes y reflejos. Es importante entender que el video HDR no es lo mismo que la fotografía HDR. Las fotos HDR se crean capturando varias exposiciones entre corchetes de la misma imagen y luego combinándolas en un compuesto, ya sea en la cámara o mediante un software, como Photoshop o Lightroom. Las fotos HDR a menudo producen resultados hiperrealistas, como cuando se combinan elementos de cielo y paisaje de alto contraste.

Imagen relacionada

El video HDR es bastante diferente. La fotografía HDR está diseñada para funcionar con la tecnología existente, mientras que el video HDR realmente aprovecha la amplia gama de brillo posible en las nuevas pantallas. También es visible solo con la nueva generación de televisores UHD / 4K que son compatibles con HDR. La iluminación de la pantalla se mide en nits. Un nit equivale a una candela por metro cuadrado; en otras palabras, la luz de una sola vela se extiende sobre un metro cuadrado. Las pantallas SDR han sido capaces de mostrar hasta 100 nits. Las modernas pantallas de computadora, monitores y televisores de consumo ahora pueden mostrar un brillo en el rango de 500 a 1,000 nits e incluso más brillantes. Cualquier cosa sobre 1,000 nits es considerado HDR. Pero ese no es el final de la historia, ya que actualmente existen cuatro estándares en competencia: Dolby Vision, HDR10, HDR10 + y HLG. No voy a entrar en la maleza sobre los detalles de cada uno, pero todos aplican diferentes niveles de brillo y métodos. Sus niveles de nit son desde 1,000 hasta el límite teórico de Dolby Vision de 10,000 nits.

Resultado de imagen para hdr vs standard

El hecho de que tengas una pantalla de nits altos no significa que estés viendo HDR. No se trata simplemente de aumentar el brillo «a 11», sino de proporcionar el margen para ampliar las partes de la imagen que exceden el rango normal. Estos picos ahora se pueden mostrar con detalle, sin comprimirlos ni recortarlos, como lo hacemos ahora. Cuando se crea un master HDR, los metadatos se almacenan con el archivo que le dice al dispositivo de pantalla que la señal es una señal HDR y que debe activar los circuitos necesarios. Los metadatos se transmiten por HDMI. Por lo tanto, cada dispositivo en la cadena de reproducción debe ser compatible con HDR.

HDR también significa más hardware para trabajar con precisión. Aunque es posible que tengas un software de clasificación que se adapte a HDR y que tengas una pantalla de 500 nits, como las de un iMac Pro, no puedes ver HDR de manera efectiva para calificarlo correctamente. Esto aún requiere el hardware de captura / reproducción adecuado de Blackmagic Design o AJA, junto con un monitor HDR externo de calidad de estudio.

Resultado de imagen para hdr vs standard

Desafortunadamente, hay un pequeño secreto sucio con HDR. Los monitores y los televisores no pueden mostrar una imagen de pantalla completa con el brillo máximo. No pueden mostrar un fondo totalmente blanco a 1,000 nits en una pantalla de 1,000 nits. Estas pantallas emplean circuitos de ganancia para oscurecer la imagen en esos casos. La capacidad de respuesta de cualquier modelo de pantalla dado variará ampliamente dependiendo de la cantidad de pantalla que se encuentre en su brillo máximo y por cuánto tiempo. No hay dos modelos con exactamente el mismo brillo para un porcentaje dado en el nivel máximo.

Imagen relacionada
Las pantallas HDR pueden representar un rango de contraste mucho más amplio y más realista que los televisores tradicionales SDR

Hoy en día, HDR sigue siendo el «salvaje oeste» y los estándares evolucionarán a medida que el mercado se establezca en una preferencia. La buena noticia es que las cámaras han estado entregando contenido que está “listo para HDR” durante varios años. Esto nos lleva al RAW de cámara, que se tratará en la Parte 2, manténte al pendiente de las siguientes publicaciones y envíanos tus comentarios o sugerencias.

What's your reaction?
0Facebook