Realizar ‘Avengers: Endgame’ para IMAX requirió una cámara 6k personalizada

Una cámara de 6K capturó más de los superhéroes que lo que requiere la pantalla.

A estas alturas, es posible que ya hayas visto el video publicado por IMAX que muestra una presentación teatral estándar de los Avengers: Endgame teaser junto a cómo aparecen las mismas imágenes en IMAX. Pero como muchas cosas relacionadas con IMAX, es realmente difícil comunicar la experiencia en otros medios (como un clip de YouTube). Y aunque verlo en una pantalla estándar seguirá siendo emocionante, no es exactamente la misma experiencia.

Resultado de imagen para avengers end game imax arri alexa

Brian Bonnick, director de tecnología de IMAX, dice que el proceso exacto de ingeniería de una película para la gran pantalla de IMAX es exclusivo, pero los cineastas deben comenzar a pensar en la presentación antes de comenzar a filmar. Para el equipo directivo de Russo Brothers, su experiencia IMAX comenzó tentativamente. Usaron una versión digital personalizada conjunta de la entonces nueva cámara de gran formato de ARRI, la Alexa 65, para grabar el enfrentamiento de superhéroes del aeropuerto en el centro de Capitán América: Guerra Civil en 2016. Las cámaras claramente dejaron una impresión, ya que el dúo decidió rápidamente usarlos para grabar a todos los Avengers: Infinity War y Avengers: Endgame.

Imagen relacionada

La Alexa 65 en realidad tiene la capacidad de capturar más datos de los que la mayoría de los sistemas pueden procesar, pero esa información adicional sigue siendo útil. «En la última película de Christopher Nolan [Dunkerque], quería un detalle infinito enfocado en una toma, así que eligió una cámara basada en una película con una resolución de 18K», explica Bonnick. “A pesar de que el proyector es 4K, utilizamos esos datos adicionales para mejorar la calidad de la presentación. Es una técnica llamada ‘sobremuestreo’. Alexa es un 6K por aproximadamente 3K píxeles, por lo que está tratando con más de 4K en datos, pero usamos esos datos en un proceso de postproducción que está diseñado para usar cada píxel en el proceso de mejora ”. Tomar muestras de demasiada información es mucho más fácil que tratar de extrapolar desde una captura de menor resolución o estirar una toma existente.

 

Los datos adicionales se extienden a la captura de sonido también. Como explica Bonnick, normalmente cuando el sonido se captura en el set, por ejemplo, para una explosión masiva, el extremo inferior del audio se graba, pero se extrae en la postproducción porque la mayoría de los sistemas no son capaces de reproducir frecuencias bajas sin distorsión “Gestionamos toda la mezcla de sonido de forma diferente. No es un sistema de 5.1 canales. Empleamos lo que se llama PPS, o sonido de fuente de punto proporcional «. Este sistema crea lo que se denomina» imágenes fantasma «; en realidad puedes dirigir exactamente de dónde quieres que provenga un sonido al triangular tres altavoces (todos los cuales tienen una señal o rango completo para dar la ilusión de un origen de sonido preciso. «Se puede escuchar el disparo de un cañón y la caída de un alfiler», dice Bonnick. «Es por eso que la idea de la» cadena alimentaria «es tan importante».

 

What's your reaction?
0Facebook