Evento realizado no último dia 13, no Rio de Janeiro, demonstrou tecnologias como 8K, HDR e áudio imersivo Dolby Atmos
A Rede Globo e a SET realizaram no último dia 13 um evento no Museu do Amanhã, no Rio de Janeiro, para demonstrar as tecnologias que estão em desenvolvimento para a TV do Futuro. Com a Copa do Mundo da Rússia como pano de fundo, a emissora realizou transmissão 8K HDR, produziu com áudio imersivo Dolby Atmos, criou um fluxo de trabalho ATSC 3.0, aplicou plataformas híbridas OTT-Broadcast e trabalhou com conteúdo e publicidade customizáveis. Confira a reportagem em vídeo sobre todas estas tendências para os lares brasileiros.
Áudio Imersivo
Um dos principais destaques da transmissão realizada no Museu do Amanhã era o áudio imersivo em Dolby Atmos. Desenhado para fazer o espectador sentir-se na arquibancada de um estádio, o projeto foi realizado em uma parceria entre os responsáveis de áudio da Rede Globo e os técnicos da Dolby e da Yamaha no Brasil, que forneceram todos os equipamentos para mixagem e sonorização. Conversamos com Matheus Madeira, um dos cabeças por trás do projeto para entender um pouco melhor o trabalho.
Panorama Audiovisual: Qual setup de equipamentos foi usado na ação do Museu do Amanhã? Porque a escolha deste setup?
Matheus Madeira: Toda a iniciativa da ação partiu do Gabriel Ferraresso, da Globo. Já a concepção dos equipamentos de áudio e do projeto partiu do Giuliano Quiqueto da Yamaha, realizado em conjunto com a NEXO, Dolby e Globo. Utilizamos como “coração” de toda a mixagem uma PM10 completa, com 2x RPio622, sendo um deles de INPUT com 6x RY16-ML-SILK e outro de OUTPUT e AES/EBU, com 4x RY16-DA e 2x RY16-AE. O processamento de áudio ficou por conta do DSP-R10, que mixa até 144 canais por 108 auxiliares e recebia os sinais dos racks através de placas HY256-TL em cada equipamento, que usa o protocolo proprietário TWINLANe, da Yamaha. Utilizamos a superfície de controle CS-R10 e um computador com o Rivage PM Editor para ajustar o delay do sinal ao vivo em comparação com o vídeo. Além disso todo o sinal do auditório foi distribuído por protocolo Dante para os 20 canais de amplificação que utilizamos nos amplificadores NEXO NXAmp4x1 e NXAmp4x2, estes amplificadores fizeram o processamento das caixas também, utilizamos 5 stacks com 2x GEO M10 cada, 2x GEO M10 para os sides e 4 stacks fly com 3x GEO M6 para fazer o Top do Dolby ATMOS. No total tivemos um sistema ATMOS 7.1.4, um primor para aquele auditório.
PAV: Qual a ideia do desenho de áudio pensado na disposição das caixas e do projeto?
Madeira: O desenho e o alinhamento foi feito pelo Roberto Schopp, especialista América Latina da NEXO. Contratamos ele para ir ao Rio de Janeiro apenas para alinhar o sistema, trabalho que ele fez com muito critério e perfeição. Como resultado do projeto tivemos um sweet spot com um diâmetro de aproximadamente 10m, o que é impressionante dentro das situações comuns.
PAV: Como este desenho influenciou na mixagem?
Madeira: O Rubens A. C. Jr. (também conhecido como Rubinho), foi o operador de mixagem ao vivo do sinal vindo da Rússia. Ele destaca que a escolha de 4 stacks superiores é primordial para a experiência única de se sentir dentro do estádio. Temos o som da arquibancada atrás na altura do ouvido e acima da cabeça do ouvinte, assim como o som do PA do estádio vem na frente, mas de cima do ouvinte, o que cria uma situação mais real.
PAV: A mixagem foi realizada ao vivo no Museu. Qual era a quantidade de canais recebida pela geradora de imagens, quais eram eles e qual era a cadeia de processamento? Quantos canais eram na saída?
Madeira: Recebíamos 16 canais no total, era uma base Dolby ATMOS 5.1.4, os 4 microfones atrás dos dois gols para a arquibancada, uma cópia mono do PA do estádio e o canal da Narração em português, vinda diretamente da Globo. O sinal era mixado na PM10 e enviado para um conversor Dante/MADI chamado RMio64-D, que fez todo o sistema conversar com o processador da Dolby para realizar o ATMOS. Este processador mandava o sinal processado de volta para o RMio64-D em 3 grupos diferentes: Dolby ATMOS, Mixdown Surround e Mixdown Stereo. Todos estes canais foram endereçados para o sistema 7.1.4, que totalizou 12 outputs para os amplificadores via rede Dante.
PAV: Havia uma questão de atraso entre áudio e vídeo a ser resolvida na hora da mixagem. Este era o principal desafio da operação?
Madeira: Nós precisamos de dois operadores justamente para resolver o atraso de 8 segundos no sinal 8K de vídeo, que era feito de forma totalmente manual, pois não havia claquete antes de abrirem o sinal de vídeo para nós. Como precisávamos colocar esse delay por canal e na PM10 temos 1 segundo de atraso por canal, decidimos insertar 3x SPX em cada um dos 16 canais para realizar o delay necessário, pois cada SPX mono suporta 2,7s no máximo. O desafio era realizar isso durante o jogo sem atrapalhar o operador, mas graças a possibilidade de dois operadores trabalharem isoladamente na PM10, este problema foi resolvido primeiramente no console e depois mantido no Rivage PM Editor. O grande desafio mesmo foi trabalhar com 3 protocolos diferentes (Dante, TWINLANe e MADI) sem ter problema de Word Clock, por isso contamos com o Hélio Kuwabara, da Globo, que nos auxiliou a resolver todos esses problemas.
PAV: Qual a viabilidade técnica hoje para a realização de uma operação como esta a nível diário para produção?
Madeira: Viabilidade técnica sempre implica custo. Nesse quesito a Yamaha possui soluções de custo bem aceitável que mixam em surround e possuem funções essenciais para uma operação em algumas aplicações de broadcasting. A principal delas é a linha QL, que tem ganho muito espaço dentro de emissoras e UMs que necessitam uma solução de mixagem surround dentro das suas possibilidades financeiras. O grande desafio agora é deixar a operação em Dolby ATMOS ainda mais intuitiva para os produtores de conteúdo ao vivo, algo que hoje é resolvido através de saídas Matrix.
Comentários fechados.