SET SUL: IA Aplicada à produção de conteúdo debatida em Santa Catarina

A inteligência Artificial (IA), disse Cauê Franzon da RBSTV, “é um dos temas do momento”, que junto à TV 3.0, são os assuntos mais falados no setor de mídia, por isso a sua relevância do tema e importância de colocá-la na agenda da Regional Sul.

O painel “IA Aplicada à produção de conteúdo”chamou a atenção da platéia do SET Sul que se realiza em Florianópolis, e que foi moderado por Cauê Franzon, Gerente Executivo de Tecnologia de TV e Rádio da RBSTV, e contou com a presença de Clecio Roberto Vieira da Silva, Executivo de Contas de Produtos Profissionais da Canon Brasil, Felipe Semprine, Engenheiro de Sistemas da Convergint, Giancarlo Paul, Engenheiro de Serviço ao Cliente Sênior da Sony, Felipe Andrade, VP de Vendas da CIS Group e Mauricio Belonio, Diretor da Alliance.

O primeiro a falar foi Vieira da Silva, que disse que a “Canon utiliza deep learning – soma de tecnologias -, para facilitar a produção audiovisual”. Ele avançou para explicar a funcionalidade do Dual Pixel AF, no qual o próprio sensor cria uma espécie de paralaxe que “ajuda no foco”, ou seja, “para ter certeza que a resolução de captação seja 4K, é preciso ter autofocus na imagem para melhorar a qualidade de vídeo. Um dos principais pontos é o reconhecimento facial por sensor para assim ajudar na melhoria de imagem, e assimter a capacidade de ter autofocus (AF) por reconhecimento de íris”.

Ele disse que “hoje temos sensores, por exemplo, em câmeras mirrorless que se movimentam, ou em câmeras PTZ que usam autotracking e reconhecimento facial, e que permitem seguir objetos ou pessoas”. Na sequência, Giancarlo Paul da Sony disse que a empresa tem “embarcado no sensor, no CMOs das câmeras, a inteligência artificial baseada em autofocus, para assim extrair o corpo humano como inteiro”. Por outro lado, disse o executivo, aproveitando o conhecimento na cena, a Sony utiliza em uma câmera de cinema o AI Driven realizando crops de imagens. Ele ainda falou da tecnologia de AI auto framing que permite a detecção de objetos, pessoas, faces e movimentos.

Paul ainda falou da solução “Camera Authenticity Solution, C2PA compliance”, uma solução que, através de reconhecimento de volumetria, vai determinar se essa imagem é real ou não, e vai “certificar a imagem”, e ainda vai “manter o histórico, e assim certificar que esse conteúdo foi efetivamente gerado por uma pessoa e não por uma máquina”. Para finalizar, o executivo da Sony comentou sobre a solução de produção remota A2P, AI Bases Automation Production, que permite reduzir a quantidade de pessoas em produção ao vivo de eventos esportivos.

Felipe Semprine, da Convergint, começou a sua fala se perguntando para que serve a IA. Segundo ele, a IA “oferece a possibilidade de redução de custos, ganho de agilidade e de tempo nos processos”, dando “às equipes mais tempo para se concentrar em projetos criativos sem ser sobrecarregadas por tarefas monótonas, que podem ser executadas por estas ferramentas”.

O executivo disse que as soluções de IA Generativa são muito utilizadas no vídeo, sendo que já existem mais de 100 produtos de mais de 90 empresas, e que 34% são utilizados na Mídia e Entretenimento; 65% em Produção de vídeo; 59% utiliza texto como um input, e 58% retorna como output imagem ou vídeo. Segundo ele, Inteligência Artificial no MAM é uma das maiores utilizações da atualidade, enriquecendo e dando maior precisão no input dos dados. Ele afirmou que o Machine Learning não substituirá ninguém da equipe, mas servirá como suporte para ter uma diminuição na carga de trabalho”, permitindo “aprimorar a experiência do usuário, acelerar a produção e processamento do conteúdo, além de simplificar a operação e minimizar os erros”.

Pela Alliance, Mauricio Belonio avançou para um percurso histórico da IA e explicou detalhadamente a interpolação de Frame com IA, convertendo uma imagem de 50/60 fps para 150/160 fps da EVS e assim ver como a IA pode ser aplicada na produção ao vivo.

Continuando com o esporte e as ferramentas da EVS, explicou como realizar replays ao vivo com IA nos quais o foco está na criatividade sem os limites impostos pelos tipos de câmera, e assim, com Frame-rate, tempo de exposição, abertura e distância focal independente da definição de plano de câmera. Ele ainda falou do zoom Digital Inteligente para “close” virtual, que “permitemostrareventosnãocaptadospornenhumacâmerafechada”, e do efeito cinemático que é um recurso em produções High-End para criar “cinematic effect”.

O VP de Vendas da CIS Group, Felipe Andrade, fechou o painel falou de casos práticos de testes feitos com a Globo, a Record e a TV Cultura, para dessa forma falar de IA aplicada à produção de conteúdo. Em termos de jornalismo, Andrade disse que pode ser utilizada a IA Multimodal na qual se usa uma quantidade de soluções que façam que a plataforma imite. É uma espécie de percepção humana de um vídeo gerando TAGs, garantindo que a IA “identifique instantaneamente qualquer vídeo” permitindo “uma procura semântica”, “encontrando as melhores citações, ou, por exemplo, criar momentos personalizados”.

Em termos práticos, mostrou um exemplo do acervo da TV Cultura, que, utilizando IA Multimodal, traz “informações, separando sequências e citações dentro do conteúdo”, além de transcrições do que foi falado, com sincronização de fala que pode ser transcrito para outros idiomas.

Andrade disse que “a IA vai acelerar os processos, mas não vai substituir a decisão humana, e que o co-pilot permite oferecer ajudas aos usuários”, e, para isso, falou de soluções de chatbot de ajuda, de soluções editoriais baseadas em texto, e que a ferramenta sugira imagens para incorporar na edição de por exemplo, uma revista”.

O SET Sul tem o patrocínio de Alliance, Canon, CIS Group, Convergint, SES, Sony, Speedcast, Pinnacle/Blackmagic, Embratel e Youcast. Ainda conta com o apoio de IF Telecom, LM Telecom, Propaga Consultoria, SM Facilities e Teletronix. E o apoio institucional a ACAERT e NSC.

Por Fernando Moura e Tito Liberato