Eficiência de ferramentas digitais para desmascarar vídeos fraudulentos ainda deixa a desejar, mostra estudo

Levantamento da Unesp avaliou 89 das mais novas técnicas empregadas para apontar adulterações digitais em vídeos e encontrou lacunas significativas de desempenho. Entenda como foi o estudo.

Libro: Expert Systems Volume 41 / Foto: Reprodução

Informações falsas disseminadas por deepfakes já afetaram autoridades, celebridades e até o Papa, afirma um levantamento da Universidade Estadual Paulista “Júlio de Mesquita Filho” (Unesp), que avaliou 89 das mais novas técnicas empregadas para apontar adulterações digitais em vídeos e encontrou lacunas significativas no desempenho. Falta de bases de dados diversificadas e padronizadas está entre as limitações para aperfeiçoamento da tecnologia.

Para contribuir com este debate, pesquisadores da Unesp conduziram uma pesquisa para analisar as ferramentas mais recentes empregadas para a detecção de deepfakes. Segundo Kelton Augusto Pontara da Costa, pesquisador do Departamento de Computação da Unesp, campus Bauru, a principal motivação do estudo foi identificar as limitações e desafios das principais técnicas de detecção desses vídeos e imagens, a fim de incentivar o seu aperfeiçoamento.

“A facilidade de acesso à produção de deepfakes levanta uma preocupação social e ética significativa. Conteúdos manipulados, como discursos adulterados de figuras públicas ou a criação de vídeos falsos de pessoas conhecidas, têm um impacto potencialmente desestabilizador na sociedade. As implicações podem ser múltiplas, indo da erosão da confiança pública até a amplificação de desinformação em larga escala”, afirma Costa, que é um dos autores do artigo.

Ferramentas ainda são pouco treinadas

O grupo de pesquisadores analisou 89 artigos, publicados entre 2018 e 2024, que descreviam diferentes ferramentas empregadas para identificar vídeos suspeitos de serem deepfakes. O levantamento é o mais extenso: um trabalho anterior, formulado por outro grupo, cobriu os anos de 2018 e 2023 e analisou 66 artigos. Os resultados do estudo foram apresentados no artigo A Review of Deep Learning-based Approaches for Deepfake Content Detection, publicado na revista científica Expert Systems.

Os pesquisadores ficaram surpresos ao constatar a grande diversidade de metodologias que estão sendo empregadas para a detecção de deepfakes. “Os métodos vão desde abordagens baseadas em redes neurais convulsionais até redes recorrentes que exploram diferentes nuances dos vídeos”, afirma Costa.

Embora usuários de ambas as metodologias afirmem obter índices de até 99% de acerto, a depender das técnicas envolvidas, o grupo verificou que estes resultados não são plenamente válidos. “Nós vimos que os dados utilizados para treinar os modelos apresentam uma lacuna: não são padronizados e têm pouca diversidade”, diz Costa. “Esse é um achado significativo porque a disponibilidade limitada de conjuntos de dados bem construídos limita o desenvolvimento e a avaliação imparcial de novas técnicas.”

Ou seja, embora a precisão das técnicas possa beirar os 99% na etapa de treinamento das ferramentas, que envolve a análise de bases de dados específicas, essa acurácia tende a cair quando elas são aplicadas em situações reais.

  • Com Unesp

Post Tags: