Novas ferramentas usam impressões digitais de IA para detectar fotos e vídeos alterados
À medida que as redes de inteligência artificial se tornam mais qualificadas e fáceis de acessar, fotos e vídeos “deepfake” manipulados digitalmente são cada vez mais difíceis de detectar. Uma nova pesquisa liderada pela Binghamton University, State University of New York, divide imagens usando técnicas de análise de domínio de frequência e procura anomalias que podem indicar que elas são geradas por IA.
Em um artigo publicado em Tecnologias Disruptivas em Ciências da Informação VIIIo aluno de doutorado Nihal Poredi, Deeraj Nagothu e o professor Yu Chen do Departamento de Engenharia Elétrica e de Computação em Binghamton compararam imagens reais e falsas além de sinais reveladores de manipulação de imagem, como dedos alongados ou texto de fundo incompreensível. Também colaboraram no artigo a aluna de mestrado Monica Sudarsan e o professor Enoch Solomon da Virginia State University.
A equipe criou milhares de imagens com ferramentas populares de IA generativa, como Adobe Firefly, PIXLR, DALL-E e Google Deep Dream, e então as analisou usando técnicas de processamento de sinal para que suas características de domínio de frequência pudessem ser compreendidas. A diferença nas características de domínio de frequência de imagens naturais e geradas por IA é a base para diferenciá-las usando um modelo de aprendizado de máquina.
Ao comparar imagens usando uma ferramenta chamada Generative Adversarial Networks Image Authentication (GANIA), os pesquisadores podem detectar anomalias (conhecidas como artefatos) devido à maneira como a IA gera os falsos. O método mais comum de construção de imagens de IA é o upsampling, que clona pixels para tornar os tamanhos dos arquivos maiores, mas deixa impressões digitais no domínio da frequência.
“Quando você tira uma foto com uma câmera real, você obtém informações do mundo inteiro — não apenas da pessoa, da flor, do animal ou da coisa que você quer fotografar, mas todos os tipos de informações ambientais estão incorporadas ali”, disse Chen.
“Com a IA generativa, as imagens focam no que você pede para gerar, não importa o quão detalhado você seja. Não há como descrever, por exemplo, qual é a qualidade do ar ou como o vento está soprando ou todas as pequenas coisas que são elementos de fundo.”
Nagothu acrescentou: “Embora existam muitos modelos de IA emergentes, a arquitetura fundamental desses modelos permanece basicamente a mesma. Isso nos permite explorar a natureza preditiva de sua manipulação de conteúdo e alavancar impressões digitais únicas e confiáveis para detectá-lo.”
O artigo de pesquisa também explora maneiras pelas quais o GANIA pode ser usado para identificar as origens de IA de uma foto, o que limita a disseminação de informações incorretas por meio de imagens deepfake.
“Queremos ser capazes de identificar as ‘impressões digitais’ para diferentes geradores de imagens de IA”, disse Poredi. “Isso nos permitiria construir plataformas para autenticar conteúdo visual e prevenir quaisquer eventos adversos associados a campanhas de desinformação.”
Junto com deepfaked imagensa equipe desenvolveu uma técnica para detectar gravações falsas de áudio e vídeo baseadas em IA. A ferramenta desenvolvida chamada “DeFakePro” aproveita impressões digitais ambientais chamadas de sinal de frequência de rede elétrica (ENF) criado como resultado de leves flutuações elétricas na rede elétrica. Como um sutil zumbido de fundo, esse sinal é naturalmente incorporado em arquivos de mídia quando eles são gravados.
Ao analisar esse sinal, que é exclusivo para o horário e local da gravação, a ferramenta DeFakePro pode verificar se a gravação é autêntica ou se foi adulterada. Essa técnica é altamente eficaz contra deepfakes e explora ainda mais como pode proteger redes de vigilância inteligentes em larga escala contra esses ataques de falsificação baseados em IA. A abordagem pode ser eficaz na luta contra a desinformação e a fraude digital em nosso mundo cada vez mais conectado.
“A desinformação é um dos maiores desafios que a comunidade global enfrenta hoje”, disse Poredi. “O uso generalizado de IA generativa em muitos campos levou ao seu uso indevido. Combinado com nossa dependência das mídias sociais, isso criou um ponto crítico para um desastre de desinformação. Isso é particularmente evidente em países onde as restrições às mídias sociais e à fala são mínimas. Portanto, é imperativo garantir a sanidade dos dados compartilhados online, especificamente dados audiovisuais.”
Embora os modelos de IA generativa tenham sido mal utilizados, eles também contribuem significativamente para o avanço da tecnologia de imagem. Os pesquisadores querem ajudar o público a diferenciar entre conteúdo falso e real — mas acompanhar as últimas inovações pode ser um desafio.
“A IA está se movendo tão rápido que, uma vez que você desenvolve um detector de deepfake, a próxima geração dessa ferramenta de IA leva essas anomalias em consideração e as corrige”, disse Chen. “Nosso trabalho está tentando fazer algo fora da caixa.”
Mais informações: Nihal Poredi et al, Autenticação de imagens geradas por IA com base em redes adversárias generativas usando análise de domínio de frequência, Tecnologias Disruptivas em Ciências da Informação VIII (2024). DOI: 10.1117/12.3013240
Citação: Novas ferramentas usam ‘impressões digitais’ de IA para detectar fotos e vídeos alterados (2024, 12 de setembro) recuperado em 12 de setembro de 2024 de https://techxplore.com/news/2024-09-tools-ai-fingerprints-photos-videos.html
Este documento está sujeito a direitos autorais. Além de qualquer uso justo para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.