Os deepfakes deixaram de ser uma curiosidade de internet para se tornarem ferramentas perigosas em fraudes, chantagens e manipulações políticas. Por trás desses vídeos falsificados — que usam IA para simular vozes e rostos — há uma corrida entre criadores e peritos. A pergunta é: como identificar um vídeo gerado por inteligência artificial?
O que são deepfakes?
São vídeos gerados por redes neurais (como GANs) que combinam imagem e som de forma artificial, simulando uma pessoa falando, gesticulando ou se movimentando — tudo com aparência extremamente realista. Já houve casos de vídeos falsos com celebridades, políticos e até cidadãos comuns, utilizados para extorsão.
Como os peritos detectam manipulações?
Os profissionais de perícia audiovisual utilizam diversas ferramentas e técnicas para detectar IA em vídeos:
- Análise de metadados do arquivo: Um dos primeiros passos é verificar o histórico do vídeo: câmera usada, data de criação, formato. Arquivos manipulados geralmente apresentam inconsistências nos dados de origem.
- Avaliação de padrões visuais anômalos:
- Piscadas em ritmo não natural;
- Ausência de microexpressões;
- Iluminação que não se comporta de forma realista na pele;
- Distorções em detalhes como dentes, orelhas, óculos, joias e cabelo.
- Softwares de detecção forense: Programas especializados (como Deepware Scanner, Microsoft Video Authenticator e outros) comparam os vídeos suspeitos a modelos de referência para identificar vestígios estatísticos de geração sintética.
- Análise de voz e sincronização labial: A IA pode simular voz, mas raramente acerta perfeitamente o tempo entre o som e o movimento labial. Peritos avaliam essa sincronia em slow motion.
O papel do perito nesses casos
O laudo técnico elaborado pelo perito não apenas aponta a fraude, como também serve de prova judicial com validade legal. O desafio é manter-se atualizado: à medida que a IA evolui, a contraperícia também precisa avançar.