Com o avanço das edições por inteligência artificial, distinguir uma foto real de uma fabricada tornou-se um desafio técnico. O surgimento de imagens hiper-realistas geradas por IA (como as feitas por MidJourney, DALL·E, Runway ou Stable Diffusion) colocou os peritos forenses diante de um novo tipo de manipulação — quase invisível a olho nu, mas com rastros digitais detectáveis.
O que está em jogo?
Fotos falsas podem:
- Simular a presença de uma pessoa em um lugar onde ela nunca esteve;
- “Provar” agressões, reuniões ou eventos inexistentes;
- Ser usadas para chantagens, ataques reputacionais ou sabotagem de provas legítimas.
Por isso, a autenticidade de imagens tornou-se um dos focos mais sensíveis da perícia digital.
Técnicas de detecção forense
- Análise de metadados: arquivos gerados por IA geralmente têm metadados incompletos, inconsistentes ou faltam informações sobre a câmera, data e localização.
- Análise de iluminação e sombra: algoritmos geradores costumam errar ângulos de luz, direção de sombras, reflexos em superfícies.
- Inconsistência anatômica e de textura: mãos com dedos extras, brincos diferentes em cada orelha, letras distorcidas, fundos irreais.
- Verificação cruzada com bancos de dados públicos: o perito pode verificar se a imagem já circula online em versões diferentes — sinal comum de geração ou edição.
- Softwares especializados: como JPEGsnoop, Forensically, FotoForensics ou IA forenses desenvolvidas para detectar imagens sintéticas por padrões de ruído.
Exemplo prático
Durante uma investigação de assédio em ambiente corporativo, a suposta vítima apresentou uma imagem como prova do ocorrido. A perícia detectou que a imagem havia sido gerada por IA — os metadados estavam ausentes, os olhos da figura tinham padrões espelhados e o reflexo na janela do fundo era incoerente com o cenário. A descoberta reverteu o processo e expôs uma tentativa de fraude.