O fenômeno do “Dividendo do Mentiroso” chega aos tribunais. Políticos e criminosos estão usando a desculpa dos Deepfakes para anular provas reais, deixando juízes e peritos de mãos atadas em um ambiente de dúvida permanente.
Imagine a cena: um vídeo em alta resolução mostra um político recebendo uma mala de dinheiro, ou um áudio de WhatsApp revela um executivo ordenando um crime ambiental. Há cinco anos, isso seria uma prova irrefutável, o fim de uma carreira ou a garantia de prisão.
Hoje, em dezembro de 2025, a defesa apenas se levanta e diz quatro palavras: “Isso é um deepfake“. E o pior? O juiz muitas vezes não tem como provar o contrário com a celeridade que a democracia exige.
Bem-vindo à era do “Dividendo do Mentiroso” (Liar’s Dividend), um conceito que deixou de ser teoria acadêmica para se tornar a estratégia jurídica mais perigosa do momento. Reportagens da The Economist e análises da Folha de S.Paulo apontam que o sistema judiciário global está entrando em um colapso técnico de confiança.
A Morte da Evidência Digital
O perigo real da Inteligência Artificial Generativa não é apenas a capacidade de criar mentiras convincentes. O verdadeiro perigo é que ela cria um ambiente de dúvida permanente que beneficia diretamente os culpados.
“O Dividendo do Mentiroso é o lucro que o fraudador obtém do ceticismo generalizado”, explica um perito forense da Polícia Federal ouvido sob condição de anonimato. “Hoje, qualquer criminoso gravado em vídeo pode alegar que foi vítima de uma montagem de IA. O ônus da prova inverteu: agora, a acusação precisa provar que a realidade é real. E tecnicamente, isso está ficando impossível.”
A Crise Forense: O Jogo de Gato e Rato
Por que a perícia não resolve o problema? Porque a IA avança mais rápido que a capacidade humana e algorítmica de detecção.
- Evolução Visual: Em 2023, peritos buscavam “falhas” nos vídeos, como mãos deformadas ou piscar de olhos não natural. Em 2025, modelos avançados geram imagens perfeitas, pixel a pixel.
- O Áudio como Arma: Este é o novo campo de batalha. Com apenas três segundos de amostra de voz (retirada de um vídeo no Instagram, por exemplo), a IA pode fazer uma pessoa “confessar” qualquer crime com entonação e pausas respiratórias perfeitas.
- Impacto Civil: Em processos de divórcio e disputas empresariais no Brasil, gravações telefônicas estão sendo descartadas em massa por juízes que temem condenar com base em provas fabricadas.
O “Salvo-Conduto” Político
Em Brasília e Washington, o impacto é devastador para a transparência. Escândalos de corrupção baseados em grampos ou vídeos — historicamente os maiores motores de limpeza política — perderam a força de impacto imediato.
Casos recentes mostram políticos flagrados em situações comprometedoras correndo para redes sociais como o X (antigo Twitter) para denunciar um “ataque de IA generativa” feito pela oposição. A base de apoio acredita na versão que convém, e a investigação técnica demora meses. Quando (e se) o laudo confirma a veracidade, o ciclo de notícias já mudou e o escândalo esfriou. A “dúvida razoável”, pilar do Direito Penal, foi efetivamente “hackeada”.
O Fim da Verdade Compartilhada?
O que resta para a Justiça? Juristas temem um retrocesso tecnológico forçado. Alguns editoriais jurídicos já alertam para um cenário onde poderemos ser obrigados a voltar ao século 19, onde apenas testemunhas oculares presenciais e documentos em papel assinados com firma reconhecida terão validade absoluta.
Enquanto a sociedade discute como regular a criação de fakes, o verdadeiro golpe acontece silenciosamente nos tribunais: a realidade tornou-se opcional, e a impunidade ganhou a ferramenta perfeita para se esconder à vista de todos.




