Produzir vídeos, áudios e fotos falsas com alto grau de realismo deixou de exigir conhecimento técnico avançado, e isso transformou os deepfakes em um novo vetor de fraude digital. Com a maturação dos modelos generativos de inteligência artificial, conteúdos sintéticos antes restritos a especialistas passaram a ficar ao alcance de usuários comuns. Ferramentas gratuitas ou de baixo custo já permitem criar materiais falsos a partir de uma única foto e, em alguns casos, até em tempo real.
“Os deepfakes gerados pelos modelos mais sofisticados são imperceptíveis para o olho humano e, em muitos casos, também para tecnologias tradicionais de detecção”, afirma Davi Reis, Tech Advisor da Unico. Para ele, o risco aumentou porque a tecnologia saiu dos laboratórios universitários e chegou ao mercado de massa sem mecanismos robustos de controle.
O que mudou e por quê
O avanço não ocorreu de forma isolada. Ele foi impulsionado pelos investimentos bilionários das indústrias de entretenimento e das redes sociais no desenvolvimento de sistemas capazes de sintetizar imagens e vozes com fidelidade comercial. Como efeito colateral, versões acessíveis dessas tecnologias passaram a circular com barreiras de entrada cada vez menores, permitindo a criação de conteúdos falsos a partir de imagens públicas ou de uma única fotografia.
Em contextos eleitorais, essa acessibilidade amplia o potencial de manipulação, com vídeos falsos pedindo votos ou declarações atribuídas a pessoas públicas e até a figuras já falecidas.
Do ponto de vista corporativo, o problema se divide em duas frentes. De um lado, deepfakes envolvendo figuras públicas afetam o debate coletivo e podem influenciar mercados e reputações de marcas. De outro, cresce o uso direcionado contra pessoas comuns, com consequências financeiras diretas, invasão de contas, roubo de identidade e golpes altamente personalizados.
Os sinais ainda existem, mas estão desaparecendo
O problema é que esses sinais estão se tornando cada vez mais raros. Reis alerta que expressões faciais, movimentos dos olhos e sincronização labial já não são indicadores confiáveis nos deepfakes mais avançados. Uma vez que o vídeo é criado e amplamente distribuído, identificar sua autenticidade se torna progressivamente mais difícil e, para o usuário comum, muitas vezes inviável.
O contexto como principal mecanismo de defesa
Diante desse cenário, a recomendação do especialista muda de foco. A proteção passa menos pela análise visual e mais pela leitura do contexto. “É fundamental avaliar se aquela comunicação era esperada, se faz sentido naquele momento, por aquele canal e com aquele tipo de pedido. A desconfiança saudável passa a ser um mecanismo de defesa”, diz Reis.
Alguns padrões merecem atenção imediata. Vídeos muito curtos, geralmente entre seis e dez segundos, conteúdos que despertam emoções extremas, como indignação ou medo, e declarações de figuras públicas que não foram reportadas por canais oficiais ou veículos jornalísticos confiáveis.
Em situações que envolvem transações financeiras, acesso a contas ou troca de dados sensíveis, a recomendação é buscar validação adicional por outro meio, como uma ligação direta, confirmação formal ou um segundo fator de autenticação.
Leia também: “Agentes de IA estão prestes a transformar o consumo”, afirma diretor da Visa
Empresas do setor de identidade digital, como a Unico, têm concentrado esforços no combate às fraudes direcionadas a pessoas comuns, desenvolvendo soluções de verificação de identidade e mitigação de riscos para ambientes regulados, como bancos, grandes varejistas e plataformas digitais.
Já existem tecnologias capazes de reduzir o risco de deepfakes, especialmente em ambientes regulados que adotam verificações no momento da captura do vídeo, antes que qualquer conteúdo falso possa ser utilizado. A tendência, segundo Reis, é que essas soluções se tornem mais comuns à medida que a ameaça evolui.
O novo imperativo da segurança digital
Em 2026, identificar um deepfake deixou de ser uma questão de percepção visual. A proteção eficaz depende da combinação entre tecnologia avançada, validação contextual e múltiplos fatores de autenticação.
Para empresas e consumidores, desconfiar, checar e confirmar tornam-se parte da rotina da segurança digital em um ambiente onde o que parece real nem sempre é verdadeiro.