PUBLICIDADE

Deepfakes evoluem e tornam identificação um problema técnico e de negócio


Produzir vídeos, áudios e fotos falsas com alto grau de realismo deixou de exigir conhecimento técnico avançado, e isso transformou os deepfakes em um novo vetor de fraude digital. Com a maturação dos modelos generativos de inteligência artificial, conteúdos sintéticos antes restritos a especialistas passaram a ficar ao alcance de usuários comuns. Ferramentas gratuitas ou de baixo custo já permitem criar materiais falsos a partir de uma única foto e, em alguns casos, até em tempo real.

“Os deepfakes gerados pelos modelos mais sofisticados são imperceptíveis para o olho humano e, em muitos casos, também para tecnologias tradicionais de detecção”, afirma Davi Reis, Tech Advisor da Unico. Para ele, o risco aumentou porque a tecnologia saiu dos laboratórios universitários e chegou ao mercado de massa sem mecanismos robustos de controle.

O que mudou e por quê

O avanço não ocorreu de forma isolada. Ele foi impulsionado pelos investimentos bilionários das indústrias de entretenimento e das redes sociais no desenvolvimento de sistemas capazes de sintetizar imagens e vozes com fidelidade comercial. Como efeito colateral, versões acessíveis dessas tecnologias passaram a circular com barreiras de entrada cada vez menores, permitindo a criação de conteúdos falsos a partir de imagens públicas ou de uma única fotografia.

Em contextos eleitorais, essa acessibilidade amplia o potencial de manipulação, com vídeos falsos pedindo votos ou declarações atribuídas a pessoas públicas e até a figuras já falecidas.

Do ponto de vista corporativo, o problema se divide em duas frentes. De um lado, deepfakes envolvendo figuras públicas afetam o debate coletivo e podem influenciar mercados e reputações de marcas. De outro, cresce o uso direcionado contra pessoas comuns, com consequências financeiras diretas, invasão de contas, roubo de identidade e golpes altamente personalizados.

Os sinais ainda existem, mas estão desaparecendo

O problema é que esses sinais estão se tornando cada vez mais raros. Reis alerta que expressões faciais, movimentos dos olhos e sincronização labial já não são indicadores confiáveis nos deepfakes mais avançados. Uma vez que o vídeo é criado e amplamente distribuído, identificar sua autenticidade se torna progressivamente mais difícil e, para o usuário comum, muitas vezes inviável.

O contexto como principal mecanismo de defesa

Diante desse cenário, a recomendação do especialista muda de foco. A proteção passa menos pela análise visual e mais pela leitura do contexto. “É fundamental avaliar se aquela comunicação era esperada, se faz sentido naquele momento, por aquele canal e com aquele tipo de pedido. A desconfiança saudável passa a ser um mecanismo de defesa”, diz Reis.

Alguns padrões merecem atenção imediata. Vídeos muito curtos, geralmente entre seis e dez segundos, conteúdos que despertam emoções extremas, como indignação ou medo, e declarações de figuras públicas que não foram reportadas por canais oficiais ou veículos jornalísticos confiáveis.

Em situações que envolvem transações financeiras, acesso a contas ou troca de dados sensíveis, a recomendação é buscar validação adicional por outro meio, como uma ligação direta, confirmação formal ou um segundo fator de autenticação.

Leia também: “Agentes de IA estão prestes a transformar o consumo”, afirma diretor da Visa

Empresas do setor de identidade digital, como a Unico, têm concentrado esforços no combate às fraudes direcionadas a pessoas comuns, desenvolvendo soluções de verificação de identidade e mitigação de riscos para ambientes regulados, como bancos, grandes varejistas e plataformas digitais.

Já existem tecnologias capazes de reduzir o risco de deepfakes, especialmente em ambientes regulados que adotam verificações no momento da captura do vídeo, antes que qualquer conteúdo falso possa ser utilizado. A tendência, segundo Reis, é que essas soluções se tornem mais comuns à medida que a ameaça evolui.

O novo imperativo da segurança digital

Em 2026, identificar um deepfake deixou de ser uma questão de percepção visual. A proteção eficaz depende da combinação entre tecnologia avançada, validação contextual e múltiplos fatores de autenticação.

Para empresas e consumidores, desconfiar, checar e confirmar tornam-se parte da rotina da segurança digital em um ambiente onde o que parece real nem sempre é verdadeiro.

Leia mais

A Greenlife Academias inaugurou sua primeira unidade em São Paulo, na Barra Funda, marcando a entrada da rede no maior mercado fitness do país. A operação integra um plano de

No mês da mulher, reconhecimento técnico da estética pelo sistema de Justiça marca avanço institucional do setor em São Paulo No contexto do Dia Internacional da Mulher, a trajetória de

Apresentado por Bayard Boiteux, programa retorna com seis episódios e aborda temas sobre cultura, bem-estar e turismo carioca. Diálogo entre arte, saúde e cidade Já está no ar a