Vamos deixar deepfakes nos fazer de otários em 2026? Reputações estão em risco

Publicado em

maio 4, 2026

Compartilhe

Como o roubo de identidade por IA tem se tornando epidemia contra empresas no Brasil; ingenuidade não é cair nos deepfakes, é não se preparar

Ninguém quer perder US$25 milhões, não é! Muito menos numa call, ao sofrer um golpe de avatares criados com deepfake se passando por chefes. Sim, aconteceu. Se um prejuízo desse porte já é um pesadelo, imagina quando ele atinge o ativo mais valioso das organizações: a reputação.

É com isso que executivos e profissionais de comunicação precisarão lidar no dia a dia de agora em diante. Se em 2025 as técnicas de perfis falsos com face swap — nas quais rostos são completamente substituídos com Inteligência Artificial (IA) — evoluíram drasticamente, este é o ano que a tecnologia pode fazer todos nós de otários. Você vai deixar?

O roubo de identidade prolifera epidemicamente no Brasil, atingindo em cheio a reputação de empresários e celebridades. Caso grave foi o do  CEO do Itaú Unibanco, Milton Maluhy Filho: em 2025, um deepfake do executivo foi criado para sustentar golpe que prometia lucro fácil em uma “nova plataforma de investimento”.

Também naquele ano, voz e imagem da modelo Gisele Bündchen foram usadas para enganar consumidores em troca de produtos gratuitos, com pagamentos só pelo frete. Na mesma fraude online, deepfakes de Angélica, Juliette, Maísa e Sabrina Sato também foram criadas.

Outback e Marcos Mion também foram explorados por criminosos com anúncios falsos que levavam a golpes. Mas a lista é extensa. William Bonner Neymar, Eliana, Ana Maria Braga, Ivete Sangalo, Mano Brown e Jade Picon são apenas mais alguns dos que já tiveram os dados biométricos clonados. Proteger sua imagem — metafórica e literalmente — nunca foi tão urgente.

Já entendi que deepfake é malvadão. Sua empresa está pronta para enfrentar esse desafio?

Parece tudo muito ruim, mas a realidade é que este é também um momento de ótimas oportunidades para quem trabalha em comunicação.

O papel desses profissionais cresceu muito. São justamente eles, em parceria com o time de compliance, que preparam a organização com antecedência. Pois o sucesso no combate de uma crise é decidido muito antes de ela acontecer.

Na hora do caos, quando o deepfake está fazendo estrago, não há tempo para alinhar a liderança ou construir mensagens. Crises não vão embora sozinhas. Organizações que não se antecipam, deixam o público ocupar a narrativa e preencher o vazio com as próprias versões.

Ter um protocolo ativo de monitoramento digital agora vai além do clipping. Os planos de resposta rápida, com uma linguagem adaptada a cada público, precisam estar já desenhados levando em conta plataformas digitais aquecidas e prontas para acionar. Autoridade algorítmica forte para segurar a pressão. Afinal, quando a identidade de alguém vira arma, a reputação é o primeiro alvo.

A primeira linha de defesa contra essa ameaça não é a contenção. Se o plano é só contra-atacar, todo mundo já perdeu. “A proteção mais eficiente não é reagir ao problema, é antecipá-lo. Se a estratégia começa apenas quando o ataque aparece, a marca já está correndo atrás do prejuízo”, adverte a VP de Comunicação Corporativa e de Marca da Smart, Karina Lotze.

“Hoje, proteger reputação também significa saber onde estão as imagens, vozes e conteúdos dos porta-vozes da empresa: em quais plataformas publicamos, com quais veículos falamos e quais são os canais oficiais da marca”, explica Karina.

O social listening também é fundamental. Saber quem e o que  estão falando sobre a marca é determinante para prever crises. O que também permite a preparação, por exemplo, de ‘dark sites’: páginas de resposta a crises com comunicados pré-aprovados, perguntas frequentes, declarações verificadas, atualizações etc. Elas são montadas previamente para entrar no ar até em segundos.

Isso porque quando um deepfake ganha tração, a janela de resposta é de minutos, não de horas. E também porque motores de busca por IA precisam de tempo para assimilar novas informações. Um time preparado para agir é a diferença entre uma contaminação ou uma pandemia.

A velocidade com que um deepfake se espalha não tem dó de quem ainda opera no modo reativo. Proteger a autoridade de uma marca, de um executivo, de uma celebridade é, hoje, um trabalho de inteligência tanto quanto de comunicação. Quem ainda não entendeu isso, vai aprender da pior forma.

Por que 2026 é diferente de tudo que veio antes

Ao menos três fatores contribuem com o cenário de disseminação de deepfakes:

  1. Modelos de vídeo alcançaram consistência temporal.
  2. Clonagem de voz tornou-se indistinguível da original.
  3. Ferramentas que permitem qualquer pessoa criar cópias sofisticadas em minutos, sem barreiras técnicas.

Quem defende essa visão é Siwei Lyu, professor da Universidade Estadual de Nova York e diretor do Instituto de Inteligência Artificial e Ciência de Dados da Universidade de Buffalo, em artigo publicado na Fortune. “A situação tende a piorar em 2026, à medida que deepfakes se tornam atores artificiais capazes de reagir às pessoas em tempo real”, escreveu.

Esse poder todo vem em grande parte das versões mais recentes dos modelos de vídeo sintético Google Veo 3, Sora 2 (recém descontinuado), da OpenAI, e Midjourney. Eles conseguem gerar vídeos completos a partir de comandos de texto curtos. Completos mesmo: as pessoas parecem reais, há microexpressões faciais, têm iluminação natural e o estilo é de câmeras profissionais (viu o vídeo acima?).

Até o momento, os esforços em detecção miram principalmente fraudes online e golpes. E já é suficiente para ligar o alerta para todo mundo.

Entre 2022 e 2023 houve uma explosão de 828% no uso de deepfakes no Brasil, de acordo com o Identity Fraud Report da plataforma de verificação de identidade e compliance Sumsub. Esse crescimento persiste, embora em ritmo menor: em 2025, o aumento foi de 126%, de acordo com a edição seguinte da pesquisa.

Ambos os relatórios apontam que o Brasil saiu da fase de “fraude online básica” para uma fase de “sofisticação”. Agora, o uso de IA e deepfakes não é mais novidade, mas sim a ferramenta padrão para ataques em escala contra instituições financeiras e plataformas de apostas.Mas há outra dimensão, diretamente ligada à reputação.

Uma vez que 2026 é ano de eleições majoritárias no Brasil, o terreno é fértil para aproveitadores —  tendência já mapeada pela Sumsub. No “superano eleitoral” de 2024, quando cerca de metade da população mundial foi às urnas, o levantamento detectou que os deepfakes em todo o mundo aumentaram mais de 245% só no primeiro trimestre.

O aumento no Brasil foi “sem precedentes”: 822% a mais no comparativo de janeiro a março com o mesmo período do ano anterior.

Colapso da verdade compartilhada?

Com essas ferramentas, criminosos podem fabricar vídeos falsos muito convincentes que imitam os gestos e reações de pessoas verdadeiras. Isso torna a verificação por vídeo um dos métodos menos seguros para confirmar a identidade de alguém.

Essa é uma preocupação latente do Fórum Econômico Mundial, expressa no estudo Global Risks Report 2026. Nele, a organização adverte para o que pode ser chamado de erosão da verdade. E o motivo é simples.

Com a dificuldade crescente de distinguir o real do inventado, a confiança em materiais digitais tende a ruir. O documento fala em uma década para isso acontecer, mas já detecta sinais atuais e projeta problemas para um horizonte de dois anos.

Uma afirmação é dramática, voltada para contextos eleitorais, mas que pode ser aplicada em situações muito mais amplas. Daqui em diante, sob discursos inflamados, “qualquer escândalo pode ser descartado como uma falsificação e qualquer falsificação pode ser real”, pontua o documento.

Como combater? Vacina! Não dá para esperar a mentira ser fabricada para agir. Gestores, colaboradores, imprensa e comunidade em geral precisam saber de antemão quais são os canais genuínos de posicionamento da marca. Qualquer manifestação fora deles deve provocar estranheza. Essa comunicação cabe a nós.

E mais do que isso: é nestes momentos de caos que o relacionamento analógico e histórico, construído por uma agência de PR, mostra valor de verdade. Cultivar uma rede de altíssima confiança com jornalistas e formadores de opinião cria uma barreira de contenção aos efeitos de deepfakes, como verdadeiros anticorpos.

Quando um vídeo escandaloso e perfeitamente manipulado chega às mãos de um repórter parceiro — e ético —, ele não publica na hora, atrás de views. Ele liga para o time da agência de PR antes e checa. Nos casos de deepfakes, essa ligação salva reputações multimilionárias.

Confiança e autoria comprovada na origem: metadados como escudo

“A confiança geral inerente ao conteúdo multimídia está rapidamente em erosão”, alertou também um Boletim Conjunto de Cibersegurança da Agência de Segurança Nacional (NSA) dos Estados Unidos, em conjunto com agências de inteligência da Austrália, Canadá e Reino Unido.

Esse sintoma já é corriqueiramente percebido nas redes sociais, como observa Diego Iraheta, VP de Conteúdo da Smart. Ele lembra que, ao menor sinal de estranhamento com materiais online, é comum ver nos comentários dos posts pessoas questionando se foram feitos com IA.

“De alguma maneira, acho positivo e pode ser melhor assim: sempre ficarmos atentos, com um pé atrás e checar todo conteúdo que recebemos e consumimos. Além da erosão da verdade compartilhada, essa é a era da erosão da confiança presumida”, completa Diego.

A realidade é que já não é mais possível impedir a clonagem de identidade na internet. O que não significa entregar os pontos. O boletim das agências de inteligência recomenda ações concretas de autoprevenção.

A principal delas é o uso de Credenciais de Conteúdo. Na definição da Adobe, elas são “um tipo de metadados durável e padrão que serve como um rótulo nutricional digital para conteúdo”. Elas são baseadas no padrão aberto da C2PA (Coalition for Content Provenance and Authenticity).

A ideia dessas credenciais é simples e ancorada em transparência: assim como você lê a embalagem de um produto para saber os ingredientes, o usuário pode acessar os metadados de um arquivo para entender a história dele.

Esses certificados digitais mostram quem criou o conteúdo e de que forma ele foi feito: se capturado por uma câmera, gerado por inteligência artificial ou editado com ferramentas digitais.

Rastreabilidade do ciclo de vida do conteúdo

A tecnologia permite registrar todo o ciclo de vida da mídia de forma criptografada, o que é altamente valioso para profissionais de PR no momento da gestão de crise e brand safety.

  • Na captura: Dispositivos de hardware compatíveis inserem a autenticidade na origem.
  • Na edição: Se uma imagem foi retocada no Photoshop ou se foi gerada por IA, essa informação fica gravada.
  • Na publicação: O arquivo final carrega esse histórico inviolável.

Isso não impede a edição, mas garante a honestidade da edição. Se alguém tentar remover esses dados (o chamado stripping), a integridade do arquivo é rompida. Uma salvaguarda decisiva para a autoridade de marca.

Se a sua organização assina consistentemente seu conteúdo real, torna-se muito mais difícil para um fraudador emplacar um deepfake de um CEO, por exemplo. A simples ausência da credencial digital vira um sinal de alerta óbvio ao consumidor ou às plataformas de verificação.

O protocolo que confirma quem você é

A outra aliada no compartilhamento de material digital é a Credencial Verificável —  Verifiable Credential (VC). O W3C (World Wide Web Consortium) é o padronizador dessa tecnologia: um tipo de credencial digital que permite a um emissor criar atributos (claims) sobre alguém de forma criptograficamente segura e à prova de adulteração.

Da mesma maneira que as Credenciais de Conteúdo, elas funcionam como um rótulo para atributos pessoais ou profissionais, atestando quem as emitiu e garantindo a integridade dos dados.

Baseadas em padrões abertos, as Credenciais Verificáveis  são compostas por três elementos principais:

  • Atributos (Claims): São as informações específicas, como nome, data de nascimento, qualificações acadêmicas ou profissionais.
  • Metadados da credencial: Incluem detalhes sobre a própria credencial, como o emissor, a data de emissão e o tipo de credencial.
  • Provas (Proofs): São os mecanismos criptográficos, como assinaturas digitais, que garantem a verificação da autenticidade e a integridade da credencial, tornando-a resistente a fraudes.

Essas credenciais operam em um ecossistema de três partes:

  • Emissor (Issuer): A entidade que faz as afirmações e emite a VC (por exemplo, uma universidade, um governo ou uma empresa).
  • Detentor (Holder): A pessoa ou entidade que possui e controla a VC, geralmente armazenada em uma carteira digital.
  • Verificador (Verifier): A entidade que solicita e valida a VC para verificar as informações (por exemplo, um empregador, um banco ou um serviço online).

A tecnologia das Verifiable Credentials permite registrar e verificar a autenticidade de atributos digitais de forma criptografada. Isso não impede que as informações sejam compartilhadas, mas garante a integridade e a proveniência dos dados.

O emissor assina na origem, o detentor controla uso e privacidade por meio de Protocolo de Conhecimento Zero ( Zero-Knowledge Proof – ZKP) e o verificador confirma autenticidade e detecta qualquer adulteração.

É um jeito de contribuir com a autoridade da marca, porque comprova a autoria de informações, protege porta-vozes contra manipulações e tem o potencial de reduzir riscos reputacionais. 

A tecnologia assegura rastreabilidade, valida documentos em tempo real e dá bases para construir confiança com imprensa, parceiros e público.

Metadado não dá entrevista – ou como a tecnologia não substitui seres humanos

Apesar de tudo isso, é fundamental ter uma clareza estratégica: metadados, criptografia e protocolos de conhecimento zero não dão entrevistas, não respondem a acionistas em pânico, nem demonstram empatia a consumidores traídos. A tecnologia atesta a veracidade, mas são as relações humanas que reconstroem a confiança.

A assinatura digital pode até provar aos algoritmos que o vídeo criminoso é falso. Mas satisfazer algoritmos não significa convencer pessoas. 

É o discurso cuidadosamente construído, o olho no olho, o posicionamento de uma liderança ou porta-voz que chega antes do rumor que transformam um ataque em testemunho de caráter.

“A narrativa estratégica das empresas não pode ser da IA, e sim dos profissionais de conteúdo e comunicação que trabalham lado a lado com as lideranças da organização. Neste momento da tecnologia, nada substitui a inteligência humana para construir estratégias de comunicação e de autoridade”, pondera Diego.

Em um cenário onde o “ver para crer” deixou de ser uma regra válida e nossos próprios olhos podem nos enganar, a blindagem da sua empresa depende do planejamento para esses momentos e de quem você escolhe para falar por ela.