DestaqueEconomiaNewsPrincipais notícias

Golpes com deepfake e vozes clonadas estão em alta: veja como se proteger

Os golpes com uso de vozes sintéticas e deepfakes estão se tornando cada vez mais comuns no Brasil e mais difíceis de identificar. O alerta é do especialista em inteligência de ameaças da Apura, Ubiratan Cascales, em entrevista ao Podcast Canaltech. Ele explica que criminosos estão utilizando tecnologias de Inteligência Artificial Generativa para clonar rostos e vozes, enganando até mesmo parentes próximos e grandes empresas.

“O fraudador brasileiro é um dos mais criativos do mundo. Já temos casos de pessoas que perderam dinheiro ao ver e ouvir um parente em videochamada, mas era tudo falso, feito com IA”, explica o especialista.

O que são vozes sintéticas e deepfakes?

As vozes sintéticas são áudios criados por Inteligência Artificial a partir de trechos reais da fala de alguém. Com apenas alguns segundos de áudio, é possível gerar falas completas com entonação e emoção semelhantes às da pessoa original.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Já os deepfakes são vídeos manipulados por IA que usam imagens reais para criar rostos e expressões extremamente realistas. A técnica, que antes era usada no cinema, hoje é acessível gratuitamente por qualquer pessoa na internet.

“Com essas ferramentas, qualquer um pode recriar a voz e o rosto de outra pessoa e se passar por ela. Basta digitar um texto que a IA transforma aquilo em um vídeo convincente”, alerta Ubiratan.

Golpes mais comuns com IA no Brasil

De acordo com Ubiratan, os golpes que mais têm crescido no Brasil envolvem:

  • Pedidos de ajuda por telefone ou mensagem com voz clonada de filhos, pais ou cônjuges;
  • Vídeos falsos com rostos e vozes de executivos de empresas autorizando transferências bancárias;
  • Golpes de relacionamento, nos quais deepfakes são usados para enganar emocionalmente a vítima;
  • Golpes que envolvem entrega falsa de presentes ou brindes, para coletar imagens ou áudios da vítima e alimentar IAs.

Como se proteger dos golpes?

Ubiratan compartilhou algumas dicas práticas para se proteger dessas fraudes tecnológicas:

  • Desconfie de pedidos urgentes de dinheiro, mesmo que pareçam vir de pessoas conhecidas.
  • Desligue a ligação e tente confirmar o contato por um número já salvo na agenda.
  • Mantenha suas redes sociais privadas, se possível. Quanto menos informações públicas, mais difícil será para o golpista montar um golpe.
  • Limite quem pode ver sua foto no WhatsApp. Configure para que apenas seus contatos tenham acesso.
  • Cuidado com vídeos e áudios publicados online, principalmente com sua voz. Eles podem ser usados para treinar IAs.

“Se alguém te pede dinheiro com urgência, há 99% de chance de ser golpe. Respire fundo, desligue e confirme com calma. A emoção é a arma do golpista”, reforça.

Setores mais afetados:

O setor mais impactado por esse tipo de fraude é o financeiro, segundo o especialista. Porém, ninguém está imune: empresas, governos e até pequenos negócios estão na mira de criminosos com acesso a ferramentas de IA.

“Até um restaurante pode ser vítima. O fraudador não precisa de hacking, ele usa engenharia social e manipulação emocional para conseguir o que quer”, afirma.

Enquanto os bancos e grandes empresas vêm investindo em segurança, o setor público ainda está atrasado no combate a esses crimes. Segundo Ubiratan, é essencial que empresas adotem uma postura preventiva, com foco em inteligência preditiva: estudar ameaças antes que elas virem ataques.

“O uso de Inteligência Artificial por cibercriminosos já é uma realidade no Brasil. E a melhor forma de se proteger é com conhecimento, atenção e validação das informações. Ao menor sinal de dúvida, não aja por impulso. Confirme com calma e busque ajuda”, finaliza o especialista. 

Quer ouvir a entrevista completa?

O episódio com Ubiratan Cascales está disponível no Podcast Canaltech, nas principais plataformas de áudio. Clique aqui e confira

Confira outras matérias do Canaltech:

Leia a matéria no Canaltech.

Facebook Comments Box