Golpes com deepfake e vozes clonadas estão em alta: veja como se proteger
Os golpes com uso de vozes sintéticas e deepfakes estão se tornando cada vez mais comuns no Brasil e mais difíceis de identificar. O alerta é do especialista em inteligência de ameaças da Apura, Ubiratan Cascales, em entrevista ao Podcast Canaltech. Ele explica que criminosos estão utilizando tecnologias de Inteligência Artificial Generativa para clonar rostos e vozes, enganando até mesmo parentes próximos e grandes empresas.
- 10 deepfakes mais impressionantes que confundiram a internet
- YouTube | Como denunciar deepfakes feitos por IA que simulam sua voz
“O fraudador brasileiro é um dos mais criativos do mundo. Já temos casos de pessoas que perderam dinheiro ao ver e ouvir um parente em videochamada, mas era tudo falso, feito com IA”, explica o especialista.
O que são vozes sintéticas e deepfakes?
As vozes sintéticas são áudios criados por Inteligência Artificial a partir de trechos reais da fala de alguém. Com apenas alguns segundos de áudio, é possível gerar falas completas com entonação e emoção semelhantes às da pessoa original.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Já os deepfakes são vídeos manipulados por IA que usam imagens reais para criar rostos e expressões extremamente realistas. A técnica, que antes era usada no cinema, hoje é acessível gratuitamente por qualquer pessoa na internet.
“Com essas ferramentas, qualquer um pode recriar a voz e o rosto de outra pessoa e se passar por ela. Basta digitar um texto que a IA transforma aquilo em um vídeo convincente”, alerta Ubiratan.
Golpes mais comuns com IA no Brasil
De acordo com Ubiratan, os golpes que mais têm crescido no Brasil envolvem:
- Pedidos de ajuda por telefone ou mensagem com voz clonada de filhos, pais ou cônjuges;
- Vídeos falsos com rostos e vozes de executivos de empresas autorizando transferências bancárias;
- Golpes de relacionamento, nos quais deepfakes são usados para enganar emocionalmente a vítima;
- Golpes que envolvem entrega falsa de presentes ou brindes, para coletar imagens ou áudios da vítima e alimentar IAs.
Como se proteger dos golpes?
Ubiratan compartilhou algumas dicas práticas para se proteger dessas fraudes tecnológicas:
- Desconfie de pedidos urgentes de dinheiro, mesmo que pareçam vir de pessoas conhecidas.
- Desligue a ligação e tente confirmar o contato por um número já salvo na agenda.
- Mantenha suas redes sociais privadas, se possível. Quanto menos informações públicas, mais difícil será para o golpista montar um golpe.
- Limite quem pode ver sua foto no WhatsApp. Configure para que apenas seus contatos tenham acesso.
- Cuidado com vídeos e áudios publicados online, principalmente com sua voz. Eles podem ser usados para treinar IAs.
“Se alguém te pede dinheiro com urgência, há 99% de chance de ser golpe. Respire fundo, desligue e confirme com calma. A emoção é a arma do golpista”, reforça.
Setores mais afetados:
O setor mais impactado por esse tipo de fraude é o financeiro, segundo o especialista. Porém, ninguém está imune: empresas, governos e até pequenos negócios estão na mira de criminosos com acesso a ferramentas de IA.
“Até um restaurante pode ser vítima. O fraudador não precisa de hacking, ele usa engenharia social e manipulação emocional para conseguir o que quer”, afirma.
Enquanto os bancos e grandes empresas vêm investindo em segurança, o setor público ainda está atrasado no combate a esses crimes. Segundo Ubiratan, é essencial que empresas adotem uma postura preventiva, com foco em inteligência preditiva: estudar ameaças antes que elas virem ataques.
“O uso de Inteligência Artificial por cibercriminosos já é uma realidade no Brasil. E a melhor forma de se proteger é com conhecimento, atenção e validação das informações. Ao menor sinal de dúvida, não aja por impulso. Confirme com calma e busque ajuda”, finaliza o especialista.
Quer ouvir a entrevista completa?
O episódio com Ubiratan Cascales está disponível no Podcast Canaltech, nas principais plataformas de áudio. Clique aqui e confira!
Confira outras matérias do Canaltech:
- Pesquisadores usam técnica da astronomia para identificar deepfakes
- Espanha cria lei para criminalizar deepfakes de nudez feitos com IA
- Este celular evita que você caia no golpe da deepfake
Leia a matéria no Canaltech.