plus
plus

Edição do dia

Leia a edição completa grátis
Edição do Dia
Previsão do Tempo 27°
cotação atual R$


home
🚨 ALERTA DE FRAUDE 🚨

Golpistas estão usando IA para imitar familiares e roubar dinheiro

A nova tática de cibercriminosos utiliza I.A. para simular a voz de entes queridos, tornando quase impossível distinguir uma ligação real de um golpe.

twitter Google News
Imagem ilustrativa da notícia Golpistas estão usando IA para imitar familiares e roubar dinheiro camera Criminosos virtuais estão usando IA de ponta para simular com precisão a voz de pessoas próximas | Imagem gerada por IA/Gemini

A segurança financeira online acaba de ganhar um novo e perigoso desafio. As velhas desconfianças com mensagens de texto estranhas já não são mais suficientes. Uma modalidade de fraude que utiliza inteligência artificial (IA) para recriar perfeitamente o timbre, a entonação e até o sotaque de familiares está gerando pânico e prejuízos.

Criminosos virtuais estão usando IA de ponta para simular com precisão a voz de pessoas próximas, transformando o que parecia ser um pedido de socorro urgente em uma armadilha financeira.

A Mecânica do Golpe: Como a Voz é Clonada

O que torna esse golpe especialmente alarmante é a sua baixa barreira técnica. Para realizar a falsificação, os golpistas não precisam de equipamentos complexos, apenas de amostras de áudio.

Veja também:

Pequenos trechos de voz, muitas vezes retirados de vídeos postados publicamente em redes sociais como Stories, TikTok ou Reels, são suficientes para alimentar softwares. Esses programas aprendem o padrão vocal da vítima e conseguem gerar áudios lendo qualquer texto com a voz clonada.

A facilidade é a chave: o criminoso digita uma frase desesperada pedindo dinheiro e o computador gera um áudio convincente em segundos. O resultado é enviado pelo WhatsApp para pais, avós ou cônjuges, criando uma situação de pânico imediato que bloqueia o raciocínio lógico da vítima.

O Fator Emocional e a Fuga do Raciocínio

O sucesso desta fraude reside no intenso impacto emocional. A voz de um filho, pai ou parceiro, especialmente em um contexto de suposta emergência, é um gatilho poderoso.

As mensagens fraudulentas costumam relatar incidentes graves – sequestro relâmpago, acidente de carro ou uma falha bancária urgente – exigindo uma transferência via Pix em poucos minutos para evitar consequências sérias.

O sucesso desse golpe reside no impacto emocional que a voz de um ente querido causa
📷 O sucesso desse golpe reside no impacto emocional que a voz de um ente querido causa |Reprodução/Olhar Digital

Ao ouvir o pedido de socorro com a voz familiar, a tendência natural é agir por impulso e realizar o pagamento. A tecnologia explora a vulnerabilidade biológica de que o cérebro humano está condicionado a confiar no que ouve, contornando a desconfiança que surgiria em uma mensagem apenas escrita.

🛡️ Protocolo de Segurança: Três Passos para se Proteger

Diante de um pedido de dinheiro urgente, mesmo que seja por áudio, é fundamental manter a frieza e realizar verificações de segurança antes de qualquer transferência. Adotar um protocolo de checagem pode salvar suas economias e evitar o financiamento de atividades criminosas:

  1. Tente uma Chamada de Vídeo: A maioria dos softwares de clonagem ainda não consegue simular vídeo em tempo real com perfeição. Ver a pessoa é a prova mais rápida.
  2. Ligue para o Número Antigo: Ignore o novo número que está chamando ou enviando o áudio. Tente contato pelo telefone que você já tem salvo na agenda (o número oficial do familiar).
  3. Faça Perguntas Pessoais Difíceis: Questione sobre detalhes que apenas a pessoa real saberia, como o nome de um animal de estimação antigo, uma data familiar específica ou um apelido incomum.

A Ferramenta Mais Eficiente: A Senha Secreta

A defesa mais eficaz contra essa tecnologia avançada é, ironicamente, totalmente analógica e simples: a “palavra-passe” familiar.

Combine com seus pais, filhos e parceiros uma palavra ou frase secreta que deve ser dita obrigatoriamente em qualquer situação de emergência ou pedido financeiro.

Golpistas estão usando IA para imitar familiares e roubar dinheiro
📷 |Reprodução/Olhar Digital

Essa senha funciona como uma chave de autenticação humana. Se você receber um áudio chorando e pedindo dinheiro, pergunte imediatamente: “Qual é a senha?”. Se a voz do outro lado desconversar, alegar esquecimento ou desligar, você terá a certeza absoluta de que se trata de uma inteligência artificial tentando aplicar um golpe.

VEM SEGUIR OS CANAIS DO DOL!

Seja sempre o primeiro a ficar bem informado, entre no nosso canal de notícias no WhatsApp e Telegram. Para mais informações sobre os canais do WhatsApp e seguir outros canais do DOL. Acesse: dol.com.br/n/828815.

tags

Quer receber mais notícias como essa?

Cadastre seu email e comece o dia com as notícias selecionadas pelo nosso editor

Conteúdo Relacionado

0 Comentário(s)

plus

    Mais em Brasil

    Leia mais notícias de Brasil. Clique aqui!

    Últimas Notícias