Você já deve ter ouvido falar de tecnologia de clonagem de voz usada por golpistas. Imagine receber uma ligação do seu chefe, colega de trabalho ou até neto pedindo uma ação urgente. Assustador, né? Pois é exatamente disso que falamos quando o assunto é deepfake vishing.
Esses ataques estão ficando cada vez mais sofisticados. Pesquisadores e órgãos de segurança alertam há anos sobre os riscos, e em 2023 a Cybersecurity and Infrastructure Security Agency afirmou que as ameaças envolvendo deepfakes e outros tipos de mídia sintética aumentaram exponencialmente. Empresas de segurança, como a Mandiant do Google, já relatam que essas fraudes estão acontecendo com uma precisão assustadora.
O esquema básico de uma chamada deepfake é simples, mas perigoso:
- Coleta de amostras de voz da pessoa a ser imitada. Às vezes, apenas três segundos de áudio já bastam, vindos de vídeos, reuniões online ou chamadas anteriores.
- Uso de motores de síntese de voz baseados em inteligência artificial, como Tacotron 2, Vall-E ou serviços da ElevenLabs e Resemble AI. Esses sistemas permitem gerar falas com a entonação e os trejeitos da pessoa imitada.
- Opcionalmente, o golpista pode falsificar o número da ligação para parecer que vem da pessoa ou empresa verdadeira.
- Por fim, a chamada é iniciada. Em casos mais avançados, a voz falsa é gerada em tempo real, tornando o golpe ainda mais convincente.
Embora ataques em tempo real ainda sejam raros, o avanço constante da tecnologia promete tornar esse tipo de fraude cada vez mais comum. Ficar atento e desconfiar de pedidos urgentes por telefone é a melhor defesa.
Em resumo, deepfake vishing não é só uma ameaça futurista: já está entre nós. Conhecer o funcionamento dessas fraudes é o primeiro passo para se proteger e evitar prejuízos.