*Por Thiago Bertacchini, Senior Business Development da Nethone
A tecnologia de clonagem de voz de inteligência artificial (IA) ganhou interesse crescente em fóruns darknet nos últimos anos. Desde o surgimento de tecnologias que permitem esse tipo de imitação até os dias atuais, houve um aumento acentuado de referências à clonagem de voz por IA, o que indica que essa ameaça está se tornando mais difundida e sofisticada.
- Siga o tecflow no Google News!
- Participe do nosso grupo no Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Google Podcast e Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui.
Embora ainda não haja dados completos sobre a quantidade de golpes envolvendo vozes profundas, o mercado aponta que essas tecnologias terão cada vez mais credibilidade. Prova disso é um levantamento recente da Resemble AI, que levantou US$ 8 milhões para melhorar um aplicativo de clonagem de voz que já tem mais de um milhão de usuários.
Esses golpes visam principalmente indivíduos particulares por meio de engenharia social, mas é vital que as empresas estejam cientes desse risco e tomem medidas de proteção.
Como funciona a clonagem de voz
A clonagem de voz conduzida por IA pode ser usada em diferentes contextos, como a realização de ataques de phishing representando indivíduos confiáveis, como familiares, amigos ou colegas, mas também esquemas fraudulentos direcionados a instituições financeiras, onde golpistas se passam por representantes bancários ou clientes. É também uma das formas mais populares de executar ataques de engenharia social na forma de chamadas falsas de suporte ao cliente, com o objetivo de coletar informações confidenciais de indivíduos. Por último, mas não menos importante, para criar evidências de áudio falsas para fins de chantagem ou extorsão. É crucial que indivíduos e organizações permaneçam vigilantes e estejam cientes das perdas financeiras e dos sérios danos à reputação associados a esses golpes.
Os avanços nas tecnologias de clonagem de voz são preocupantes porque, segundo a Microsoft, agora é possível criar cópias vocais realistas a partir de apenas três segundos de áudio. Isso significa que os criminosos têm acesso a uma ferramenta poderosa para executar golpes cada vez mais sofisticados, especialmente se a manipulação de voz em tempo real se tornar uma realidade. Ou seja: você ou os executivos da sua empresa não precisam ser famosos na internet para terem suas vozes clonadas. Basta que os criminosos tenham acesso a uma das – várias – ferramentas disponíveis e saibam usar a engenharia social.
Para quem é muito ativo nas redes sociais, há muito conteúdo para os fraudadores extraírem e forjarem uma chamada de voz. No entanto, essas amostras de voz podem ser selecionadas a partir de entrevistas concedidas pelo executivo e estão disponíveis na internet, vídeos corporativos no site da empresa ou até mesmo reuniões por videoconferência, por exemplo. Apenas alguns segundos da voz da pessoa gravada são suficientes para os criminosos, com a ajuda da IA, recriarem a entonação e até o sotaque de uma pessoa.
Em 2020, um gerente de uma filial japonesa em Hong Kong recebeu uma ligação de uma voz conhecida: seu diretor. O suposto executivo, por meio de ligação, anunciou que a empresa estava prestes a fazer uma aquisição e precisava autorizar alguns repasses da ordem de US$ 35 milhões. E o golpe foi bem sucedido. Segundo informações da Forbes, 17 pessoas estariam envolvidas no esquema, que enviou o dinheiro roubado para contas bancárias ao redor do mundo.
Outro golpe semelhante aconteceu um pouco antes, com um CEO de uma empresa de energia com sede no Reino Unido que pensou estar ao telefone com seu chefe, o executivo-chefe da controladora alemã da empresa, que pediu que ele enviasse os fundos para um fornecedor húngaro. O golpe, desta vez, foi um prejuízo de mais de US$ 240 mil. O que chama a atenção neste caso é que a vítima alegou que “reconheceu o leve sotaque alemão de seu chefe e a melodia de sua voz ao telefone”, relatou o Wall Street Journal na época.
Como se proteger
Para se proteger contra o golpe de clonagem de voz e outros ataques de engenharia social, é essencial que empresas e indivíduos tomem medidas preventivas e estejam cientes de possíveis vulnerabilidades. Algumas estratégias para se proteger incluem:
1. Aprender sobre tecnologia: Com a ascensão meteórica da inteligência artificial, é importante que os tomadores de decisão e todos os colaboradores da empresa saibam como podem ajudar e, principalmente, prejudicar uma organização. Eduque e treine os funcionários sobre como reconhecer e evitar ataques de engenharia social, incluindo golpes de clonagem de voz.
2. Verificação da veracidade das informações: Antes de tomar qualquer decisão financeira importante, verifique as informações em outras fontes confiáveis e, se possível, verifique a identidade da pessoa do outro lado da linha, usando um número de telefone verificado ou uma senha.
3. Proteção da informação: Quanto menos dados pessoais disponíveis na internet, melhor. Limite as informações pessoais que você compartilha nas mídias sociais e outras plataformas públicas para reduzir o risco de ataques direcionados. Use canais de comunicação criptografados, como redes privadas virtuais (VPNs), ao comunicar informações confidenciais.
4. Use o conhecimento a seu favor: Além disso, as empresas podem adotar medidas adicionais de segurança, como autenticação de dois fatores, treinamento de conscientização em cibersegurança para funcionários e implementar a biometria de voz como meio de autenticação adicional.
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.
Redação tecflow
Tecflow é um website focado em notícias sobre tecnologia com resenhas, artigos, tutoriais, podcasts, vídeos sobre tech, eletrônicos de consumo e mercado B2B.