Que as inteligências artificiais estão cada vez mais presentes no nosso dia a dia, temos certeza que você sabe. No entanto, com os avanços da tecnologia, elas estão mais audaciosas e, agora, conseguem até imitar o timbre e a entonação de fala de uma pessoa. Essa prática está sendo conhecida como deepfake de voz e vem trazendo diversos transtornos, já que criminosos estão utilizando-a para aplicar golpes cada vez mais complexos.
Pensando nisso, preparamos um conteúdo para você entender sobre o assunto e evitar esses tipos de ataques. Continue a leitura e confira o funcionamento, quais os riscos e como se proteger desse tipo de tecnologia.
O que são deepfakes de voz?
Os deepfakes de voz são modificações de timbre feitas por uma inteligência artificial que tem como objetivo imitar a fala de uma pessoa. Essa é uma variação do deepfake — que vem de “deep learning” + “fake” (em português, aprendizado profundo + falso). Esse ramo da tecnologia é baseado em um conjunto de técnicas ligadas ao estudo realizado por uma máquina e suas implementações práticas na vida cotidiana.
Sendo assim, essa ciência consegue, a partir de dados, conhecer determinada sequência, como o timbre e a entonação de uma pessoa, e decodificá-la no sistema para imitar o que acabou de aprender. Além de deepfake de voz, essa prática ficou conhecida como conversão ou clonagem de voz.
Como funcionam os deepfakes de voz?
Os deepfakes de voz funcionam por meio da transformação de fala de uma pessoa. Isso acontece por meio de codificadores automatizados que pertencem a uma categoria de redes neurais. De maneira geral, eles efetuam a compressão dos dados de entrada (realizado por um codificador), que depois são compactados em uma representação interna de forma eficiente.
Em sequência, o sistema aprende a desfazer essa compressão por intermédio de um decodificador, restaurando, assim, os dados à sua forma original. O processo culmina na capacidade do modelo de compilar as informações em um formato condensado, ao mesmo tempo em que realça os aspectos de maior relevância contidos neles.
Para desenvolver as simulações de áudio, o processo de deepfake envolve a inserção de duas gravações distintas no sistema. O áudio da segunda passa por uma conversão para se assemelhar ao da primeira. O elemento crucial é o codificador de contexto que desvenda o conteúdo verbal inicial enquanto identifica as características fundamentais da fala, como entonação e estilo vocal da pessoa.
As representações compactadas da mensagem e da maneira de expressão são unificadas, e o produto final é gerado por meio de um decodificador. Como resultado, o discurso contido na primeira gravação é sincronizado com a voz da segunda, imitando com perfeição a voz da pessoa.
[Imagem]
Isso pode ser feito de maneira simples por meio de softwares pagos e, até mesmo, gratuitos encontrados na internet. Dessa forma, atualmente, é fácil ter acesso a programas que fazem deepfake de voz. No entanto, enquanto uns utilizam para se divertir com amigos, outros utilizam dessa técnica para aplicar golpes inteligentes.
Quais os riscos dos deepfakes de voz?
Os deepfakes de voz, por si só, não são prejudiciais, é a forma de usar essa ferramenta que pode torná-la perigosa. O principal risco desse artifício são os golpes e as fraudes ocasionados por pessoas mal-intencionadas. Os ataques de engenharia social, por exemplo, ganharam ainda mais força com esse facilitador.
Além disso, há sempre o risco da desinformação e de fake news, ou seja, podem ser criados áudios com a entonação de pessoas de autoridade, como o presidente, com algum tipo de comunicado falso. Isso pode prejudicar uma série de brasileiros que, ocasionalmente, podem acreditar que o que escutaram é verdadeiro. Falando nisso, saiba o que é vishing, um golpe de phishing que usa a voz.
O deepfake de fala pode, também, ser usado como vingança, criação de pessoas virtuais e, em casos extremos, provas criminais falsas. E, se você acredita que nunca cairia em um golpe desses, de acordo com uma pesquisa feita pela University College London, a inteligência artificial conseguiu enganar cerca de 73% das pessoas. Portanto, é preciso conhecer os usos e saber se prevenir desse tipo de prejuízo.
Usos de deepfakes de voz em fraudes
Como já deu para perceber, o uso de deepfakes de voz pode ser bastante prejudicial, principalmente se usado em fraudes. Um exemplo dessa má prática é o caso da atriz Emma Watson. Um criminoso usou a tecnologia da ElevenLabs para se passar pela britânica e “hackear” a sua conta bancária. Em outro golpe que aconteceu no Arizona, Estados Unidos, os golpistas utilizaram a fala da filha de 15 anos de uma mulher e, se passando pela adolescente, tentaram convencê-la de pagar um resgate.
Ainda, um caso que aconteceu no Reino Unido chamou a atenção. Os fraudadores, por meio do deepfake de voz, se passaram pelo executivo-chefe de uma empresa de energia e pediram a transferência de 220 mil euros para determinada conta. O prejuízo foi bastante grande. Portanto, é importante se atentar para pedidos estranhos e sempre se certificar das informações passadas por áudio.
Como se proteger de deepfakes de voz?
A principal maneira de se proteger contra deepfakes de voz é estar sempre desconfiado. Não deixe de analisar, perguntar e garantir que realmente está falando com a pessoa certa pelo telefone. Além disso, é preciso contar com a segurança da proteção de dados para garantir que não haja qualquer possibilidade de suas informações serem usadas para aplicar golpes como esse em familiares e amigos próximos.
Para isso, conte com o Internet Security, uma tecnologia anti-phishing com proteção em múltiplos níveis e sem lentidão. Com isso, você tem segurança com internet banking e pagamentos on-line. Além disso, garante um inspetor de rede e firewall e controle parental.
Viu só como a inteligência artificial está cada vez mais fazendo parte do nosso dia a dia e sendo usada de diferentes formas? Apesar de ser usada por pessoas mal-intencionadas, essa ferramenta oferece uma série de benefícios, é preciso se atentar e saber separar os pontos positivos e negativos. Por isso, fique de olho nos conteúdos da ESET Brasil para evitar cair em golpes, como os dos WhatsApp e Telegram, e usar a tecnologia a seu favor.