Quando você se depara com o termo deepfake, é comum pensar em reproduções virtuais realistas de figuras públicas como políticos ou celebridades. Com essa tecnologia, hoje é possível replicar a imagem e a voz de uma pessoa, usando algumas imagens e amostras de áudio e machine learning. Por isso, a verdade seja dita: já precisamos nos preocupar com a evolução dos deepfakes porque ao que tudo indica, as organizações são alvos atraentes para os criminosos, e falsificar a voz ou a imagem de altos executivos pode ser a isca perfeita para realizar golpes convincentes.
O trabalho remoto trouxe um aumento significativo no número de ataques cibernéticos, como os golpes de phishing. Por sua vez, esses golpes estão cada vez mais sofisticados, os ataques de phishing que utilizam deepfakes já são uma realidade.
O que é um deepfake phishing?
É uma tentativa de imitar uma pessoa específica a fim de espalhar informações errôneas ou manipular outras pessoas para levá-las a fornecerem a criminosos o acesso a dados e dinheiro. Muitas vezes, trata-se de um ataque onde criminosos usam áudio para reproduzir perfeitamente a tonalidade da voz, a personalidade e a cadência da fala de um executivo ou outro funcionário de uma empresa, para facilitar uma tentativa de acessar os dados e até de pedir uma transferência de valor, ou seja, uma verdadeira fraude.

A preocupação com os deepfakes é real por tratar-se de uma tecnologia cada vez mais acessível e aprimorada. Métodos e ferramentas de detecção de deepfakes acessíveis ainda estão em desenvolvimento, o que significa que empresas e funcionários estão expostos a uma nova forma de exploração.
Como é criado um deepfake?
Através do uso de machine learning, um modelo de deepfake é “treinado” utilizando amostras existentes de uma pessoa real, que pode gerar uma imitação suficientemente boa e capaz de enganar as pessoas. É um método que se aproveita do elo mais fraco: a falha humana. A tecnologia avançou tanto, ao ponto de podermos clonar vozes em escala utilizando apenas pequenas amostras de áudio. E, essas amostras de áudio de executivos de grandes empresas podem ser facilmente encontradas, em vídeos de conferências e nas próprias redes sociais, por exemplo.
Criminosos utilizam engenharia social para conseguir realizar esses deepfakes. Um áudio deepfake facilita, e muito, a elaboração de ataques de comprometimento de e-mails comerciais convincentes.
Ao utilizar a tecnologia deepfake, atacantes podem aliar o clássico phishing por e-mail a mensagens contendo vozes clonadas, que facilmente se passam por autênticas ao ouvido humano. Assim, usando diversos vetores para manipular as vítimas, as chances de enganar os usuários aumentam.
Ainda que não seja um método disseminado e comum de ataque, as empresas e os usuários precisam entender que é uma ameaça potencial. É preciso estar ciente de que criminosos têm a capacidade e a intenção de produzir deepfakes para realizar golpes. Quando se trata de cibercrime, não há limites. Os atacantes estão cada vez mais inovadores, ousados e empenhados.
Fonte: Securitymagazine.com