Criminosos usam inteligência artificial para imitar a voz do CEO de uma empresa e roubar € 220 mil | WeLiveSecurity

Criminosos usam inteligência artificial para imitar a voz do CEO de uma empresa e roubar € 220 mil

Os golpistas usaram um software de inteligência artificial para se passar pelo CEO de uma multinacional alemã e enganar o diretor-executivo de uma de suas sedes no Reino Unido.

Os golpistas usaram um software de inteligência artificial para se passar pelo CEO de uma multinacional alemã e enganar o diretor-executivo de uma de suas sedes no Reino Unido.

O Wall Street Journal publicou a história de um caso que ocorreu em março deste ano, em que criminosos usaram software de inteligência artificial (IA) para imitar a voz do CEO de uma empresa alemã de energia e, assim, realizar uma fraude que permitiu aos golpistas roubar € 220 mil (cerca de R$ 1,1 milhão, em conversão direta).

Segundo o jornal, os golpistas usaram essa tecnologia para se passar pelo CEO de uma multinacional alemã e enganar um de seus subordinados, o diretor-executivo da subsidiária do Reino Unido, que pensava estar falando ao telefone com seu chefe e afirmava ter reconhecido o leve sotaque alemão em sua voz. Assim, o suposto CEO da empresa alemã solicitou ao CEO da sede britânica que efetuasse uma transferência de fundos para um fornecedor húngaro no prazo de uma hora e a operação foi realizada.

Os golpistas voltaram a se comunicar com a vítima, fazendo-se passar novamente pelo CEO alemão e, desta vez, garantindo que a transferência seria reembolsada e, como se não fosse pouco, o contactaram uma terceira vez – antes do suposto reembolso – para pedir uma terceira transferência de forma urgência. Nesse momento, o diretor-executivo da sede britânica começou a suspeitar e se recusou a realizar a transferência.

De acordo com Jake Moore, especialista em cibersegurança da ESET, é de se esperar que, em um futuro bem próximo, veremos um grande aumento no uso do aprendizado de máquina (em inglês, machine learning) pelo cibercrime. Na verdade, “já vimos DeepFakes imitando celebridades e outras figuras públicas em vídeos”, explicou Moore a um jornal britânico. Enquanto a criação de peças convincentes através de vídeo exije mais tempo e recursos, “produzir vozes falsas requer apenas algumas gravações, e à medida que o poder de processamento dos computadores aumenta, começaremos a ver que essas peças se tornarão cada vez mais fáceis de criar”, acrescentou o especialista da ESET.

No capítulo “As máquinas aprendem, os humanos não tanto” do relatório Tendências 2019 produzido pela ESET, a pesquisadora de segurança Lysa Myers analisou o cenário do aprendizado automático e ressaltou a importância de ter em conta que é mais do que viável que os cibercriminosos adotem o uso do machine learning para realizar seus objetivos – que na maioria dos casos é roubar dinheiro ou outros bens de valor – especialmente os grupos de cibercriminosos financiados por algum Estado.

O Facebook juntamente com empresas como a Microsoft e várias universidades nos Estados Unidos já notaram esta tendência crescente e expressaram a sua preocupação com o anúncio do lançamento do desafio “Deepfake Detection Challenge (DFDC)”, uma iniciativa que visa combater o crescente fenômeno das deepfakes e irá recompensar quem for capaz de desenvolver uma tecnologia que possa ser usada por qualquer pessoa e que tenha a capacidade de detectar o uso de inteligência artificial para gerar vídeos modificados.

A divulgação de casos como o golpe destacado pelo Wall Street Journal servem para gerar consciência e deixar os usuários mais preparados para enfrentar o que pode significar uma tendência e uma das possíveis formas de evolução das técnicas de Engenharia Social. Portanto, para evitar ser vítima de um golpe em que a voz de uma pessoa de confiança é imitada, Moore assegura que existem algumas medidas que podem ser levadas em conta para minimizar os riscos de cair em um golpe desse tipo. Em primeiro lugar, ter consciência de que é possível que alguém pode se passar por outra pessoa imitando a sua voz. Uma vez que sabemos que isso é possível, podemos, por exemplo, incluir algumas medidas de verificação antes de fazer uma transferência de dinheiro. Por exemplo, garanta que o número de telefone é realmente da pessoa que realizou a ligação – diga que irá retornar a ligação em alguns minutos e, ao realizar essa ligação, disque manualmente o número de telefone da outra pessoa, mesmo que o número já esteja agendado em seu celular.

Leia também:

Discussão