Estamos preparados para o impacto das deepfakes? | WeLiveSecurity

Estamos preparados para o impacto das deepfakes?

Com o passar do tempo, as deepfakes começaram a ser criadas com mais facilidade e rapidez, tornando o seu reconhecimento cada vez mais díficil através do olho humano. Estamos realmente preparados para este cenário?

Com o passar do tempo, as deepfakes começaram a ser criadas com mais facilidade e rapidez, tornando o seu reconhecimento cada vez mais díficil através do olho humano. Estamos realmente preparados para este cenário?

As deepfakes estão começando a ser criadas com mais facilidade e rapidez, abrindo portas para uma nova forma de cibercrime. Embora os vídeos falsos sejam considerados engraçados, esse fenômeno sofrer uma reviravolta no futuro, passando a ser o centro de escândalos políticos, cibercrimes ou mesmo cenários inimagináveis ​​envolvendo vídeos falsos e atingindo não só figuras públicas, mas qualquer perfil de usuário.

Deepfake é uma técnica de síntese de imagens humanas com base na inteligência artificial usada para criar conteúdo falso, a partir do zero ou usando um vídeo existente com o objetivo de replicar a aparência e o som de um ser humano real. Esses vídeos podem parecer incrivelmente reais e hoje muitos deles envolvem celebridades ou figuras públicas que dizem algo polêmico ou falso. Como já destacamos anteriormente, no Brasil, as deepfakes se tornaram mais conhecidas através do editor de vídeo, jornalista e estudante de Direito Bruno Sartori, que publica em suas redes sociais vídeos engraçados de personagens da política brasileira.

Uma pesquisa recente mostra um grande aumento na criação de vídeos que fazem uso dessa técnica, quase dobrando o número apenas nos últimos nove meses. As deepfakes também estão crescendo em qualidade a um ritmo bastante acelerado. Este vídeo que mostra Bill Hader se transformando sem muito esforço entre Tom Cruise e Seth Rogan é apenas um exemplo de quão autênticos esses vídeos podem ser. Ao pesquisar no YouTube o termo “deepfake”, você pode perceber que estamos vendo a ponta do iceberg do que está por vir.

De fato, já ocorreram casos em que essa tecnologia foi usada para realizar fraude, em que, segundo relatos, uma voz falsa foi usada para enganar o CEO de uma empresa com o intuito de que ele realizasse o pagamento de uma grande quantia em dinheiro. Acredita-se que o CEO de uma empresa britânica não identificada pensou que estivesse ao telefone com o CEO da sede alemã e estava convencido a transferir imediatamente € 220.000 (aproximadamente US$ 244.000) para a conta bancária de um suposto fornecedor húngaro. Se foi tão fácil influenciar alguém simplesmente por meio de uma ligação telefônica, certamente precisaremos melhorar a nossa segurança para mitigar essa ameaça.

Enganando o olho humano

Também observamos aplicativos que fazem as deepnudes transformarem as fotos de qualquer pessoa vestida com uma foto de topless em segundos. Embora, felizmente, um aplicativo específico, o DeepNude já tenha sido excluído, o que poderia acontecer se esse mesmo app retornasse de outra forma e fosse capaz de criar vídeos com aparência convincente e autêntica?

Também há evidências de que a produção desses vídeos está se tornando um negócio lucrativo, especialmente na indústria pornô. A BBC diz que “96% desses vídeos são de celebridades femininas cujas imagens foram usadas para criar vídeos de sexo sem seu conhecimento ou consentimento”.

Um projeto de lei recente na Califórnia deu um salto de fé e tornou ilegal a criação de deepfakes pornográficas de alguém sem o seu consentimento, multando a pessoa responsável em até US$ 150.000. Mas é muito provável que nenhuma legislação seja suficiente para impedir algumas pessoas de criar esse tipo de vídeo.

Um artigo publicado no The Economist discute que, para fazer um deepfake convincente, seria necessária uma grande quantidade de material de vídeo e/ou gravações de voz para criar até mesmo uma breve deepfake. Eu queria desesperadamente criar uma deepfake de mim mesmo, mas, infelizmente, por não contar com muitas horas de vídeo, não foi possível produzir uma deepfake do meu rosto.

Dito isto, em um futuro não muito distante, pode ser completamente possível que, a partir de apenas algumas “histórias” do Instagram, qualquer usuário possa criar uma deepfake convincente para a maioria de seus seguidores. Além disso, as deepfakes também podem ser usadas ​​para bullying nas escolas, no escritório ou mesmo em outros ambientes.

Além disso, os cibercriminosos certamente usarão cada vez mais essa tecnologia para fazer novas vítimas. As deepfakes estão se tornando algo cada vez mais fáceis de criar, sem o total reconhecimento através do olho humano. Como resultado, toda essa falsificação pode contaminar o mar que separa a realidade da ficção, o que por sua vez pode nos levar a não confiar em nada, mesmo quando nos apresentem algo que nossos sentidos nos dizem que é real.

Enfrentando uma ameaça muito real

Então, como podemos estar preparados? Primeiro, precisamos educar melhor as pessoas sobre a existência das deepfakes, como funcionam e os possíveis problemas que podem causar. Todos teremos que aprender a estar cientes de que mesmo os vídeos mais realistas podem ser peças fabricadas.

Segundo ponto, a tecnologia precisa desesperadamente desenvolver uma melhor detecção das deepfakes. Embora o machine learning seja uma peça central na criação desses conteúdos falsos, é necessário criar algo que atue como o antídoto capaz de detectá-las sem depender apenas do olho humano.

Por fim, as plataformas sociais devem perceber que existe uma ameaça significativa e que isso pode gerar um impacto muito grande, já que ao combinar um vídeo chocante com as redes sociais, o resultado geralmente é uma propagação rápida, que pode ter um impacto negativo na sociedade.

Não me interprete mal, eu gosto muito do desenvolvimento da tecnologia e principalmente de poder ver como ela se apresenta diante dos meus próprios olhos. No entanto, devemos estar cientes de como a tecnologia, às vezes, pode nos afetar negativamente, especialmente quando o machine learning está amadurecendo a um ritmo mais rápido do que nunca. Caso contrário, veremos em breve que as deepfakes se tornarão a norma e isso terá grandes consequências.

Discussão