Não acredito nem vendo: deepfakes

Não acredito nem vendo: deepfakes

Sofia Marshallowitz*

05 de junho de 2020 | 15h30

Sofia Marshallowitz. FOTO: ARQUIVO PESSOAL

Normalmente associado à fake news, no ano passado deepfake foi utilizado em um roubo de identidade e passou a representar um caminho mais persuasivo de phishing, afinal, até podemos desconfiar de uma mensagem de um amigo nos pedindo dinheiro, porém não teríamos a mesma reação sobre um áudio ou um vídeo.

Ou seja, tanto no campo de Segurança de Informação como no campo de fake news, o uso de deepfakes como arma para seus respectivos objetivos já é uma realidade e antes de sua maior propagação, a conscientização de segurança e das consequências sociais, digitais e jurídicas pode auxiliar no momento que deixar de ser uma novidade e passar a ser o cotidiano.

Deepfakes: Afinal, o que são?

O termo é utilizado, em geral, em referências a vídeos onde um rosto é trocado por outro (ou até mesmo criado!), porém também pode ser utilizado para geração exclusiva de voz. É feito com o uso de inteligência artificial, especificamente com o uso de deep learning (isso é, aprendizado profundo).

Deep learning é uma técnica de aprendizado de máquina que ensina um computador a filtrar entradas (observações na forma de imagens, texto ou som) através de camadas para aprender a prever e classificar informações, e se baseia na aprendizagem de representações (em vez de algoritmos específicos de tarefas).

O aprendizado profundo está relacionado a teorias sobre o desenvolvimento cerebral proposta por neurocientistas cognitivos, especialmente do começo dos anos 90. Assim como no cérebro (ou, mais precisamente, nas teorias e no modelo elaborado a respeito do desenvolvimento do neocórtex humano), as redes neurais usam uma hierarquia de filtros em camadas, na qual cada camada aprende com a camada anterior e depois passa sua saída para a próxima camada. Em síntese, o aprendizado profundo tenta imitar a atividade em camadas dos neurônios do neocórtex. É essa “complexidade” de funcionamento traz resultados quase perfeitos no caso de deepfakes.

Se CGIs já existem, por que só agora estamos preocupados?

Computer-generated imagery (CGI) ou Imagens Geradas por Computador não são bem uma novidade. Al Pacino e Robert De Niro foram retratados bem mais jovens graças a um efeito de CGI no filme The Irishman (2019), e Avatar (2009) marcou as telas justamente por trazer criaturas azuis extremamente expressivas e bem detalhadas.

No entanto, a produção de imagens como essas são custosas e exigem um grande apoio tecnológico e aí há o espaço para o deepfake, muito mais simples e barato de ser produzido. Com conhecimento em desenvolvimento, um processador gráfico razoável e um conjunto de imagens,  é possível criar um vídeo falso convincente. Isso sem considerar aplicativos que já facilitam e reduzem todo esse processo.

Ataques dessa forma parecem tão futuristas…

Mas não são. O Wall Street Journal publicou em 2019 que o executivo-chefe de uma empresa de energia do Reino Unido foi induzido a transferir € 200.000 (ou cerca de R$ 1.159.753,34 no câmbio de 04/06/2020) para um fornecedor húngaro, porque acreditou que seu chefe estava instruindo-o a fazê-lo. Mas a empresa de seguros da companhia de energia, Euler Hermes Group SA, disse ao WSJ que na verdade tratava-se de um fraudador equipado com um sistema de deepfake imitando a voz do executivo e exigindo que seus subordinados o pagassem em uma hora. Não suficiente, o software conseguiu imitar a voz, e não apenas a voz: a tonalidade, a pontuação e o sotaque alemão característicos do executivo.

Conscientização de segurança deve incluir Deepfakes

Para evitar ou reduzir danos advindos de fraudes com deepfakes, é essencial que os usuários tenham o mínimo de conhecimento sobre do que se trata e como pode ser desenvolvido. Não significa que um usuário comum deva conhecer cada detalhe sobre e saiba escrever código, mas já estamos em um nível de envolvimento com a tecnologia que entender somente o superficial nos bloqueia de uma discussão eficaz e a restringe somente aos desenvolvedores e pessoas envolvidas na produção de tecnologia, excluindo aqueles que estão exclusivamente em seu consumo.

A prevenção de ciberataque (ou seu sucesso) está profundamente ligada ao fator humano. No caso de deepfakes, esse ponto é ainda mais importante: enquanto algumas produções são visivelmente falsas, muitas outras no enganam e será tarde quando percebermos o que houve. A conscientização é menos custosa do que a remediação de prejuízos.

Aprender a identificar padrões inadequados de voz e palavras é um bom caminho na verificação de deepfakes, além de verificar expressões inadequadas ou incompatíveis com o discurso. Questionar se parece natural é a chave. Há um glitch? Certamente não é uma pessoa real.

Ademais, reforçar protocolos de validação é preciso. Se o ideal é que se ao recebermos um e-mail, verifiquemos o remetente, com deepfakes isso é fundamental: verifique as ligações que exigem que você forneça informações ou faça transferências. Você recebeu uma ligação no celular de uma amiga ou de uma colega de trabalho? Após desligar, ligue para ela pela linha do escritório ou de casa e confirme as orientações ou crie uma palavra secreta (ou riam sobre algum fato constrangedor que só vocês duas sabem).

Se Deepfakes precisam de dados como imagens e vozes, de onde isso surge?

Ainda dentro da conscientização, a superexposição em redes sociais e na Internet no geral rende dados. Fotos e vídeos online ficam disponíveis de maneira aberta para coleta e quanto mais dados, mais material para a Inteligência Artificial trabalhar e se aprofundar. Se sente anônima? Pesquise pelo teu nome ou pelo teu username em qualquer mecanismo de busca e veja o que aparece.

Fake News 2.0? 

A vertente mais conhecida das fake news é justamente a notícia falsa criada (invés de uma notícia verdadeira antiga ou fora de contexto). Se textos já viralizam, notícias falsas em vídeo terão um alcance muito maior por trabalhar melhor a questão da confiança. Então o deepfake pode ser um trampolim para as fake news. Porém, a inteligência artificial também pode ser utilizada para fake news em textos, sem envolver vídeos ou vozes.

As pessoas enviam reportagens e artigos da mídia para organizações de notícias falsas. A inteligência pode fazer isso de graça, ou pelo menos menos gastando quase nada. Isso torna possível escrever histórias com manchetes que parecem notícias reais e emitem alertas.

Aliás, o parágrafo anterior foi gerado por um modelo de aprendizado de máquina open-source  GPT-2 model. Sim, foi gerado uma inteligência artificial. E soa plausível, não?

Talvez seja melhor não acreditar nem vendo.

*Sofia Marshallowitz, cientista de dados em PG Advogados, pesquisadora do Lawgorithm, estudante de Direito na Universidade Presbiteriana Mackenzie. Possivelmente um bot

Tudo o que sabemos sobre:

Artigofake news

Comentários

Os comentários são exclusivos para assinantes do Estadão.