Bruno Sartori/Twitter
Bruno Sartori/Twitter

Deepfakes com Lula, Moro e Dilma alertam para risco nas eleições

Influenciador produz vídeos falsos para alertar sobre o risco de a imagem de políticos como Lula, Sérgio Moro e Dilma Rousseff ser usada na disseminação de fake news

Davi Medeiros, O Estado de S.Paulo

25 de fevereiro de 2022 | 15h09
Atualizado 01 de março de 2022 | 19h32

Cada vez mais sofisticadas, técnicas de deepfake e deepdubs colocam na boca de pré-candidatos à Presidência frases que, na verdade, eles nunca proferiram. Muitas vezes, em lugares onde eles também não estiveram. Exemplo recente é um vídeo do ex-presidente Luiz Inácio Lula da Silva (PT) dizendo amar paçoca e abrindo um pote do doce, conteúdo que ganhou projeção nas redes nesta quinta-feira, 24. O “detalhe”, como a própria postagem explica, é que o líder petista não falou nada daquilo, e tudo não passou de uma farsa criada em computador. 

O criador da peça, o jornalista e pesquisador de deepfake Bruno Sartori, relata na publicação ter usado a tecnologia para inserir o rosto de Lula no corpo de outra pessoa e transferir o timbre de sua voz para a fala original. Ele já compartilhou outros exemplos em seu perfil, como um vídeo que simula o pré-candidato Sérgio Moro (Podemos) recitando um poema satírico e um homem falando com a exata voz da ex-presidente Dilma Rousseff. Procurado pela reportagem, Sartori não quis se manifestar. 

Deepfakes, como o nome sugere — algo como “mentira profunda”, em tradução livre —, é uma categoria de farsa que vai além das fake news tradicionais. Diferentemente do que ocorre nas montagens tradicionais, os personagens retratados aparecem em vídeos e podem gesticular, falar e inclusive imitar a voz das vítimas — nesse caso, a técnica se chama deepdub

Os conteúdos são feitos por meio de inteligência artificial. Para desavisados, é muito difícil distinguir o que é real do que é falso — uma dica é se atentar para certa estranheza nas expressões faciais, discrepâncias no tom da pele, entre outras minúcias. 

Segundo o pesquisador Anderson Soares, chefe do centro de inteligência artificial da Universidade Federal de Goiás (UFG), dois fatores criam o ambiente perfeito para a disseminação de deepfakes. Primeiro, o avanço das ferramentas digitais e o amadurecimento da tecnologia nos últimos anos. Segundo, o fato de haver vídeos e áudios disponíveis em abundância para que o computador recolha os dados de aparência e voz de que precisa. 

Soares afirma que a tendência é que a técnica se popularize e passe a estar disponível mesmo para quem não trabalha com tecnologia nos próximos anos. Via aplicativo de celular, por exemplo — alguns já existem, como o Reface App. “Em breve, qualquer pessoa vai conseguir produzir um vídeo ou voz falsa, é questão de pouco tempo”.

Entretanto, o pesquisador argumenta que o melhor caminho não é proibir o uso da ferramenta. Ela pode ser útil para melhorar a dublagem de filmes, por exemplo, e bani-la afetaria a competitividade do Brasil no ramo da tecnologia. “O caminho é que os órgãos competentes tenham agilidade para coibir práticas antiéticas, sobretudo no que diz respeito às eleições, e a sociedade precisa ser educada para reconhecer vídeos falsos”, afirma. 

Na campanha eleitoral de 2018, segundo a revista Veja, o então candidato a governador João Doria (PSDB) foi alvo de uma deepfake. À época, passou a circular nas redes um vídeo com cenas de sexo envolvendo seis mulheres e um homem, que na gravação foi identificado como sendo o tucano. O material foi explorado por adversários para enfraquecê-lo na disputa.

“Hoje eu vi um vídeo vergonhoso nas redes sociais, que foi produzido por alguém que só quer o meu mal e o mal da minha família. Uma produção grotesca. Fake news. Pedi a um perito criminal que verificasse essas imagens. Pedi também medidas judiciais  e criminais contra os autores desse vídeo. Lamento muito que a campanha em São Paulo tenha chegado a esse nível de ferir a nossa família”, disse o tucano naquela ocasião.

Não é difícil, hoje, encontrar esse tipo de montagem envolvendo políticos na internet. Um caso famoso foi o que simulou o presidente Jair Bolsonaro (PL) elogiando as vacinas. Outro mostra o rosto do presidente no personagem mexicano Chapolim Colorado. Também há um exemplo em que o chefe do Executivo canta a canção “Admirável Gado Novo”, de Zé Ramalho; Silvio Santos já apresentou o Jornal Nacional; Lula já cantou uma música de Pabllo Vittar; e até o ex-presidente americano Donald Trump já chamou Bolsonaro de “Bolsolino”.

Questiona sobre como se prepara para enfrentar vídeos falsos, a equipe de Lula afirmou que não comenta estratégias de comunicação. 

Encontrou algum erro? Entre em contato

Comentários

Os comentários são exclusivos para assinantes do Estadão.

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.