Vídeos falsos feitos com inteligência artificial podem ser danosos em campanhas eleitorais
As informações e opiniões formadas neste blog são de responsabilidade única do autor.

Vídeos falsos feitos com inteligência artificial podem ser danosos em campanhas eleitorais

Tecnologia para produzir os chamados 'deepfakes' evoluiu muito nos últimos anos; ainda não existem métodos para detecção de conteúdo audiovisual falso

Alessandra Monnerat e Caio Sartori

25 Junho 2018 | 09h37

Pense na situação: o ano é 2020 e a situação diplomática entre Estados Unidos e Coreia do Norte é tensa. Uma rede de televisão recebe uma filmagem inédita, de fonte anônima, que mostra o líder Kim Jong-un discutindo com generais o lançamento de um ataque nuclear. Na Casa Branca, o vídeo é analisado, mas a inteligência não consegue verificar a autenticidade. O presidente americano tem que agir — e ordena um contra-ataque. Uma guerra começa.

+++Recebeu algum boato pelo WhatsApp? Envie para o Estadão Verifica

O pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, imaginou o cenário acima para alertar sobre uma preocupante modalidade de informação falsa: os deepfakes. São vídeos que simulam cenas aplicando técnicas de inteligência artificial a imagens existentes. Até pouco tempo, o fenômeno se restringia ao mundo de filmes adultos. Mas, com o avanço da tecnologia de machine learning, há a preocupação de que filmagens falsas possam comprometer o processo eleitoral e outros aspectos da vida moderna.

+++Projetos de lei contra notícias falsas atropelam liberdade de expressão

“Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas”, diz Patrini.

Synthesizing Obama: projeto da Universidade de Washington mostrou que é possível criar vídeos falsos realistas com a imagem do ex-presidente americano

Patrini ressalta que, de tão forte o impacto de um vídeo falso, a mensagem manipulada tende a ser aceita por quem quer acreditar nela — mesmo que comprovada a falsidade. “Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirma nossas crenças anteriores, ou seja, viés de confirmação.”

+++’Chupa cabra’ da urna eletrônica? Vídeo viral sobre fraude nas eleições é mentira

O cientista da computação brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, que a produção de vídeos falsos sem grande refinamento já é acessível hoje. “Se pensarmos que já em 2014 usaram bots, isso certamente vai ser utilizado. Mas as pessoas acreditam muito no que veem. Muitos não vão acreditar, mas muitos vão. O processo eleitoral passa a ser muito levado por isso.”

Se as eleições deste ano já podem ter o rebuliço do compartilhamento de vídeos falsos, Patrini salienta que as possíveis repercussões da manipulação audiovisual vão além da política. Considere, por exemplo, o uso de áudios e vídeos como provas em processos criminais. Se não pudermos mais confiar em sua autenticidade, como poderemos aceitá-los como evidência?

O pesquisador da Universidade de Amsterdã Giorgio Patrini se debruça sobre o campo de estudos do deep learning. Foto: Arquivo pessoal

Soluções. Se o prognóstico das deepfakes é pessimista, isso se dá, em grande parte, porque ainda não há técnica desenvolvida para identificar os audiovisuais falsos. “É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás”, aponta Almeida.

Patrini sugere que a tecnologia de defesa contra deepfakes siga dois caminhos. O primeiro seria a criação de uma assinatura digital em vídeos – análoga a marcas d’água em notas de dinheiro – que garantiria a autenticidade da câmera que deu origem a um filme e a ausência de edições. No entanto, uma assinatura digital seria invalidada por qualquer tipo de edição, mesmo os ‘benignos’ – incluindo mudança de contraste e pequenos cortes. Além disso, não haveria como assegurar a veracidade de vídeos antigos, anteriores a uma possível implementação de assinaturas.

+++Áudio sobre eleições no Tocantins cita número falso e ‘inventa’ regras eleitorais

Outra solução vai na linha do ‘feitiço contra o feiticeiro’: usar inteligência artificial e machine learning para criar detectores de vídeos falsos. A ideia é treinar computadores para identificar sinais de adulteração que seriam invisíveis a olhos humanos. O pesquisador considera esta a melhor opção.

“Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador (treinado), informando-nos quando o conteúdo audiovisual parece ser uma falsificação.”

Almeida ressalta que, seja qual for a tecnologia empregada, será necessário o apoio de empresas de redes sociais, setores da sociedade e poder público. “A sociedade tem que criar as ferramentas para se proteger disso.”