Inteligências artificiais, moderação de conteúdo e eleições

Marcela Tanaka

15 de março de 2022 | 19h26

É quase como chover no molhado, mas é inviável pensar que estamos em ano eleitoral e não refletirmos sobre o protagonismo que a tecnologia tem tido tanto em seu lado procedimental quanto em seu lado instrumental. Por procedimental podemos entender desde as urnas eletrônicas – e aqui não vou entrar no mérito de sua segurança, há muitos outros espaços para este assunto – até os ritos de plenário virtual das casas legislativas. Por instrumental podemos pensar nas formas de difusão e criação de conteúdo, de plataformas de propaganda e mobilização eleitoral, para citar apenas alguns.

Mas a tecnologia – e a internet por sua extensão – não é terra sem lei. E não deveria. O foco do texto de hoje é retomar um pouco sobre os marcos legais que tramitaram na última década e o debate mais recente sobre inteligência artificial, neste momento, aguardando votação no plenário do Senado Federal (PL 21/2020).

A primeira legislação sobre o tema no Brasil ocorreu com o Marco Civil da Internet, em 2014, cujo processo, para além de outras diretrizes, era direcionado à garantia de direitos e deveres sobre o uso da internet. Sobretudo, pensava-se de maneira coletiva e plural em formas de assegurar liberdade de expressão nesse novo ambiente. Naquele momento, discutia-se menos sobre moderação de conteúdo, que passa a ter mais atenção a partir do Projeto de Lei 2630/2020, conhecido como Lei das Fake News. É imperativo que se discuta o combate à desinformação e a disseminação de informações falsas. Ainda mais diante do contexto já explícito neste texto de que a tecnologia tem sido capaz de mexer no fiel da balança em termos eleitorais. O que se pontua aqui é que se o Marco Civil foi resultado de um processo de interlocução entre Legislativo, Executivo e sociedade civil e uma construção coletiva do entendimento e do consenso sobre o tema; o Projeto de Lei das Fake News além de não estabelecer esse diálogo, não mede consequências importantes sobre as diretrizes de moderação e conteúdo. Entre elas, aumentaria a desigualdade de acesso à informação ao cobrar pelo uso de informações jornalísticas, por exemplo.

Um segundo passo importante foi a promulgação da Lei Geral de Proteção de Dados (LGPD – PL4060/2012). De maneira geral, a lei visa garantir a proteção e privacidade aos dados pessoais (qualquer dado que possa te identificar, por exemplo seu CPF) e dados sensíveis – que são os dados de natureza discriminatória (sua religião, raça ou preferência política, por exemplo). A LGPD é um marco não só pela busca da segurança jurídica em relação aos dados pessoais, como porque pela primeira vez se coloca em vigor uma lei que tem como objeto os processos automatizados. Por processo automatizado entendam-se basicamente todos os algoritmos de propagandas que você enxerga na sua timeline.

E aí chegamos no caldeirão que mistura inteligência artificial, moderação de conteúdo e eleições. Esse ano, ao que espero que se concretize, teremos eleições de nível federal. A tecnologia veio para ficar e a internet já é lugar comum para o marketing político e eleitoral. Ou seja, existe um debate posto sobre esse lugar “comum” que precisa levar em consideração as consequências da utilização desses algoritmos sobre a democracia.

Por vezes, compreende-se a inteligência artificial (IA) como a habilidade de prever a probabilidade que certas coisas aconteçam (ações, votos, compras, crimes). Contudo, a IA é baseada em dados e dados são um produto da nossa história (Buolamwini, Joy, 2020). Ou seja, o passado está inerentemente incrustado em nossos algoritmos. Logo, é uma tecnologia altamente suscetível aos maiores tipos de vieses possíveis, tais como raça e gênero. Ou seja, se você é elegível a receber crédito ou não, se vai pagar mais ou menos pelo mesmo produto, que tipo de moradia lhe será ofertada e a que preço, é determinado, em grande parte, por inteligência artificial. Assim, você é classificado por milhares de algoritmos diariamente que tentarão prever em qual caixinha você se encaixa melhor, baseado nos dados que você produz, em uma tecnologia que reflete o passado.

E o que isso tem a ver com a política? Tudo. Os algoritmos já existentes e que, diga-se de passagem, quase ninguém sabe como funciona, determinarão o tipo de conteúdo político que veremos nos próximos meses. Você já parou para pensar nisso? Pode ser que você não fique sabendo de determinados candidatos e candidatas. Ou, o que é ainda pior, que você só receba informações que sejam contrárias, falsas ou divergentes e contraditórias em relação a ele ou ela. Qual é a consequência desses processos em relação ao tão famoso pluralismo? Quem decide o que veremos? Quais as regras por trás desse funcionamento? Há muito em jogo.

Estamos avançando, evidentemente, alguns marcos legais importantes foram construídos e o Legislativo tem pautado esses assuntos de maneira sistemática. Preocupa, contudo, que essa discussão esteja sendo feita seja de forma tão unilateral, como se não tivéssemos aprendido nada com o Marco Civil da Internet. É fundamental que o processo de inteligência artificial seja transparente para que saibamos a quais regras estamos sendo submetidos. Afinal, é muito difícil jogar um jogo que não se sabe as regras. Além disso, que sejam algoritmos constantemente checados para a redução de vieses que já reproduzem desigualdades estruturais e que todos e todas tenham o direito assegurado à informação, tão fundamental na tomada de decisão.

Comentários

Os comentários são exclusivos para assinantes do Estadão.