PUBLICIDADE

Foto do(a) blog

Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

O dilema das pesquisas das redes

Por Cláudio Lucena e David Morar
Atualização:
Cláudio Lucena e David Morar. FOTO: DIVULGAÇÃO Foto: Estadão

Em 4 de outubro de 2021, o Facebook desapareceu da internet. O gigante das redes sociais, incluindo todos os seus outros serviços e produtos, não existia mais na rede, seus servidores não podiam mais ser encontrados, todas as curtidas, compartilhamentos e postagens sumiram e nada disso se podia encontrar em parte alguma. A questão foi remediada à medida que o problema, um erro do sistema de nomes de domínio, era corrigido. Lentamente, depois de quase 6 horas, todos os sites e aplicativos que bilhões de pessoas usam para se comunicar, trabalhar, se relacionar e ficar conectadas de maneira geral voltaram a estar online.

PUBLICIDADE

Este problema foi simples de corrigir. As pessoas responsáveis pela empresa controladora da plataforma perceberam e identificaram que havia um problema, encontraram uma maneira de corrigi-lo e tomaram as medidas para isso. Infelizmente, nem todos os problemas seguem essa solução simples de três passos. E mesmo quando isso ocorre, tem que haver boa vontade por parte da empresa para percorrer esse caminho tríplice.

Pode ser o momento de converter essa boa vontade em uma obrigação.

Há anos uma grande parte da sociedade civil tem a suspeita de que as plataformas de mídia social contribuem para esgarçar os valores humanos (a democracia entre elas) com um papel que não é trivial. Com certeza, redes sociais não são as únicas razões para os seres humanos serem horríveis com outros seres humanos. Ideologia, a mídia tradicional, a própria natureza humana e muitos outros fatores certamente têm seu peso. Mas o papel das plataformas de mídia social no resultado negativo desta equação foi sendo ao longo dos anos um tanto obscurecido, com alguns alertas sendo feitos apenas por pessoas que poderiam facilmente ser rotuladas como partidárias da intenção de derrubar as "Big Tech".

Há poucos dias, uma ex-funcionária do Facebook, Frances Haugen, testemunhou perante o Congresso dos Estados Unidos. Pelas suas declarações, Haugen não é uma funcionária insatisfeita que deseja ver a empresa explodir em chamas. Pelo contrário, ela acredita na missão e no espírito da empresa, mas também acredita que ela precisa fazer melhor e quer vê-la florescer.

Publicidade

Ela revelou que era a denunciante que vinha fornecendo ao Wall Street Journal pesquisas internas confidenciais do Facebook. Haugen, uma ex-gerente de produto, teve acesso, mas não estava diretamente envolvida com as equipes do Facebook responsáveis pela pesquisa. Desde então, ela explicou que também compartilhou esses e mais documentos - ela afirma ter centenas - com um conjunto bipartidário de senadores e membros do Congresso americanos.

É um testemunho que leva todos nós à primeira, e possivelmente mais importante etapa do método de solução de problemas de três passos: perceber e identificar que existe um problema. O manancial de documentos, ou pelo menos aqueles que foram compartilhados publicamente, mostra não só que há um problema, mas que o Facebook sabia dele; há indícios no mínimo preocupantes de que a plataforma e seus serviços, da forma como vêm sendo utilizados e geridos, têm contribuído para a erosão de valores humanos.

A etapa dois, como consertar este problema, se abre em outro, que é a constatação de que as plataformas, grandes e pequenas, criam pesquisas rigorosas, amplas e representativas voltadas para consumo interno, mas guardam estes estudos para si. As plataformas de mídia social, particularmente as de grande escala, não devem ser as únicas envolvidas na tarefa de descobrir como resolver este tipo de problema. Não porque não sejam capazes de consertar as coisas por conta própria, mas porque a forma como tentam consertá-las naturalmente privilegia o resultado financeiro, o interesse corporativo, a visão de negócio - não o aprimoramento da sociedade.

O ponto é que as Big Tech sabem disso, têm sido deliberadas em fazer crer que o problema é outra coisa, e que a solução é uma regulamentação que elas podem conduzir e que ao final pode favorecê-las. Mais do que isso, no caso relatado pela Sra. Haugen, as métricas detalhadas e pesquisas produzidas internamente não foram compartilhadas com grupos, segmentos e indivíduos - a quem as plataformas ainda se referem com frequência como "a comunidade" - que têm interesses legítimos em entender e ajudar a "consertar" a plataforma.

Esse pode ser um bom ponto a partir do qual deveríamos começar a desmontar uma falácia semântica muito prejudicial. Não existe comunidade quando apenas os membros que dão as cartas e fazem as regras têm acesso a informações tão sensíveis que podem comprometer - como tem frequentemente acontecido - a integridade das relações mais básicas do grupo.

Publicidade

Por mais que esse ambiente tenha possibilitado trocas valiosas ao longo desses anos, e por mais que essa transformação tenha significado algum grau de inclusão, diversidade, expansão de espaço para falas e vozes antes não consideradas, o fato de que as empresas podem ser, ainda que involuntariamente, uma plataforma para o ódio, é em si fonte de uma preocupação significativa; é o problema que todos deveríamos estar tentando resolver. Agora, que elas possam estar se aproveitando disso para aumentar o engajamento é absolutamente inadmissível. A única coisa mais intolerável que se pode pensar é que, tomando consciência disso, com evidências sólidas do que está acontecendo, se renuncie ao passo dois - tentar consertar - para agarrar-se com firmeza ao status quo.

CONTiNUA APÓS PUBLICIDADE

É bem verdade que esta segunda etapa é bastante complicada. Os reguladores, as pessoas que geralmente têm a tarefa de encontrar maneiras de resolver os problemas, nunca serão capazes de pensar em instrumentos adequados se não tiverem acesso à vida, como ela é. A maneira anacrônica como funcionam as políticas de regulação de tecnologia nunca será capaz de produzir resultados eficientes. Enquanto isso, os danos se aprofundam, exacerbados pela assimetria de informação das plataformas que possuem - e guardam para si - todos os recursos e informações relevantes sobre questões que têm evidente alcance público.

Com as pesquisas internas que produzem, os problemas se tornam evidentes para as plataformas muito antes do que a sociedade consegue - quando consegue - identificar as tendências. Quando as questões chegam a este estágio de conhecimento público, geralmente as coisas já estão tão quebradas que o problema já está consolidado além de qualquer ponto de retorno possível ou viável. O segundo passo, corrigi-lo, torna-se virtualmente impossível. Todos os esforços posteriores, tentativas ex post, vão sempre esbarrar nas restrições e produzir os resultados limitados de qualquer medida fora de hora, que perdeu a oportunidade de uma intervenção preventiva, didática ou mesmo profilática no momento oportuno, quando ela ainda podia ter tido efeito.

Nesta altura serão medidas que pretendem produzir efeitos em um mundo que já não existe.

Isso quer dizer que quando ainda há tempo para tomar uma decisão que tenha impacto efetivo no desdobramento de uma nova tendência, de um novo produto, serviço, de uma nova tecnologia ou de um novo hábito, essa decisão é tomada pelo únicos membros da comunidade que têm as informações relevantes, que são os conselhos corporativos, sempre como um movimento de negócios, nunca de bem-estar ou de equilíbrio social.

Publicidade

Dada a velocidade em que a inovação caminha neste setor, nunca haverá uma chance justa de desenvolver um ambiente digital saudável enquanto esses processos forem completamente planejados, construídos, desenvolvidos, incentivados e medidos por decisões internas das corporações. Assim a sociedade entra apenas no final da conversa, e suas opiniões e propostas de soluções têm potencial de impacto real muito limitado. Se o resto de nós só puder dizer "Essa não é a melhor maneira de consertar as coisas" depois da terceira etapa, que é quando se implementa "a correção", não há aí um relacionamento de colaboração ou de comunidade genuíno.

Pode ser necessário considerar ideias radicais. A perspectiva predominante que a sociedade ocidental geralmente adota em relação às plataformas tecnológicas, a de um mercado livre, preocupado em conferir proteção destacada à propriedade, ao segredo comercial, à iniciativa econômica, ao empreendedorismo inovador entre outros contrapontos à intervenção pública mais incisiva, requer alguns ajustes para atingir plenamente seu potencial, consideradas as variáveis do mundo em que vivemos. Especialmente quando o potencial negativo sem esses ajustes é aquele que agora vemos ao nosso redor, ou seja, divisão, polarização, colapso das normas democráticas e muito mais.

Os recursos técnicos e humanos que estão à disposição das plataformas digitais as colocam em uma posição única para controlar pesquisas que melhoram suas operações de negócios, estratégia comercial, inteligência e abordagem de mercado.

Mas todos sabemos que os modelos de negócios dos operadores de redes sociais ecoam para muito além destas preocupações privadas.

E é isso que deixa claro que há uma necessidade de que as plataformas compartilhem sua pesquisa e os respectivos dados, aprofundem o trabalho em cooperação, talvez até por uma obrigação de fazer isso por previsão formal em normas jurídicas cogentes.

Publicidade

Este não é um insight inédito. A necessidade de aprofundar este tipo de colaboração já foi destacada e discutida, ainda que superficialmente, em textos, eventos, painéis, debates públicos e em outras oportunidades no diálogo global sobre governança de Internet. E pode-se dizer que há até um consenso geral no sentido de que a necessidade existe, inclusive por parte das plataformas.

Mas ao mesmo tempo parece haver uma expectativa por parte destas empresas, de que a comunidade e outros atores externos vão simplesmente tomar as pesquisas que elas realizam e os esclarecimentos que eventualmente prestam por suficientes, sem a curiosidade de validar, sem fazer perguntas, sem questionar escolhas, sem conhecer a motivação, resignando-se a aceitar o recorte, o método, e principalmente, já que estamos falando bastante em ciência ultimamente, sem poder reproduzir e confirmar ou refutar os resultados. Essa é uma expectativa inexplicável e incompatível com o reconhecimento de que é preciso aprofundar a cooperação.

As plataformas são as únicas que produzem pesquisa a partir das bases de dados reais, do universo integral dos registros. Com raríssimas exceções, as pesquisas independentes atuais conseguem no máximo coletar e trabalhar sobre amostras, subconjuntos, representações do universo de dados efetivamente observado. E não raro apontam resultados distintos das pesquisas de consumo interno da indústria.

Não se trata de sugerir que para isso há uma solução fácil ou simples. A preocupação com a proteção da propriedade, da confidencialidade de informações estratégicas sobre o modelo de negócio, do segredo empresarial, da iniciativa econômica, do empreendedorismo inovador e dos outros valores mencionados acima tem suas razões de ser, é legítima, e é fundamento constitucional de praticamente todos os países do mundo. Determinar, pura e simplesmente, que toda e qualquer informação disponível, base de dados ou estudo interno produzido por esta indústria precisa ser trazido a público, com acesso indiscriminado e sem reflexões cuidadosas muito provavelmente violaria todos os interesses constitucionalmente protegidos mencionados acima.

Mas é preciso encontrar uma forma. Nossa coexistência sustentável no ambiente digital depende de encontrarmos para essa situação uma estratégia de cooperação, de pensarmos em condições e controles por meio dos quais seja possível preservar o núcleo destes interesses corporativos legítimos que estão em jogo, mas que também sejam capazes de proporcionar à comunidade o acesso necessário à informação relevante que permita intervenções e propostas de ajuste de rota que façam sentido e que tenham chance de eficiência. Não é possível que problemas humanos e sociais críticos sejam detectados por ações corporativas, e que por uma opção desses interesses corporativos, tais problemas nunca venham à tona, venham tarde demais, ou que simplesmente se afirme unilateralmente que eles não existem, sem se permitir a verificação externa por agentes legítimos.

Publicidade

Já passou do tempo para um equilíbrio mais adequado entre interesses corporativos legítimos e os interesses públicos relacionados à operação deste tipo de indústria. É preciso encontrar esse equilíbrio, antes de chegarmos ao ponto em que os primeiros interesses acabem comprometendo irremediavelmente os últimos, por lucro ou poder.

A Professora Laura DeNardis defende que entender, e quando necessário intervir no papel das plataformas de mídia social - a quem chama de intermediários da informação - é essencial para uma sociedade saudável, porque estes intermediários privatizaram determinadas condições para o exercício de certos direitos e liberdades. O depoimento de Frances Haugen torna possível deduzir o argumento legítimo de que este papel talvez tenha ido ainda mais longe.

Estamos em um impasse porque não temos um entendimento claro sobre o que exatamente está acontecendo, e é inviável, para não dizer inútil, seguir dependendo de whistleblowers periódicos como Haugen para descobrir o que as plataformas já sabem. Claramente, este não é o caminho a percorrer quando há tanto interesse público em jogo, e certamente não é o caminho a seguir para construir uma comunidade ou estabelecer confiança. É difícil encontrar uma solução para a etapa dois se estamos sempre limitados a tentar adivinhar o problema da etapa um. Certamente, exigir o compartilhamento pode ter um efeito inibidor na realização de pesquisas e pode levar as grandes plataformas a simplesmente decidir parar de fazer esse trabalho interno. É uma questão complicada de como equilibrar os requisitos de transparência, o interesse corporativo e a reconstrução da confiança entre todas as partes interessadas em um ambiente digital seguro e que seja um espaço civilizado de realização pessoal e coletiva.

Isso não significa que todos não devamos estar ativamente tentando resolver este impasse, em um diálogo aberto, embora contundente, mesmo que a única solução que venha à tona, tentando encontrar o mínimo de desvantagem possível, seja tornar este tipo de cooperação de pesquisas internas vinculativa por meio de regulação.

Se o Facebook consegue voltar a ficar online depois de sumir da Internet, tudo é possível.

Publicidade

*Cláudio Lucena é membro do Conselho Nacional de Proteção de Dados Pessoais e da Privacidade e professor na Universidade Estadual da Paraíba (UEPB)

*David Morar é pesquisador associado pós-doutoral na New York University (NYU) e no CEAPPG/UEPB

Comentários

Os comentários são exclusivos para assinantes do Estadão.