A regulação do discurso nas redes sociais

A regulação do discurso nas redes sociais

A governança privada de empresas big tech

Pedro Gonet Branco e Mateus Costa-Ribeiro*

29 de abril de 2021 | 15h25

Pedro Gonet Branco e Mateus Costa-Ribeiro. FOTOS: DIVULGAÇÃO

A internet foi concebida inicialmente como espaço com ampla – para não dizer infinita – liberdade de expressão. As pessoas sentiam-se à vontade para publicar todo tipo de conteúdo. Nela os usuários dispõem de uma vitrine individual para o mundo, uma vez que na rede não existe a figura do editor, que, na imprensa, tem a incumbência de regular o tipo de informação que pode ser divulgada e sua forma de publicação. A internet, em outras palavras, desburocratizou a manifestação de opiniões e abriu espaço para cada um dos seus usuários.

Com o advento das redes sociais de proporções globais as externalidades negativas da internet começaram a se manifestar. A capilaridade do mundo on-line viabiliza, por exemplo, (i) a propagação de notícias falsas, (ii) a emissão de discursos de ódio, (iii) o cometimento de crimes virtuais, tais quais roubo de dados pessoais, tráfico de produtos ilegais e exposição de material íntimo ou confidencial.

O potencial nocivo da internet fez com que se percebesse que, tal como nas sociedades “físicas”, as sociedades virtuais também precisam de regras de conduta, regras essas que se tornaram condição necessária para uma vida segura e harmônica em comunidade.

Surgiu, então, a dúvida sobre quem teria poder e legitimidade para propor, aprovar e aplicar essas regras de conduta do mundo digital, uma vez que a internet é espaço sem fronteiras físicas e interliga, de uma forma ou de outra, todas as nações do mundo a uma só vez.

A ausência de um Estado, composto por um território específico, com determinado povo, sobre os quais se exerce um poder soberano é, portanto, um grande desafio para a estabilização dessas regras nas plataformas digitais, as quais dependem em alguma medida dos serviços prestados por empresas privadas multinacionais como Google, Amazon e Facebook, entre muitas outras.[1]

As plataformas digitais assumiram, então, a condição de verdadeiras ágoras virtuais, pois tornaram-se ambientes centrais difusão de informação. Não à toa o Segundo Tribunal de Apelações do Circuito dos Estados Unidos, em Nova York, considerou inconstitucional que o chefe do Poder Executivo impedisse indivíduos de visualizarem uma conta oficial de mídia social usada para anunciar políticas governamentais.

Para preservar a liberdade online, foi editada a Section 230 nos EUA – país onde ficam as sedes de boa parte das empresas digitais que atuam no Brasil, por exemplo. Esse diploma legal determina que as plataformas digitais não têm responsabilidade pelo que terceiros colocam em seus websites, uma vez que não desempenham a função de editores – como ocorre na imprensa.

No mundo “físico”, entretanto, se alguém gritar “Fogo!” em uma sala de cinema lotada, com o único intuito de causar pânico, sabendo que não há nenhum foco de incêndio, será responsabilizado pelo Estado. A mesma lógica se aplica a quem direciona ataques a terceiros com base em sua raça, filiação religiosa, sexo, doenças. Toda liberdade de se expressar encontra barreira nos direitos do próximo, que poderá recorrer ao poder punitivo do Estado para tomar medidas contra o agressor.

Isso é verdade não apenas para o discurso no mundo físico, mas também para o que se realiza no mundo digital. Há uma única diferença: quando alguém ultrapassa os limites da liberdade de expressão nas redes sociais, fá-lo em um ambiente – em tese – privado. É o caso, por exemplo, do Facebook, espaço particular que se transformou em verdadeira praça pública, assumindo funções que excedem a esfera privada de uma empresa tradicional. Seus algoritmos e plataformas hospedam a voz de quase três bilhões de pessoas, entre elas cerca de 130 milhões de brasileiros.

A Suprema Corte dos Estados Unidos decidiu, no entanto, que empresas privadas de tecnologia não se submetem às mesmas obrigações que o governo. A elas não se aplica, por exemplo, a Primeira Emenda da Constituição norte-americana, que prevê o direito à liberdade de expressão, uma vez que o Bill of Rights diz respeito exclusivamente à ação estatal (state action).[2]

Apesar da salvaguarda da legislação e da jurisprudência norte-americanas, um ambiente que admitisse abusos e excessos chocantes dificilmente sobreviveria à concorrência que existe entre as plataformas por usuários ativos. Além disso, ao contrário do que determina o ordenamento jurídico dos Estados Unidos, outras nações onde essas empresas oferecem seus serviços não isentam por completo as redes sociais de responsabilidade pelo que nelas se posta, como é o caso, entre outros, do Reino Unido, da Alemanha, do Brasil e da França.

Não há exagero, portanto, em afirmar que essas companhias desempenham o papel de governantes privados da liberdade de expressão on-line.[3] Elas assumem, nesse contexto, atividade tipicamente estatal – neste caso, com a regulação do discurso de terceiros, o que importa na limitação aos direitos fundamentais dos cidadãos.

Para dar certa ordem a essa função, as plataformas passaram a criar normas que regulem restrições a determinados conteúdos considerados nocivos ou contrários às regras das redes sociais. Essas regras são importantes para que não se exclua o direito de se manifestar nas aplicações, espaço que se tornou a praça pública por excelência da modernidade, mas também que não se extrapole os limites do direito à liberdade de expressão.

Nesse sentido, as plataformas digitais passaram a encaminhar determinados conteúdos para verificação por moderadores, que poderiam excluir a postagem das redes. No caso do Facebook, os funcionários responsáveis por essa análise dispunham de diretrizes gerais, chamadas de Padrões da Comunidade (community standards). Diante do caso concreto, verificavam se havia ou não qualquer violação às regras estabelecidas pelos gestores da empresa.

Os Padrões da Comunidade contemplam temas como comportamento violento e criminoso, segurança, conteúdo questionável, integridade e autenticidade, respeito à propriedade intelectual, e solicitações e decisões relativas a conteúdo.

Alguns exemplos de discurso não causam tanta polêmica e são facilmente enquadrados nas diretrizes da rede social. É evidente que não se deve permitir, por exemplo, mensagem solicitando um assassino de aluguel, imagem de nudez explícita, divulgação de cartilha sobre como produzir bombas incendiárias, estímulo ao linchamento de um terceiro.

Outros casos são mais complexos, por se apresentam no limiar entre a liberdade de expressão e o risco para a segurança pública. É o caso, por exemplo, de políticos que defendem posicionamentos contrários ao que a corrente majoritária tem como verdade. O Facebook, acertadamente, adota postura de que não é seu papel “arbitrar debates políticos e impedir que o discurso de um político alcance seu público e seja sujeito a debate e escrutínios públicos”. O que a empresa costuma fazer em alguns casos é indicar que o assunto é controverso e oferecer outras fontes de informação para o usuário.

A despeito dessa política, o Facebook causou certa perplexidade ao apagar postagem do então Presidente norte-americano Donald Trump, alegando que se tratava de desinformação sobre a Covid-19. Pouco depois, em janeiro de 2021, bloqueou as contas do Presidente por tempo indeterminado, sob a justificativa de que estava incitando a violência e representando um risco para a segurança nacional.

Restrições como essa se valem de estratégias regulatórias que podem impactar frontalmente o exercício do direito à liberdade de expressão na Internet. O perigo é maior ainda quando a limitação vem pela decisão unilateral de um ator privado, não por algum representante do Poder Público. Isso porque os deveres de um governante e seu compromisso para com os cidadãos é bastante distinto das obrigações do administrador de uma empresa perante seus clientes e seus acionistas.

Quando os interesses públicos (public interest) se chocam com os interesses corporativos (corporate interest), os gestores da companhia privada deverão privilegiar o que trouxer maiores benefícios para a empresa, caso contrário, estarão comprometendo sua missão como gestores.

O Facebook decidiu, então, sujeitar suas decisões de moderação de conteúdo a um tribunal de supervisão (oversight board), que filtra potenciais tentativas de colocar o lucro da companhia acima da criação de um ambiente saudável.

Os “juízes” do “Tribunal” são remunerados por um trust criado com recursos financeiros do Facebook, mas que não sofre a ingerência da empresa. Dessa forma, os membros do Board são independentes para tomarem decisões contrárias aos supostos interesses corporativos da rede social.

Uma vez julgados, os casos analisados pelo “Tribunal do Facebook” se tornam precedentes para situações futuras e ajudam a fundamentar políticas da empresa.

O mais importante desse projeto é que seus membros prestam contas das suas decisões (accountability), justificando de forma transparente suas “sentenças”, e têm competência para publicar entendimento diverso daquele dos diretores do Facebook.

A iniciativa, evidentemente, não vai solucionar todos os problemas relacionados à limitação da liberdade de expressão por um agente privado. Não deixa de ser, no entanto, uma importante proposição para um ambiente virtual livre e, ao mesmo tempo, seguro.

Outro caminho eficiente para preservar o discurso online é a formulação de acordos internacionais que orientem a atuação no mundo virtual. Um bom exemplo é a enumeração dos Princípios Manila[4], que tratam da responsabilidade de empresas como o Facebook e estimulam transparência, liberdade e o devido processo legal aplicado às decisões de moderação nas redes sociais.

Iniciativas como essas mostram a inteligente aplicação de princípios para equilibrar o exercício do poder no ambiente digital, preservando os diferentes direitos fundamentais que se relacionam à vida virtual.

Como bem assentou o professor norte-americano Jack Balkin[5], as redes sociais já são protagonistas na esfera pública digital do século XXI – que elas mesmas criaram. Como tais, precisam se mostrar instituições responsáveis e confiáveis que permitam a manutenção de um ambiente virtual saudável, que só se concretiza com uma liberdade de expressão salutar. O trabalho transparente das companhias privadas será determinante, já que pertence a elas poder de controlar as opiniões que expressamos no mundo digital.

*Pedro Gonet Branco, acadêmico de Direito (UnB). Editor-chefe da Revista dos Estudantes de Direito da Universidade de Brasília (RED|UnB). Diretor Institucional da Alumni FD/UnB. Visiting-student na University of California Berkeley

*Mateus Costa-Ribeiro, bacharel em Direito pela Universidade de Brasília e mestre pela Harvard Law School. É o advogado mais jovem em atuação em Nova Iorque (Wall Street Journal) e integra a equipe de Global Capital Markets do Milbank LLP, escritório de advocacia norte-americano. Foi o mais jovem advogado da história a sustentar um caso perante o plenário do STF, aos 18 anos, desde a fundação da Corte em 1829

[1] Esse cenário se aproxima em alguma medida do que a humanidade experimentou nos séculos XVII e XVIII, em que grandes empresas privadas – como a Companhia Britânica das Índias Orientais e a Companhia Holandesa das Índias Ocidentais – desempenhavam papel que se aproximava daquilo que o Estado soberano deveria cuidar, como emissão de moedas, formação de exércitos, negociação de acordos entre nações, e até mesmo a administração de um território. Recorde-se que a Companhia Holandesa das Índias Orientais (WIC) chegou disputar com Portugal a soberania do Brasil Colônia. Entre 1630 e 1654, a Companhia privada dominou importantes cidades brasileiras, período que ficou marcado pela administração de Maurício de Nassau, funcionário da WIC.

[2] Manhattan Community Access Corp. v. Halleck, No. 17-1702, 587 (2019).

[3] Ideia desenvolvida por Gabriel Campos Soares da Fonseca, em “O mercado de ideias: liberdade de expressão, plataformas digitais e regulação da internet”, 2019.

[4] Determina, por exemplo, que (i) provedores de serviços na internet devem ser protegidos de eventual responsabilização em razão de conteúdo postado por terceiros; (ii) a remoção ou a restrição obrigatória de conteúdo deve ser feita após ordem judicial; (iii) pedidos de restrição de conteúdo devem ser claros e sem ambiguidades, bem como respeitarem o devido processo legal;  (iv) qualquer legislação que estabeleça parâmetros para a restrição de conteúdo em plataformas digitais deve estar de acordo com testes de necessidade e proporcionalidade; (v) o usuário deve ter o direito de se defender e contestar eventuais decisões desfavoráveis; e (vi) leis e políticas corporativas na área de moderação de conteúdo devem promover os valores da transparência e accountability.

[5] Palestra “How to Regulate (and Not Regulate) Social Media” proferida em 28 de outubro de 2019 na Association for Computing Machinery Symposium on Computer Science and Law, Nova Iorque.

Tudo o que sabemos sobre:

Artigo

Comentários

Os comentários são exclusivos para assinantes do Estadão.