Moderação de conteúdo nas redes sociais: em qual etapa estamos?

Moderação de conteúdo nas redes sociais: em qual etapa estamos?

Roberta Helena Chiminazzo*

20 de novembro de 2021 | 09h00

Roberta Helena Chiminazzo. FOTO: DIVULGAÇÃO

Eventos recentes, como a controvérsia da MP do Marco Civil da Internet e o escândalo Facebook Files, divulgado pelo The Washington Post, trazem à tona questionamentos sobre como deve ser feita a moderação de conteúdo nas redes sociais e quais parâmetros legais devem ser impostos.

Uma das principais demandas sociais é a coibição de discursos de ódio, desinformação e das fake news. Esses últimos se intensificaram consideravelmente, principalmente diante do grande número de informações falsas que circularam sobre a pandemia do Covid-19. O fenômeno não é restrito ao Brasil e ensejou amplo debate sobre fake news no mundo, motivando a elaboração de normas pela União Europeia (“Roadmap: Fakenews and online disinformation”) e pela Alemanha (“Netzwerkdurchsetzungsgesetz” ou “NetzDG”), por exemplo.

O tema é complexo, visto que é necessário encontrar um equilíbrio entre a liberdade de expressão, liberdade das plataformas gerirem o próprio negócio e a possibilidade de controle e regulamentação de discursos veiculados em redes sociais, buscando-se uma compreensão mais elaborada do que é público e privado nesses meios.

Isso é relevante porque mesmo em um ambiente a princípio privado, as repercussões públicas de conteúdos postados em redes sociais chamam atenção para a necessidade de algum grau de controle para garantir, se não o bem comum, para que pelo menos não haja prejuízo à sociedade.

Cenário Brasileiro

No Brasil, assim como na maioria dos países, as plataformas e redes sociais podem fazer a própria gestão do conteúdo publicado, de modo que cada uma define critérios próprios para o que pode ser veiculado e as redes sociais passam a ganhar identidades a partir dos seus parâmetros estabelecidos.

As plataformas não são responsabilizadas por conteúdo de terceiros, apenas quando descumprirem ordem judicial específica para tornar indisponível conteúdo apontado como infringente, conforme define o artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014).

Recentemente, o Governo Federal tentou emplacar a Medida Provisória do Marco Civil da Internet (MP 1.068/2021), impondo diversos requisitos prévios à remoção de contas e conteúdo nas redes sociais. A MP buscava elencar as hipóteses, de justa causa, em que poderia haver restrição ao acesso de funcionalidades de redes sociais.

Essas hipóteses de justa causa são o inadimplemento do usuário, contas simulando a identidade de terceiros, contas geridas por computador, violação de direitos autorais, divulgações de atos sexuais, prática, apoio, promoção ou incitação de crimes contra a vida, pedofilia, terrorismo, tráfico, organizações criminosas, dentre outras.

Os diversos requisitos para a remoção de conteúdo foram impostos a princípio sob pretextos positivos, indicando a liberdade de expressão e manifestação de pensamento. A norma retirava das plataformas a possibilidade de excluir conteúdo com base nas suas próprias regras para impor uma lista estabelecida em lei.

Contudo, diversos problemas emergem na prática para a execução da moderação nas redes sociais. A questão é tão conflituosa que partidos políticos e a OAB pediram a inconstitucionalidade da MP no STF, que suspendeu a vigência da norma, e o próprio Congresso Nacional devolveu a MP ao Governo Federal. Paralelamente, diversos projetos de lei buscam endereçar o tema (como os PLs nº 213/2021, nº 246/2021, nº 291/2021, nº 495/2021, nº 1.362/2021 e nº 2.831/2021) e seguem a proposta da MP, visando punir as redes sociais pela exclusão de conteúdo.

Por outro lado, há outro projeto (PL nº 2630/2020) que visa justamente combater a propagação das fake news nas redes sociais, incumbindo os moderadores de maior responsabilidade na gestão. Sua atuação deve envolver, dentre outras atividades, verificação da autenticidade de contas, identificação de mensagens impulsionadas ou publicitárias e publicação relatórios de transparência, informando procedimentos e decisões de tratamento de conteúdo.

Cenário internacional

No exterior, as discussões sobre o tema também ainda estão caminhando. Vale destacar a experiência da Alemanha, que instituiu o NetzDG, obrigando plataformas a combater fake news e mensagens com conteúdos ofensivos. Além disso, as redes sociais devem fornecer relatórios informando como estão lidando com publicações de conteúdo criminoso e como é o processo decisório adotado para a escolha de retirada dessas publicações.

Embora o NetzDG tenha sido criticado por supostamente infringir a liberdade de expressão, o diploma normativo traz mecanismos que permitem exigir transparência da rede social e compreender devidamente se os critérios utilizados para barrar conteúdos inadequados são eficazes ou não.

A União Europeia criou Código de Conduta de 2016, no qual as redes sociais poderiam aderir voluntariamente, visando criar mais transparência e eficiência na gestão de contas e conteúdo. Como se nota, não se tratava de uma regra impositiva, mas de uma soft law que pode trazer benefícios se o contexto for de fato de colaboração.

Em 2018, foi elaborada a Diretiva 2018/1808, que passou a impor às redes sociais e plataformas as mesmas regras aplicáveis às emissoras de rádio e TV, visando principalmente coibir a propagação de discursos de ódio, exclusão de conteúdos e etiquetação de faixas etárias e conteúdo impróprio.

Uma solução pela transparência

Soluções que são excessivamente restritivas em relação à publicação podem facilmente violar a liberdade de expressão. Por outro lado, não impor regras sobre mediação cria problemas como de desinformação e discursos criminosos e inadequados. Sendo assim, mesmo o ambiente da rede social sendo a princípio privado, o conteúdo lá veiculado possui um alcance público e que se torna de interesse público quando afeta questões de saúde pública ou eleitorais, por exemplo. Nesses casos, é possível que haja uma regulação, na extensão em que esse uso for público.

Nesse sentido, a adoção de medidas que demandam transparência é uma solução bastante positiva e pode ser aplicada tanto na identificação de contas e conteúdo, como indicação expressa dos critérios de moderação. Em relação ao primeiro, confere ao usuário mais elementos sobre a procedência do conteúdo. Quando ao segundo, evidenciar os critérios de moderação de uma rede social permite que o usuário avalie o conteúdo publicado e se identifique ou não com aquele ambiente. Com isso, plataformas que não possuem qualquer tipo de filtro podem ser analisadas com mais desconfiança pelo público.

Evidenciar os critérios de moderação também pode evitar injustiças apenas como decorrência da publicização em si. A questão da igualdade na avaliação de conteúdo veio especialmente à tona com o caso do Facebook: verificou-se que a moderação de pessoas famosas era significativamente mais branda, permitindo que várias publicações ficassem sem a devida revisão. Trata-se de uma evidente falha na igualdade em que usuários devem ser tratados pelas plataformas.

Embora os países estejam avançando e buscando pautar o tema da moderação das mídias e redes sociais, a demanda por transparência é uma diretriz clara. Nesse contexto, o Brasil está em sintonia com as discussões internacionais sobre o tema, na medida em que também vem pautando projetos de lei para estabelecer nova legislação.

Como visto, existem muitas questões que ainda devem ser debatidas, principalmente a compreensão de qual é o papel da administração das redes sociais e de que medida pode contribuir para evitar danos em um espaço que é extremamente usado atualmente e que tem o potencial de influenciar milhares de pessoas.

*Roberta Helena Chiminazzo, advogada da Manesco Advogados

Tudo o que sabemos sobre:

Artigoredes sociais

Comentários

Os comentários são exclusivos para assinantes do Estadão.