Os riscos do tratamento automatizado de dados nas relações de trabalho

Os riscos do tratamento automatizado de dados nas relações de trabalho

Priscila Kirchhoff e Igor Tavares*

13 de dezembro de 2020 | 10h00

Igor Tavares e Priscila Kirchhoff. FOTOS: DIVULGAÇÃO

O advento de novas tecnologias traz consigo possibilidades inéditas, principalmente no que se refere ao aumento produtividade em atividades que outrora exigiam grande dispêndio de horas de trabalho humano, fato este que se intensifica como nunca na chamada Indústria 4.0. Nas relações de trabalho não poderia ser diferente, sendo que, atualmente, muitas empresas se utilizam de sistemas automatizados para condução de seus processos seletivos, para garantir eficiência no processo de análise dos currículos, garantindo a triagem apenas daqueles que aqueles efetivamente interessam.

Há assim inegável ganho de tempo, bem como diminuição dos custos relacionados a essa atividade. Contudo, apesar dos inúmeros benefícios que os avanços tecnológicos trazem, eles podem carregar em si um grande risco, especialmente diante das disposições constantes da Lei Geral de Proteção de Dados (LGPD) e da própria legislação trabalhista. Isto porque o tratamento de dados totalmente automatizado pode conter padrões discriminatórios desconhecidos até mesmo por seus controladores, já que o processo decisório da Inteligência Artificial, ainda que imparcial, pode reproduzir distorções sistêmicas que já são encontradas na sociedade.

O caso paradigmático sobre o assunto se refere a um sistema de Inteligência Artificial criado pela gigante do varejo e tecnologia Amazon, que, em teoria, serviria para identificar os maiores talentos nos currículos recebidos, tornando mais eficiente o processo de seleção e recrutamento. Apesar do propósito inicialmente estabelecido, constatou-se ao longo do tempo que os algoritmos do sistema discriminavam as candidatas do sexo feminino, cujos currículos eram imediatamente descartados.

Como o meio da alta tecnologia é amplamente dominado por profissionais do sexo masculino, os algoritmos da Inteligência Artificial reproduziram esse padrão, entendendo que os candidatos seriam mais desejáveis do que as candidatas. Assim, apesar do sistema não ter sido desenvolvido com nenhum propósito discriminatório, em sua análise puramente estatística (neutra) dos dados fornecidos, chegou-se à conclusão de que os candidatos do sexo masculino seriam “mais aptos”, já que eram maioria nas contratações e na alta hierarquia da empresa.

Dessa forma, é de extrema importância que haja uma análise humana e constante dos resultados produzidos pelos sistemas automatizados de forma a se corrigir padrões que possam discriminar determinados grupos da sociedade, evitando-se que a empresa sofra punições, além de inegável prejuízo reputacional – especialmente em uma era em que temas como bluewashing e greenwashing são amplamente debatidos.

Um dos princípios que regem as atividades de tratamento de dados pessoais é o da não discriminação, o que demonstra a importância do tema para a LGPD. Além disso, a legislação laboral não tolera condutas discriminatórias, podendo ser citadas a título meramente exemplificativo a Lei 9.029/95 e o art. 373-A da CLT.

Outro princípio de extrema relevância para a LGPD é o da transparência e, em sua decorrência, a legislação garante aos titulares dos dados pessoais o “direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”, justamente para evitar condutas discriminatórias, abusivas ou antiéticas.

Caso seja constatado no caso concreto que o sistema automatizado utilizado pela empresa possui um viés discriminatório, impedindo que grupos específicos da sociedade, tenham acesso ao mercado de trabalho, essa poderá sofrer severas punições não somente na esfera administrativa pela Agência Nacional de Proteção de Dados, mas também ser alvo de Ações Civis Públicas movidas por Sindicatos ou pelo Ministério Público do Trabalho, além de ações individuais dos próprios indivíduos afetados por esse sistema em decorrência dos danos pré-contratuais que lhe foram infligidos.

Os avanços tecnológicos não podem ser utilizados para repetir antigos – e ultrapassados – padrões da sociedade, e sim para alcançar a inclusão e a diversidade no mercado de trabalho. Nessa medida, a tomada de decisões totalmente automatizada deve ser feita de forma extremamente cautelosa e com constante supervisão de seus padrões decisórios.

*Priscila Kirchhoff e Igor Tavares, sócia e associado da área trabalhista de Trench Rossi Watanabe

Notícias relacionadas

Comentários

Os comentários são exclusivos para assinantes do Estadão.