Avanço das decisões algorítmicas no mundo do trabalho

Avanço das decisões algorítmicas no mundo do trabalho

Tereza Ribeiro e Santamaria N. Silveira

21 de julho de 2021 | 07h00

Tereza Ribeiro e Santamaria N. Silveira. FOTO: DIVULGAÇÃO

Enquanto as leis são lentas, a tecnologia se desenvolve rapidamente. É  fato que o Direito não consegue acompanhar as mudanças sociais no ritmo necessário  e esse vácuo vem se acentuando quando se trata de tecnologias emergentes. Nesse cenário, um dos  desafios recorrentes  recai sobre os sistemas algorítmicos  e alimentam as discussões se sua aplicação está em conformidade com a lei  que regulamenta a IA ¹e  se é socialmente justa no mundo do trabalho.

O algoritmo pode ser definido como “ um conjunto de etapas usadas para completar uma tarefa específica. São como blocos de construção da programação e permitem que coisas como computadores, smartphones e sites funcionem e tomem decisões”.²

O chamado gerenciamento por algoritmo continua crescendo, independente de erros ou acertos, e utiliza infinitas fontes no seu processo. Tem acesso aos  amigos dos candidatos nas redes sociais, registros de saúde e financeiro, uso do GPS,  opiniões políticas, como gasta seu tempo livre etc. Há em curso projetos que analisam até expressão facial e discursos nas entrevistas de vídeo de candidatos,  na tentativa de ir além de currículos, de forma automatizada.

A despeito da existência ou não do regramento legal, não  há dúvidas de que o recrutamento de trabalhadores está  cada dia mais automatizado e com demandas por precisão e eficiência, uma vez que  o turn over dentro das empresas resulta em prejuízo, pois a cada nova contratação, a companhia precisar treinar os novos colaboradores e fazer a integração na empresa. E isso tem custos.

As abordagens éticas envolvendo os algoritmos nos levam à discussão sobre como vencer os preconceitos, avaliando as habilidades de um candidato da forma mais neutra possível, sem saber seu gênero, etnia, se tem filhos,  local onde reside ou onde estudou e para quem já tinham trabalhado nos empregos anteriores.

Há casos famosos no mercado, como o de uma big tech que descartou um algoritmo de recrutamento que selecionava menos candidatas mulheres do  que homens. A ferramenta de contratação procedia a pontuações de um a cinco estrelas para os candidatos a uma vaga na empresa, sendo que o algoritmo rebaixava pontos onde encontrava a palavra feminino e faculdades voltadas à formação de mulheres.  O programa  discriminatório  acabou encerrado, mas a experiência  vem sendo aproveitada em novos projetos,  já  que o algoritmo conseguia reconhecer 50 mil termos encontrados em currículos e atribuir classificações.

A questão do uso corporativo de dados pessoais ainda não está resolvida. O problema se amplia quando as empresas utilizam organizações terceiras para coletar e tratar dados de funcionários ,  sendo que a  segurança da informação é fundamental, principalmente em um país onde a vigência de Lei Geral de Proteção de Dados  (LGPD ) é recente e as sanções começam este ano e não há na sociedade  brasileira  uma cultura consolidada sobre privacidade e proteção dos dados pessoais,  regrados por consentimentos prévios dos titulares desses dados.

A discriminação  racial por algoritmo  ganhou projeção na  mídia internacional   fora do mundo do trabalho, por meio do  algoritmo Compas (Correction Offender Management Profiling for Alternative Sanctions) empregado nos Estado Unidos para prever se réus podem ser reincidentes. Nesse sentido, o algoritmo auxilia os magistrado a decidir sobre a liberdade condicional de um suspeito, com pagamento de fiança. A ferramenta  usa um algoritmo secreto, ao qual  nem os juízes tiveram acesso, e  que empregou critério étnico contra afrodescendentes para proceder à análise de risco. Os réus negros tinham duas vezes mais  probabilidade de serem erroneamente apontados como  de alto risco, portanto, passíveis de reincidência.³

Diante do incremento do volume de dados, os algoritmos tornam-se essenciais para tomar decisões preditivas e fazer julgamentos  sobre as  aptidões humanas de um candidato  a um posto de trabalho dentro das empresas . Mais: ainda temos de levar em consideração que os sistemas algorítmicos são protegidos por direitos de propriedade intelectual e segredo comercial. Recentemente,  o Tribunal Superior  do Trabalho (TST) suspendeu recentemente a perícia no algoritmo de uma plataforma de mobilidade que atua no Brasil com base nesses argumentos.

Mas os algoritmos tomam decisões imparciais ? Podem discriminar grupos  minoritários por fatores  de gênero, etnia-raça, orientação sexual, deficiência, origens, dentre outros? Quais são seus riscos? Há muitas perguntas que implicam em questões de regulação ética e jurídica, que ainda não possuem respostas. Um algoritmo pode, sim, discriminar,  dependendo de sua programação, do tipo de dados  usados para treinar a  máquina de forma que ela faça  esse tipo de correlação discriminatória.  Ela pode em um recrutamento e seleção para uma empresa  excluir , por exemplo, determinados CEPs da cidade, deixando à margem do processo candidatos que residam em comunidades, com perfis mais carentes e, possivelmente, com parcela maior de pretos e pardos.

Embora esteja constatado que há parcialidade e  discriminação humana, intencional ou não, na seleção e contratação das empresas; a  discriminação algorítmica vem se consolidando como um dos grandes temores no mundo do trabalho, porque ao invés de tornarem neutras, possam a dar continuidade a essas discrepâncias. A Constituição Federal de 1988, no artigo 5º, Caput, assegura que “Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à propriedade, nos termos seguintes;”. No mesmo sentido, a LGPD (Lei 13.709/2018), no artigo 6º, IX , estabelece a  não discriminação, considerando a” impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos”. Mas, esse arcabouço legal será suficiente para delimitar os julgamentos demandados pelos algoritmos? Ou mais uma vez nos defrontamos com a necessidade de termos leis e processos que garantam mais transparência aos processos algorítimicos.

Um caso trabalhista envolvendo discriminação algorítmica chegou aos tribunais italianos, que seguem a Convenção de Proteção de Dados 108+ do Conselho da Europa e a GDPR (Regulamento Geral sobre Proteção de Dados). O processo considerou discriminatório o algoritmo de um APP de entrega de alimentos, que classificava o turno dos trabalhadores segundo sua “confiabilidade” . Essa confiança era medida pela assiduidade nos turnos. Ou seja, não levava em consideração as justificativas do entregador para  não cumprir determinado turno, como por exemplo estar doente. E , dessa forma, quem faltasse, independente do motivo, era classificado como “menos confiável”.

No que tange às normas brasileiras, estão previstas no artigo 473 da CLT as hipóteses onde o empregado pode se ausentar do trabalho sem prejuízo no salário, como por exemplo, quando tiver que comparecer em juízo e no caso de doação voluntária de sangue, dentre outras, e há também as faltas justificadas, como por exemplo, no caso de apresentação de atestado. Além destas normas podem constar outros ajustes referentes a este tema nos acordos e convenções coletivas do sindicato da categoria e da empresa. Acaso a empresa identifique algum empregado que esteja faltando além dos limites da razoabilidade, um acompanhamento próximo a esse empregado deve ser realizado a fim de identificar se a empresa pode auxiliá-lo de alguma forma, até mesmo considerando que as faltas que não forem justificadas podem ter impacto direto ao período das férias e ao DSR, bem como em todo o impacto que estas ausências podem ocasionar para a empresa.

O que temos acompanhado nos últimos anos é uma mudança na postura do Legislativo e do Executivo que agora agem ativamente, ao invés de simplesmente coibirem,  aprovando e promulgando leis trabalhistas mais efetivas, que se adequem a novas situações e visem incluir grupos sociais minoritários, como por exemplo aqueles voltados as pessoas com deficiência, conforme preceitua o artigo 93 da lei 8.213/91. Além disto, temos algumas outras leis esparsas. O Brasil ratificou a Convenção nº 111 da OIT, que proíbe qualquer tipo de discriminação no ambiente de trabalho.  Temos também a lei 9029/95 que trata das admissões discriminatórias e o Decreto 3.298/99 que regulamenta a lei 7.853/89 relativas à Política Nacional de Integração dos PcD’s, além da Súmula 443 do TST que proíbe a dispensa discriminatória em razão de doenças graves que causem estigma ou preconceito, no ambiente de trabalho.

Agora, todo esse arcabouço legal  terá de se encaixar em uma nova realidade de ampliação do uso da Inteligência Artificial, geradora dos algoritmos, para  seleção e recrutamento, avaliação e dispensa de colaboradores, a configurar uma nova realidade para as relações trabalhistas  em todo o planeta.

*Tereza Ribeiro é advogada, sócia da Lee, Brock, Camargo Advogados (LBCA) e especialista em Direito Trabalhista

*Santamaria N. Silveira é jornalista, head de conteúdo da LBCA e presidente do Subcomitê de Afrodescendentes do escritório

¹No Brasil, há em tramitação  no Senado Federal Projetos de Lei que visam regular o uso da Inteligência Artificial   (PL 5051/2019) e instituir a Política Nacional de Inteligência Artificial (PP 5691/2019).

²Disponível em : https://edu.gcfglobal.org/en/computer-science/algorithms/1/&prev=search&pto=aue

³Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

Tudo o que sabemos sobre:

Artigo

Comentários

Os comentários são exclusivos para assinantes do Estadão.