Implicações éticas no uso da inteligência artificial

Implicações éticas no uso da inteligência artificial

Rosana Muknicka*

06 de novembro de 2019 | 06h58

Rosana Muknicka, sócia do escritório Schmidt Valois. Foto: Divulgação

O primeiro modelo artificial de um neurônio biológico foi descrito há 75 anos pelo artigo “A Logical Calculus of the Ideas Immanet in Nervous Activity”, do matemático Walter Pitts e do psiquiatra e neuroanatomista Warren McCulloch.

Por sua vez, o termo “Inteligência Artificial” ou, simplesmente, “IA” surgiu em 1955 em um artigo escrito pelo matemático do Massachussetts Institute of Technology (MIT) John McCarthy e seus colegas no Projeto de pesquisa de verão de Dartmount, Marvin Minsky, Nathaniel Rochester e Claude Shannon.

Surgem, pois, os primeiros estudos sobre as redes neurais artificiais (RNAs), que são modelos matemáticos/computacionais que possuem unidades de processamento, interligadas entre si por conexões que representam pesos, executando operações em paralelo e de forma distribuída.

Portanto, há décadas são estudados modelos capazes de identificar padrões e tomar decisões de forma autônoma Tais modelos vão desde o teste de Turing até modelos bioinspirados, como as redes neurais artificiais e algoritmos genéticos, ou são evoluções destes, tais como as redes neurais convolucionais.

Imensas são as expectativas de um potencial transformador positivo na utilização da IA em todos os setores da economia. Contudo, questões éticas e morais ressurgiram com o aumento da velocidade do processamento dos dados e da abundância de informação existente na internet. Como consequência do Big Data, materializou-se a importância dos controles éticos e morais na aplicação dos algoritmos e das bases de dados. Afinal, as três leis da robótica, eternizadas na ficção científica por Isaac Asimov, são insuficientes para dirimir os interesses e questões que hoje permeiam as discussões sobre IA.

Neste sentido, por exemplo, no artigo científico “Adversarial attacks on medical machine learning”, publicado na Revista Science de 22 de março de 2019, redigido em coautoria por membros da Universidade de Harvard e do MIT, demonstrou-se a nefasta influência dos bilhões de dólares gastos na indústria da saúde, com o intuito não de salvar ou resolver os problemas do paciente mas, sim, o de manter, pelo maior tempo possível, como um grande consumidor de produtos farmacêuticos e procedimentos médico hospitalares. Portanto, constatou-se em referido estudo que, em sua programação, as escolhas realizadas pelos programadores dos algoritmos sofriam influências externas, não relacionadas, propriamente, com a melhora da saúde dos pacientes.

Questões éticas devem, ainda, ser incorporadas as chamadas biases presentes na construção da base de dados, ou seja, todo o desenvolvedor ou programador possui suas próprias experiências e histórico o que o leva a inserir, inclusive inconscientemente, seus preconceitos e opiniões, por vezes tendenciosas, gerando resultados que poderão ser distorcidos e prejudiciais a diversos indivíduos. Note-se, ainda, que a infinidade de informações hoje existente na internet compôs uma base de dados em muitos aspectos considerada preconceituosa, conforme observou um projeto encabeçado por uma grande empresa de TI, no qual foi criado um perfil em 2016, que seria manipulado por um algoritmo de inteligência artificial para interagir com adolescentes nas redes sociais. Contudo, referido perfil identificou padrões preconceituosos e teve que ser retirado em menos de 24 horas após a sua ativação por reproduzir conteúdos racistas de diversas ordens.

Mas como controlar as influências externas dos que possuem interesses econômicos e evitar as biases intencionalmente incluídas na elaboração das bases de dados e dos algoritmos?

Com foco nas questões éticas, a Comunidade Europeia, em abril de 2019, publicou um documento denominado Estratégias Europeias para a Inteligência Artificial, no qual, basicamente, mencionou-se que IA não é um fim em si mesmo e que, ao contrário, deverá promover a “melhoria da condição do ser humano”, não esclarecendo, exatamente, qual a medida e forma exata desta melhoria. Contudo, observe-se que as diretrizes de referido documento estão alinhadas às recentes normas de proteção de dados pessoais, como a General Data Privacy Regulation (“GDPR) e a brasileira denominada Lei Geral de Proteção de Dados Pessoais (Lei no 13.709/18), pois apresenta a transparência, a segurança, a privacidade e a não discriminação como alguns dos princípios a serem observados. Por sua vez, a Organização para a Cooperação e Desenvolvimento Económico (OCDE), em junho do 2019, propôs a adoção de princípios semelhantes às Diretrizes europeias a serem adotados em relação à IA.

Ambos os documentos demonstram a preocupação com a falta de controle e os limites a serem adotados no uso da IA. Contudo, referidos documentos não possuem caráter vinculante, de observância obrigatória pelos países signatários, muito menos possuem sanções para a hipótese de descumprimento.

No Brasil, tramita no Senado Federal o Projeto de Lei no 5051/19, que busca regulamentar os princípios aplicáveis à IA. Trata-se de uma reprodução simplificada das Diretrizes Europeias combinada com os princípios da OCDE que, sem sequer apresentar a definição dos termos e conceitos adotados no texto e, muito menos, cominar sanções pelo seu descumprimento, possivelmente será classificado como “letra morta” se eventualmente aprovado pelo Congresso Nacional.

A questão da utilização da IA tem sido amplamente debatida em razão da aprovação da LGPD, que entrará em vigor a partir de 16 de agosto de 2020. Afinal, foi mantido pelo Congresso Nacional o veto do Presidente da República ao dispositivo legal que garantia a revisão de decisão automatizada por pessoa natural. Neste ponto, o titular dos dados tem direito, apenas, de solicitar a “revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade” (artigo 20 da LGPD). O dispositivo legal em comento trata de decisões automatizadas que incluem o conceito de inteligência artificial, uma vez que não haveria uma pessoa natural tomando decisões e realizando a sua revisão.

Neste ponto, apesar de não haver um código de ética da inteligência artificial em vigor, na própria LGPD há o esclarecimento de que, tanto a decisão automatizada quanto a sua revisão, deverão ser realizadas de forma clara, adequada e transparente, sempre quando solicitadas ao denominado controlador dos dados pessoais, ou seja, aquele que realizada o tratamento do dado pessoal. Possui como única restrição a observância dos segredos comercial e industrial a justificar o não fornecimento de informações. No entanto, neste último caso, a Autoridade Nacional de Proteção de Dados poderá realizar auditoria para a verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.

Deste modo, a LGPD poderá ser considerada um dos mecanismos de controle ético dos recursos técnicos utilizados para a obtenção de decisões automatizadas, com o intuito de evitar a discriminação dos titulares de dados. Afinal, o controle se faz necessário para evitar abusos, que vão desde a negativa injustificada na concessão de recursos financeiros para a compra de bens e serviços até a majoração de valores de seguros e planos de saúde, por exemplo, em razão da obtenção de dados sensíveis cujo acesso a terceiros não foi previamente autorizado pelo titular.

Portanto, além das questões acerca dos avanços tecnológicos, outra esfera de discussão norteia o campo da utilização da inteligência artificial, envolvendo mais aos aspectos éticos e regulatórios, de como bem utilizar esta ferramenta que poderá trazer grande avanço para a humanidade ou representar uma temeridade, como já afirmado pelo físico Stephen Hawking, o cofundador da Apple Steven Wozniak e o fundador da Tesla Elon Musk.

 

*Rosana Muknicka, sócia do escritório Schmidt Valois

Tudo o que sabemos sobre:

Inteligência Artificial

Comentários

Os comentários são exclusivos para assinantes do Estadão.