Foto do(a) blog

Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

A Inteligência Artificial em 2021: o ano da 'virada regulatória'

PUBLICIDADE

Por Juliano Maranhão
Atualização:
Juliano Maranhão. FOTO: DIVULGAÇÃO Foto: Estadão

A inteligência artificial já faz parte de nosso dia a dia, diretamente, por exemplo, quando recebemos propaganda direcionada, recomendações de conteúdo, interagimos com chatbots em compras e serviços online, ou indiretamente, quando temos nosso grau de risco para contratação de empréstimos ou de seguro-saúde avaliados por sistemas de data analytics. Neste ano que se encerra, o avanço da IA se consolidou em diversas frentes, muito embora algumas promessas não tenham se concretizado [1]. Assim, houve importantes avanços em reconhecimento de padrões e extração de informações de textos não estruturados, o que potencializa aplicações como tradução automática de texto ou de discursos em áudio, classificação e escrita de textos (notícias, propagandas). Também se destacou o processamento de imagens, com aplicações relevantes em medicina para diagnósticos a partir de imagens da pele e dos olhos (câncer, retinopatia etc.), muito embora algumas aplicações tenham trazido preocupações, como deepfakes maliciosas e questionamentos sobre privacidade e discriminação ligados ao emprego de reconhecimento facial. Na área financeira, as aplicações se ampliaram incluindo além da detecção de fraudes e cálculo atuarial, a prevenção de lavagem de dinheiro e a automação de compliance jurídico.

PUBLICIDADE

A promessa de amplo progresso em veículos autônomos não se concretizou, em parte por dificuldades no processamento de imagens ou ruídos por elementos imprevistos, o que levou a alguns acidentes. A expectativa lançada em 2020 de que a inteligência artificial seria um poderoso aliado contra a Covid-19 também não se confirmou, com algumas poucas aplicações médicas bem-sucedidas e questionamentos quanto ao uso da tecnologia para monitoramento da quarentena [2]. O uso de IA para recomendação e filtro de conteúdo nas redes sociais levantou questionamentos éticos, que tem impulsionado iniciativas legislativas internacionais e também no Brasil, com a aprovação na Câmara dos Deputados do relatório final do projeto de Lei 2630/2020, a chamada "Lei das Fake News", cujo texto contém artigos específicos sobre transparência no emprego de inteligência artificial.

Tal imposição presente no projeto de lei brasileiro reflete o verdadeiro elemento distintivo do ano de 2021, que certamente ficará marcado como o ano da "virada regulatória" da Inteligência Artificial. Como pontuou Luciano Floridi [3], chegou-se ao final da era de "soft-law" na regulação da IA, caracterizada pela propagação de códigos de princípios éticos abstratos para pautar o desenvolvimento da tecnologia no âmbito privado e público [4],  com a entrada na era de "hard-law" para assegurar a confiabilidade em sistemas de IA, com legislações ou propostas legislativas que estabelecem obrigações procedimentais refletindo as melhores práticas no desenvolvimento dos sistemas, como a análise de impacto e risco, governança sobre os dados usados para treinamento, teste e validação do sistema, documentação técnica do ciclo de vida da IA, registro automático dos eventos durante sua operação, transparência quanto ao emprego e resultados do sistema e testes sobre sua acurácia.

Publicidade

O documento mais emblemático é o chamado "AI Act" [5], proposto em abril pelo Parlamento Europeu, que traz uma abordagem baseada em risco, tornando as boas práticas de governança obrigatórias para aplicações consideradas perigosas e voluntárias para aplicações de menor risco, induzindo ainda a autorregulação e programas de certificação.  A expectativa é que esse já influente regramento seja aprovado em 2022.

Nos EUA, em novembro de 2020, a Casa Branca divulgou o US Guidance for the Regulation of AI, que foi codificado no National AI Iniciative Act 2020, aprovado pelo Congresso no início deste ano [6]. A abordagem norte-americana alinha-se aos princípios éticos europeus para uma IA confiável e delega para agências reguladoras estipulação de obrigações sobre boas práticas para sistemas de IA, o que já vem sendo implementado naquele país, por exemplo, com a regulação de softwares como equipamentos médicos (software as medical devices) pela Food and Drugs Adminstration- FDA. Mais recentemente, em outubro, foi promulgado o Government Ownership and Oversight of Data in Artificial Intelligence Act (GOOD AI Act), que estabelece regras para assegurar a privacidade na coleta e processamento de dados por inteligências artificiais empregadas para a segurança nacional [7].

Na China, em agosto de 2021, foi promulgado a Regulamentação sobre a Administração da Recomendação de Algoritmos para Serviços de Informação na Internet [8], com regras vinculantes para mitigação de riscos de discriminação de conteúdo ou de condições comerciais em sistemas de recomendação, bem como a proibição de exploração de comportamento compulsivo por usuários. O documento chinês traz ainda regras relativas a relações de trabalho quando houver uso de algoritmos na atividade e veda o emprego de IA para gerenciamento de falsas contas, perfis, likes, comentários ou compartilhamentos em redes sociais. No mês passado, foi também editada ISO com padrões de governança para mitigação de discriminação em sistemas de IA (ISO/IEC TR 24027/2021) [9].

No Brasil, por sua vez, foi aprovado, em setembro, na Câmara dos Deputados, o PL 21/20 que se propõe como o "Marco Legal da IA". Ocorre que, na contramão das iniciativas de "hard-law" internacionais, o texto brasileiro reúne princípios éticos abstratos ou valores constitucionais, sem estabelecer obrigações vinculantes para o setor público ou privado, a não ser por uma tímida sugestão de análise de impacto e abordagem de riscos para futuras regulamentações pelo Poder Público. O projeto tramita no Senado, esperando-se que ganhe conteúdo e corpo em 2022 para assegurar o efetivo desenvolvimento de IA confiável no País.

*Juliano Maranhão, fundador do grupo Lawgorithm de pesquisa em Inteligência Artificial, diretor do Instituto Legal Grounds e professor da Faculdade de Direito da USP

NOTAS:

[1] Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. "Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report." Stanford University, Stanford, CA, September 2021. Doc: http://ai100.stanford.edu/2021-report. Accessed: September 16, 20.

[2] Heaven, W.D. Hundreds of AI tools have been built to catch covid. None of them helped. Disponível em: https://www.technologyreview.com/2021/07/30/1030329/machine-learning-ai-failed-covid-hospital-diagnosis-pandemic/. Acesso em: 7 ago. 2021

Publicidade

[3] Floridi, L. The end of na era: from self-regulation to hard-law for the digital industry, Philosophy & Technology, forthcoming.

[4] Jobin, A., Ienca, M. & Vayena, E. The global landscape of AI ethics guidelines. Nat Mach Intell 1, 389-399 (2019). https://doi.org/10.1038/s42256-019-0088-2

[5] https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52021PC0206

[6] https://www.congress.gov/bill/116th-congress/house-bill/6216

[7] https://www.congress.gov/bill/117th-congress/senate-bill/3035?s=1&r=9

Publicidade

[8] http://www.cac.gov.cn/2021-08/27/c_1631652502874117.htm

[9] https://www.iso.org/standard/77607.html

Comentários

Os comentários são exclusivos para assinantes do Estadão.