Foto do(a) blog

Como a conjuntura do País afeta o ambiente público e o empresarial

O debate sobre o Marco Legal da Inteligência Artificial no Brasil

PUBLICIDADE

Foto do author Redação
Por Redação
Atualização:

Juliano Maranhão, Professor da Faculdade de Direito da USP, fundador do Lawgorithm, membro do Comitê-Diretor da International Association of Artificial Intelligence and Law e sócio do escritório Sampaio Ferraz Advogados

PUBLICIDADE

Algumas iniciativas governamentais e legislativas recentes no Brasil revelam preocupação com os rumos da Inteligência Artificial (IA). O Ministério da Ciência, Tecnologia, Inovações, seguindo o exemplo de países líderes divulgou, em abril deste ano, a Estratégia Brasileira de IA, com uma visão de longo prazo para lidar com temas críticos diante dessa tecnologia, como a canalização de investimentos, a educação básica, formação universitária, impactos no emprego e recapacitação, além da aplicação da IA no setor público e parâmetros éticos para desenvolvimento e implantação de sistemas inteligentes.

O Senado, por sua vez, encaminhou em 2019 dois projetos de Lei (PLs 5051 e 5691), de autoria do senador Styvenson Valentim (Podemos-RN) -- um prevendo a revisão humana de decisões por inteligências artificiais outro fixando parâmetros éticos gerais. Em 2020, o deputado Eduardo Bismarck (PDT-CE) propôs o PL 21/20, que ambiciona estabelecer o "Marco Civil da Inteligência Artificial", tendo como principal objetivo tornar obrigatórios os princípios éticos consagrados em âmbito internacional.

A observação de parâmetros éticos em IA é fundamental para que essa tecnologia desenvolva suas potencialidades de modo responsável, mitigando riscos a direitos fundamentais. Mas a premissa de que padrões éticos internacionais devem se tornar obrigações legais no Brasil merece reflexão mais cautelosa.

Primeiro, porque não há propriamente consenso sobre esses padrões. Nos cerca de 80 documentos sobre ética de IA divulgados internacionalmente por órgãos governamentais e organizações privadas, há alguma convergência em torno dos princípios de transparência, não-discriminação, não-maleficência, responsabilidade (que pode englobar tanto robustez do sistema quanto acurácia e responsabilização) e privacidade/proteção de dados. Todavia, há muita divergência sobre o que cada um desses princípios significa e como deveriam ser implementados.

Publicidade

Segundo, porque esses princípios são vagos e potencialmente conflitantes. Portanto, a mera enunciação desses princípios em diploma legal, sem o detalhamento de regras de conduta específicas, pode ser contraproducente, pois o Judiciário pode passar a fazer imposições a partir de interpretações próprias e fragmentadas desses princípios. Isso pode trazer insegurança jurídica, limitando o desenvolvimento da tecnologia no Brasil.

Terceiro, porque a implementação desses princípios será inviável se seu significado, importância relativa e alcance não forem especificados para setores diversos ou tipos diferentes de aplicação. Deve-se diferenciar também aplicações de alto risco daquelas de médio ou baixo-risco. Os parâmetros éticos de IA usada para recomendação de filmes ou livros certamente são distintos de uma aplicação para medicina diagnóstica, que são distintos dos parâmetros para fabricação de carros autônomos. Tais princípios somente são comuns em um nível tão abstrato que nos leva à trivialidade. Algo como: a IA deve ser "boa".

Quarto, porque os documentos internacionais e o senso comum global, no aspecto ético, ainda carregam o tom mais em parâmetros para impedir a maleficência e menos em padrões para promover seus efeitos benéficos potenciais (que são muitos). Talvez, o risco de subutilização da IA seja tão pernicioso quanto o risco de superutilização ou utilização irresponsável.

Cientes dessas dificuldades, os países líderes em IA têm sido cautelosos em impor regras sobre a tecnologia, pois há o risco de limitar a inovação em um mercado crescente com uma tecnologia bastante dinâmica, com diversas aplicações, para diferentes finalidades e em variados setores.

O documento mais robusto nesse sentido é certamente o "Regulamento de Inteligência Artificial" (chamado de Artificial Intelligence Act) proposto pelo Parlamento Europeu neste ano. Ele é fruto de uma série de reflexões, estudos e documentos traçando diretrizes com parâmetros e boas práticas para promover uma IA confiável, pelo menos desde maio de 2016, com a publicação do texto "Civil Law Rules on Robotics" pelo Comitê Jurídico- JURI do Parlamento Europeu. O modelo regulatório baseia-se em três pilares: (1) abordagem baseada em risco, com níveis distintos de intensidade de regulação conforme risco do tipo de aplicação; (2) responsabilidade procedimental, com o estabelecimento de obrigações mínimas correspondentes a padrões de governança e boas práticas de gestão de risco; (3) mecanismos de certificação e estímulo ao desenvolvimento setorial de selos de boas práticas de qualidade ou confiança no sistema de IA.

Publicidade

CONTiNUA APÓS PUBLICIDADE

A proposta de Marco Civil da IA na Câmara de Deputados não se limita aos parâmetros éticos e prevê algumas regras dignas de nota. Uma delas é a imputação de responsabilidade por danos aos "agentes de inteligência artificial", que são os desenvolvedores (programadores) ou responsáveis pelo monitoramento na implantação do software. O tema é por demasiado complexo, pois vieses ou danos podem decorrer dos dados, de modo que alocar o risco para os desenvolvedores pode inibir essa atividade. Mas há pontos positivos, como a obrigatoriedade de documentação das fases e decisões no ciclo de desenvolvimento dos softwares que empreguem IA e a análise prévia de impacto. Essas são medidas meramente procedimentais, que, portanto, não trazem grandes riscos de intervenção. São eficazes para prevenção e análise de responsabilidade por danos ou ainda para a verificação da forma pela qual dados pessoais foram tratados. Por outro lado, não recebeu menção a tendência de criação de procedimentos de certificação, oficiais ou voluntários, que estabeleçam selos de qualidade.

A dinâmica de evolução constante da tecnologia e a diversidade de contextos para cada setor de aplicação indica a autorregulação como caminho mais adequado do que a imposição externa pelo Estado. Empresas líderes em IA já têm buscado construir padrões éticos, mas seu caráter não oficial traz algumas desconfianças sobre parâmetros éticos que possam embutir interesses comerciais. Ocorre que a confiança dos usuários (não só quanto à eficiência, mas quanto à ética) pode vir a ser um dos grandes fatores de valoração comercial, de modo que é possível vislumbrar interesses convergentes entre o Estado e setor privado.  Tal convergência de interesses e o relativo consenso internacional quanto à conveniência de um regramento procedimental apontam para soluções de corregulação ou "autorregulação regulada", na qual o Estado pode induzir a formação e reconhecer instituições de autorregulação de desenvolvimento responsável da IA bem como instituições de certificação que possam gerar confiança para o uso e crescimento saudável dessa tecnologia no Brasil.

Comentários

Os comentários são exclusivos para assinantes do Estadão.