Os desafios da regulação de inteligência artificial

Os desafios da regulação de inteligência artificial

Pedro Simões, Flora Sartorelli V. de Souza, Davi Simões e Evandro Andrade Segundo*

14 de julho de 2021 | 10h15

Pedro Simões, Flora Sartorelli V. de Souza, Davi Simões e Evandro Andrade Segundo. FOTOS: DIVULGAÇÃO

Duas relevantes publicações começaram a pautar o debate nacional e internacional sobre a regulação do desenvolvimento e do uso da inteligência artificial. Na Europa, a publicação da Proposta para a Apresentação de Regras Harmonizadas sobre Inteligência Artificial, da Comissão Europeia, trouxe uma série de definições e proibições alinhadas com a cultura mais consolidada de proteção de dados pessoais. No Brasil, a publicação da Estratégia Brasileira de Inteligência Artificial, pelo Ministério da Ciência, Tecnologia e Informação, é a fonte do debate atual.

Abordar a regulamentação da inteligência artificial não é algo simples, pois o tema é muito amplo e carrega mais de meio século de avanços tecnológicos não regulados. Faremos, no entanto, um breve exercício de reflexão para propor uma definição ampla do que deve ser considerado inteligência artificial para fins de regulação, alguns dos eixos gerais que precisam ser considerados e  propostas específicas para o cenário brasileiro.

Um ponto inicial do debate público é a definição dos diferentes níveis de complexidade das concepções de inteligência artificial. Trata-se de priorizar os fenômenos que trazem complexidade maior, o que, em grande medida, está atrelado ao universo do aprendizado de máquina.

O termo complexidade, aqui, é essencial não apenas para caracterizar a inteligência artificial, mas também para guiar a principiologia da regulação. Um sistema de aprendizado de máquina apresenta diferentes níveis de complexidade, a qual pode chegar a patamares muito elevados. O controle da complexidade, por sua vez, é duplo: estará tanto na ponta da programação,  onde é relevante a diferença entre aprendizado supervisionado ou não supervisionado e a existência ou não de medidas de reforço positivo ou negativo, quanto na ponta dos dados a que o sistema terá acesso.

Uma regulamentação de inteligência artificial focada em bancos de dados pode, inclusive, indicar um bom ponto de partida para segregar as IAs reguladas das não reguladas. Para isso, a divisão pode observar, por exemplo, a distinção entre dados comuns e dados pessoais e, dentro do universo de dados pessoais, os que são sensíveis de acordo com a Lei Geral de Proteção de Dados, por exemplo.

Quando falamos dos eixos de regulação possíveis, a programação é um dos mais importantes, por ser a ponta de maior inovação e por apresentar a dificuldade de transparência, um problema parecido com o enfrentado por outros setores regulados que envolvem conhecimentos técnicos avançados.

No setor de fármacos, por exemplo, o ônus de transparência é de quem desenvolve uma droga e a comercializa. A indústria farmacêutica precisa produzir, dentro de um padrão pré-aprovado, uma bula, em linguagem acessível, para democratizar as informações técnicas dos possíveis efeitos de sua utilização. A proposta de regulação europeia da Inteligência Artificial abordou essa obrigação do dever da transparência e de prover informações claras ao usuário final da Inteligência Artificial.

Além de dados que permitam o acesso ao provedor do sistema de inteligência artificial, é importante onerar os desenvolvedores a traduzir os processos principais que poderão ser operados pela IA. Essa “bula” da Inteligência Artificial, porém, precisará ser regularmente atualizada, pois, diferentemente do que acontece com os remédios, uma IA pode mudar substancialmente conforme aprenda com novos inputs.

Outro ponto de destaque é o acompanhamento constante dos resultados a partir de um banco de dados inicial. Esse acompanhamento pode ser pré-programado – ou seja, o próprio sistema pode avisar quando começar a apresentar outputs muito diferentes dos percebidos em um primeiro momento de operação e pessoas capacitadas devem sempre poder direcionar resultados indesejados a partir de reforços negativos que o sistema seja capaz de reconhecer.

Estamos falando aqui de um supervisionamento humano, ou seja, de uma rede de segurança. Carros autônomos não são uma realidade distante – mas é desejável que a regulação obrigue os carros autônomos dos próximos 100 anos a serem sempre utilizados na presença de um humano capaz de tomar o volante em tempo razoável, ao menos até o momento em que toda a rede viária seja capaz de suportar os erros e variações de um sistema de tomada de decisão sobre direção.

A regulação de IA deve integrar programação, banco de dados e usuário, pois em muitos casos ele será a rede de segurança do sistema.

Vale ter em mente também, que a regulação de uma Inteligência Artificial, em função de sua complexidade, pode forçar os operadores do direito a trabalhar com categorias mais abertas, pautadas não em um paradigma de permissão/proibição, mas em uma escala de permissividade ou de aceitação de níveis de erro. Uma determinada IA pode apresentar um resultado satisfatório em determinado momento e, após certo tempo de uso, passar a apresentar um nível de erro inaceitável. As medidas de resposta não precisam ser drásticas, mas também podem ser ponderadas de acordo com o percentual de erro identificado

O tema não é simples e seu debate deve ser feito em um terreno transdisciplinar, tal qual o artigo aqui apresentado. O Brasil tem, inclusive, a chance de pautar essa discussão de modo a transformar o cenário legal brasileiro em um ambiente que fomente e incentive o desenvolvimento de IAs no nosso país – a criação de sandbox regulatórios será, certamente, a ferramenta diferencial nesse sentido.

*Pedro Simões é advogado associado do escritório Duarte Garcia, Serra Netto e Terra, mestre e doutorando em Teoria do Direito pela Faculdade de Direito da Universidade de São Paulo

*Flora Sartorelli V. de Souza é advogada associada do escritório Duarte Garcia, Serra Netto e Terra, e mestre em Direito pela Universidade do Estado do Rio de Janeiro

*Davi Simões é mestrando em Engenharia Civil orientado a Análise de Risco  pela École Nationale Supérieure des Mines de Nancy, Université de Lorraine

*Evandro Andrade Segundo é Ph.D. em Física pela USP e professor auxiliar na Universidade Estadual de Santa Cruz

Tudo o que sabemos sobre:

ArtigoInteligência Artificial

Comentários

Os comentários são exclusivos para assinantes do Estadão.