A proposta de regulamentação da Inteligência Artificial

A proposta de regulamentação da Inteligência Artificial

Renato Opice Blum e Renata Opice Blum*

10 de maio de 2021 | 13h00

Renato Opice Blum e Renata Opice Blum. FOTOS: DIVULGAÇÃO

A União Européia é pioneira em regulamentações do mundo digital. Tornou-se referência mundial com a “General Data Protection Regulation”, e parece que quer manter o cargo. No dia 21 de abril de 2021, a Comissão Europeia introduziu um documento legal inovador: uma proposta que visa regulamentar o uso da Inteligência Artificial. Nas palavras da Comissão Europeia, o objetivo é fazer com que a Europa se torne um hub global de Inteligência Artificial confiável.

As diretrizes inseridas na proposta não só reconhecem a crescente importância do uso da Inteligência Artificial, além dos seus benefícios, como também enfatizam as ameaças que poderão surgir com o uso desta.

O uso desregulamentado da Inteligência Artificial poderá ferir princípios da sociedade europeia, colocando em risco os cidadãos do bloco e por isso a necessidade de normatizar e, em alguns casos, até banir certas modalidades da IA. O grande desafio enfrentado pela proposta é tentar encontrar o equilíbrio entre a preservação do incentivo à inovação e o efetivo controle sobre potenciais perigos trazidos por estas tecnologias. As normas seriam, então, necessárias para que haja a preservação da segurança e dos direitos fundamentais das pessoas e dos negócios.

Apesar da proposta não ter caráter absoluto ou eficácia imediata, visto que depende de revisões a serem conduzidas pelo Parlamento e Conselho Europeu, certamente disponibiliza a fundamentação e base do que é de se esperar com a versão definitiva.

A proposta segue uma visão otimista a respeito da Inteligência Artificial, classificando a tecnologia como uma aliada, desde que seguidas as propostas de controle, evitando, portanto, um cenário sci-fi em que o humano não dispõe mais do controle sob o robô.

A regulamentação proposta poderá, preliminarmente, definir multas a serem aplicadas nos casos de descumprimento desta, possivelmente atingindo até 6% da receita anual da empresa. As obrigações quanto ao uso e/ou disponibilização dos sistemas são aplicadas a todos os stakeholders envolvidos, sendo estes não só o usuário mas também o fornecedor, importador e o próprio distribuidor.

As regras seguem uma “risk based analysis” ou seja, serão diferenciadas de acordo com o risco que cada IA poderá exercer em relação aos direitos fundamentais. As categorias de risco são as seguintes: risco inaceitável, alto risco, risco limitado e risco mínimo.

A Inteligência Artificial que for categorizada como de risco inaceitável à segurança dos cidadãos e da sociedade irão ser banidas. Esta classificação pode abranger, por exemplo, sistemas que manipulam o comportamento humano a fim de comprometer o livre arbítrio e sistemas de pontuação social utilizados por governos.

Já a Inteligência Artificial classificada como de alto risco poderá ser comercializada ou disponibilizada apenas perante rígidas normas de controle que dependem da constante supervisão humana e avaliações de risco, além de extensa documentação. Estes sistemas de Inteligência Artificial são geralmente utilizados em atividades judiciais, serviços essenciais e até em infraestrutura e transporte, entre outras situações particularmente delicadas.

Ainda na classificação de alto risco, a proposta abordou o tema de identificação biométrica. O uso desta está sujeito a regras especialmente rigorosas quando trata de seu uso em espaços públicos, para fins de aplicação da lei. As exceções são pouquíssimas, limitadas a situações extremas (identificação de uma criança desaparecida, por exemplo).

Os sistemas de inteligência artificial de risco limitados deverão seguir regras específicas de transparência, tal como, usuários deverão ser informados de quando estão interagindo com um robô.

A maioria dos sistemas de inteligência artificial são de risco mínimo. Estes podem ser usados de maneira livre, sem interferência ou regulamentação específica, porém a cautela é recomendada mesmo quando se trata de videogames e filtros de spam.

A estratégia ainda dispõe de programas e planos para incentivar o nascimento de um ambiente onde a inteligência artificial poderá florescer de maneira eficiente, sempre buscando garantir que os sistemas trabalharão para as pessoas, e não ao contrário.

*Renato Opice Blum, advogado e economista; coordenador de cursos sobre Direito Digital e Proteção de Dados da Faap, EBRADI e Insper; diretor da Itechlaw; membro do Conselho da EuroPrivacy; juiz do Inclusive Innovation Challenge do MIT; presidente da Associação Brasileira de Proteção de Dados; vice-presidente da Comissão Especial de Direito e Inovação da OAB/SP

*Renata Opice Blum, graduanda em Direito pela Fundação Armando Alvares Penteado. Conciliadora no Juizado Especial Cível Anexo Faap

Tudo o que sabemos sobre:

ArtigoInteligência Artificial

publicidade

publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.