Inteligência Artificial e ética: panorama geral da regulação brasileira

Inteligência Artificial e ética: panorama geral da regulação brasileira

Camila Vilela e Christine Albiani*

12 de maio de 2022 | 07h00

Camila Vilela e Christine Albiani. FOTOS: DIVULGAÇÃO

É notório o aumento da percepção de que a Inteligência Artificial (“IA”) tem proporcionado transformações significativas na sociedade moderna, nos mais diversos setores. O Machine Learning – construção algorítmica que permite a aprendizagem da máquina derivada da interação com um ambiente externo dinâmico – viabiliza tomadas de decisão automatizadas, baseadas em padrões, de forma célere e eficiente.

Sistemas baseados em IA estão se tornando presentes cada vez mais em nosso dia a dia. Câmeras de reconhecimento facial nos metrôs, o botão do e-mail que auxilia na organização do inbox, diagnósticos médicos automatizados, análises dos comportamentos dos consumidores para direcionamento de publicidade, entre outros exemplos, mostram o quanto a tecnologia tem se tornado essencial para o desenvolvimento socioeconômico.

As decisões tomadas por esses sistemas passam a ser cada vez mais comuns e influenciam progressivamente a vida das pessoas nas mais diversas áreas. Ocorre que ao realizar a tomada de decisões, os sistemas baseados em IA utilizam-se de critérios não raras vezes desconhecidos ou que não conseguem ser explicados de forma clara e, portanto, aferíveis sob o ponto de vista ético.

Destaca-se, ainda, nesse contexto a preocupante aparência de cientificidade  inquestionável das decisões tomadas por sistemas baseados em IA, numa concepção comum de que estas estariam sempre corretas, quando na realidade, esses sistemas podem conter vieses, reproduzir preconceitos e agir baseados em critérios antiéticos, violadores de direitos e chegar a decisões não só equivocadas como injustas.

Diante deste panorama, alguns questionamentos têm movimentado a sociedade humana: como garantir que os sistemas dotados de IA não realizem discriminações ou firam direitos fundamentais como a privacidade? Há a possibilidade de se impor diretrizes eficientes para tornar o sistema de IA mais adequado do ponto de vista ético e jurídico e assegurar o cumprimento de diretrizes contratuais, legítimas expectativas dos seus clientes e as leis vigentes ao mesmo tempo? Quais são os critérios éticos que estão servindo de parâmetro para a tomada de decisões de sistemas automatizados que, eventualmente, envolvam direitos humanos como o direito à vida, não discriminação e liberdade de locomoção?

Diante de tantas questões relevantes relacionadas à possibilidade iminente de sistemas dotados de IA causarem danos e violarem direitos humanos, constata-se um movimento global de busca por regular os aspectos éticos no desenvolvimentos dessas novas tecnologias com foco na proteção do ser humano.

Ultrapassado a contextualização atual da IA, vamos à grande discussão do momento: a tramitação de projeto de lei que cria marco legal para uso da inteligência artificial no Brasil.

Trata-se do Projeto de Lei  nº 21/2020, aprovado em julho de 2021, pela Câmara dos Deputados, cujo objetivo é estabelecer diretrizes para o fomento, desenvolvimento e utilização da inteligência artificial no país. Outros projetos de lei também tramitam no Congresso Nacional sobre o tema.

A iniciativa vem do movimento regulatório de outras jurisdições, principalmente da União Europeia (“UE”), que é ator fundamental nas discussões relacionadas à regulação da internet, dados pessoais e novas tecnologias.

A grande diferença observada é que neste cenário global se consolidou o entendimento de que tão importante quanto elaborar uma regulação sumária e trabalhar no desenvolvimento dessas tecnologias, é construir uma discussão técnica e ampla sobre o estabelecimento de critérios éticos mínimos capazes de regular de forma efetiva o que se pretende produzir, visando prevenir os impactos negativos da tecnologia que possui repercussões ainda imprevisíveis. Isto porque, evidencia-se que a regulação só será realmente efetiva quando abranger as nuances técnicas da tecnologia, prevendo, ao menos em parte, suas consequências potencialmente lesivas e soluções adequadas para mitigação de riscos.

Pode-se notar, portanto, que as propostas regulatórias foram derivadas de muita discussão, através da realização de eventos e conferências com participantes de diversos atores globais e organizações. A exemplo, pode-se citar a Conferência de Asilomar, onde se definiu uma série de princípios para que o desenvolvimento de sistemas dotados de IA se dê de forma ética e benéfica à sociedade e a Resolução editada pelo Parlamento Europeu com recomendações referentes à regras de civil law em robótica (2015/2103 (INL).

Diante desta questão, surgem algumas discussões: Quais seriam os impactos dessa regulamentação? A regulação realmente está de acordo com as questões de preservação de direitos humanos e responsabilização suscitadas globalmente? A regulação consegue ter efetividade se adequando à realidade das nuances técnicas existentes?

Não se pode olvidar que a inteligência artificial tem como principal função solucionar questões e tomar decisões em situações que o ser humano não conseguiria sozinho chegar às soluções adequadas, seja pela incapacidade de fazer correlações necessárias entre os diversos aspectos envolvidos, seja pelo tempo que gastaria se o trabalho não fosse automatizado. A tomada de decisão, por sua vez, precisa respeitar as diretrizes éticas e os direitos humanos, visando tornar o desenvolvimento da tecnologia mais seguro, apesar do panorama de incertezas que permeia o tema.

Fato é que o debate que envolve a IA abrange o debate do desenvolvimento tecnológico de um número muito grande de setores. Trata-se, assim, de tema que merece um debate amplo diante da sua complexidade, que deve envolver não somente a perspectiva da ciência de dados e do direito de uma forma isolada, mas também os aspectos éticos e filosóficos que envolvem essas tecnologias, com participação de atores públicos e privados. As diretrizes consolidadas devem ter a capacidade de regular a realidade sob o enfoque técnico sob pena de não cumprir sua função no ordenamento jurídico.

Apesar de contemplar um texto longo, o Marco Legal da IA acaba por não considerar as discussões acadêmicas referentes ao tema, tratando-o de forma superficial. Bem como, deixa omisso outros aspectos necessários, como a ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica. Portanto, observa-se que apesar de algumas lacunas, a autorregulação começa a se calhar como uma estratégia para lidar com as crises éticas. Assim, o alinhamento com os princípios éticos precisa ser substituído pelo cumprimento legal, o que se faz necessário a regulamentação sobre o tema, após amplo debate multidiciplinar e multissetorial.

Em 28 de abril deste ano foi dado início às audiências públicas realizadas para o fim de subsidiar a elaboração do substitutivo ao PL n° 21/2020, PL 5.051/19 e PL 872/21 que tratam da regulação do desenvolvimento e aplicação da IA no país. Foram convocados 60 especialistas da academia, sociedade civil, comunidade científica, mercado e poder público, suprindo as preocupações e demandas de especialistas, expostas neste artigo.

As audiências são divididas em eixos teóricos (disponibilizados no site do STJ) e podem ser acompanhadas no canal do Senado no Youtube e os cidadãos podem enviar perguntas pelo Portal e-cidadania do Senado Federal.

Os próximos eixos ocorrerão no dia 12 e 13/05 referentes aos Impactos da IA, direitos e deveres; e Accountability, Governança e Fiscalização.

Reitera-se que um caminho complexo, com repercussões imprevisíveis e impactos em todos os setores da economia e sociedade deve ser construído de forma colaborativa, observando-se através da ampla participação multissetorial as diferentes perspectivas sobre o tema, para então se chegar a tão esperada regulação. Não qualquer regulação, mas uma regulação adequada e efetiva na prevenção de riscos, que não represente um entrave ao desenvolvimento tecnológico e à inovação.

*Camila Vilela, advogada. Mestranda em Direito Intelectual pela Universidade de Lisboa (FDL), pós-graduada em Direito Público pelo Centro Universitário Tabosa de Almeida (ASCES/UNITA). Foi pesquisadora visitante em Direito e Tecnologia na Universidad Autónoma de Madrid (UAM), bolsista pelo programa ERASMUS. Cofundadora do capítulo do Legal Hackers Lisboa e membro associada à Associação Portuguesa de Direito Intelectual (APDI). Foi consultora de projetos na Europa para regulamentação da Proteção de Dados Pessoais. Tem experiência na área de Direito, com ênfase em Proteção de Dados Pessoais e Direito Digital. No meio acadêmico, é investigadora e participa como docente e oradora em cursos e conferências nas áreas de proteção de dados e propriedade intelectual, sendo autora de artigos publicados em produções jurídicas brasileiras e estrangeiras

*Christine Albiani, advogada. Graduada em Direito pelo Instituto Brasileiro de Mercado de Capitais – Ibmec RJ – com láurea acadêmica Summa Cum Laude. MBA em Gestão Tributária pela USP. Especialista em Direito Tributário e em Direito Processual Civil pela Universidade Cândido Mendes. Autora do livro Violação de direitos autorais e responsabilidade civil do provedor diante do Marco Civil da Internet. Integrante do 3º Grupo de Pesquisa do Instituto de Tecnologia e Sociedade (ITS-Rio) que teve por objetivo explorar o impacto da Inteligência Artificial. Integrante do Programa Youth Brasil de 2022 promovido pelo Comitê Gestor da Internet no Brasil que reuniu jovens pesquisadores de Direito Digital para tratar de Governança na Internet. Integrante da Comissão Especial de Direito Digital da OAB/BA. Tem experiência profissional e é autora de artigos científicos publicados em produções jurídicas brasileiras e estrangeiras sobre Proteção de Dados Pessoais e Direito Digital, bem como palestrante em eventos de instituições como a OAB/SP e o Programa Link CNJ promovido pelo STF

Tudo o que sabemos sobre:

Artigo

Comentários

Os comentários são exclusivos para assinantes do Estadão.