O Projeto de Lei de Inteligência Artificial e a responsabilidade civil

O Projeto de Lei de Inteligência Artificial e a responsabilidade civil

Rodrigo da Mata, Caio Pires e Julia Fiad*

23 de setembro de 2021 | 09h30

Rodrigo da Mata e Caio Pires. FOTOS: DIVULGAÇÃO

Meados de julho de 2021. Para a surpresa de advogados, acadêmicos, investidores e sociedades empresárias que trabalham com tecnologia, a Câmara dos Deputados discute aprovar, em regime de urgência, o Projeto de Lei n° 21/2020. Trata-se do Marco Legal para Desenvolvimento e Uso da Inteligência Artificial no Brasil.

A medida parece incorporar-se a uma tendência do Estado brasileiro de fomento à inovação, juntando-se ao chamado Marco Legal das Startups (Lei Complementar n° 182/2021). Afinal, muitas das vezes, as sociedades empresárias enquadradas como startups, segundo a lei –por atuarem aplicando inovação aos seus modelos de negócios, a produção e aos serviços ofertados (art.4°, Lei Complementar n° 182/2021) –, são as responsáveis pelo desenvolvimento de sistemas de inteligência artificial (ou, simplesmente, IA) no país.

Sob tal viés, ao se falar em IA entra-se no campo do desenvolvimento dos sistemas capazes de, verdadeiramente, imitar as características e as funções cognitivas do ser humano. Sob perspectiva um pouco mais aprofundada,  a inteligência artificial cuida-se de um mecanismo formado a partir de um conjunto de instruções, também chamadas de algoritmos, programado para realização de tarefas, chegando-se ao objetivo final com certo grau de autonomia por meio de uma gama de dados armazenados. E é o desenvolvimento dessas técnicas uma das atividades que melhor caracteriza o cotidiano cujas sociedades empresárias vinculadas ao ramo da inovação vivenciam.

Nesta direção, por exemplo, caminham os testes feitos pelas grandes corporações, a fim de encontrar modelos de carros autônomos aptos a circular no mercado. Também, os aplicativos que controlam sistemas colaborativos de GPS, já famosos e muito utilizados, que indicam para o usuário caminhos alternativos, radares e possíveis congestionamentos, tudo a partir das informações compartilhadas pelos demais.

Diante de tal conjuntura, ao que pese as referidas medidas legislativas constituírem uma estratégia benéfica ao setor de tecnologia, as sociedades empresárias do ramo não podem se enganar. Os dispositivos da pretensa Lei de IA não apresentam, de maneira específica ou taxativa, quais são as medidas de estímulo ao investimento na área de inovação. Portanto, é preciso conscientizar-se. O fomento ali previsto não aparenta significar, ao menos inicialmente, a desoneração dos riscos cujas sociedades empresárias assumem ao colocar no mercado produtos e serviços nunca antes comercializados e que funcionam a partir de sistemas ditos inteligentes.

Com efeito, essa constatação apresenta relevantes consequências práticas no campo da responsabilidade civil, afetando tanto consumidores e demais contratantes, que não perdem seu direito à reparação integral dos danos materiais e morais sofridos, quanto às sociedades empresárias que vendem soluções inovadoras. Quanto às últimas, o ressarcimento de possíveis danos causados por erros cometidos pela IA deve ser contabilizado entre as adversidades financeiras aptas a reduzir a lucratividade – e a viabilidade- de um futuro projeto. Deste modo, embora o perfil dos empresários que lidam com tecnologia seja arrojado, tal questão não deve escapar das análises de risco, inclusive, aquelas feitas por incubadoras e aceleradoras para implementação de startups.

Tendo em vista pauta tão essencial à agenda de desenvolvimento do mercado da inovação, esperava-se que o PL de IA dedicasse mais atenção a sua disciplina. Porém, o que existirá caso ele seja aprovado é apenas um ponto de partida da tutela indenizatória dentro dessa seara, o qual encontra-se na pressuposição de que sempre haverá uma pessoa, física ou jurídica, controlando os sistemas de IA como meio de chegar a um determinado interesse (art.2°, inciso I, PL n° 21/2020). Dito em palavras diferentes, o sistema de inteligência artificial serve a algum fim cujo seu controlador quer impulsionar –desenvolvendo a tecnologia justamente para isso-, dentre os quais menciona-se, a título ilustrativo, a comercialização com objetivo de lucro e a melhor operacionalização dos seus serviços.

Não é outro o conteúdo extraído da regra atinente aos deveres do agente de inteligência artificial (art. 9°, PL n° 21/2020), que, inclusive, menciona palavras como “responsável” e “responsabilidade” sem citar de modo expresso o instituto da responsabilidade civil. Sob esta perspectiva, o inciso IV do pretenso artigo de lei afirma ser obrigatório o agente encerrar o sistema de IA caso seu controle não seja mais possível, enquanto o inciso V imputa a ele a responsabilidade por decisões tomadas por um sistema de inteligência artificial. Ademais, o parágrafo único imputa a contínua responsabilidade de proteger o sistema de IA contra eventuais ataques cibernéticos, prevista no inciso VI, a quem o desenvolve e opera.

Assim, neste ponto, o Projeto facilita, ao menos, a sistematização das problemáticas envolvendo a responsabilidade civil advinda dos danos causados por inteligência artificial. Neste sentido, destaque-se que sua aprovação permitiria esboçar-se a resposta para o dilema que paira sobre o fato de responsabilizar uma pessoa, física ou jurídica, por atos imputáveis, aparentemente, apenas as decisões autônomas de uma máquina.

Se não, veja-se. No âmbito da atuação dos algoritmos, desenvolveu-se a tecnologia de machine learning, que é considerada o cerne da inteligência artificial, autorizando-se que a máquina aja com autonomia a partir dos dados e informações coletados, inclusive aprendendo novos fatos mesmo sem algoritmos explícitos, bem como adaptando tais fatos aprendidos a novas situações. Por sua vez, a tecnologia de deep learning é um aprofundamento da técnica de machine learning, sendo considerada uma espécie do aprendizado de máquina marcada pela tentativa de reproduzir as redes neurais do cérebro humano. Com essa tecnologia, a máquina, aproximando-se dos mecanismos à disposição do corpo humano, pode controlar seu próprio funcionamento – quase que independentemente da intervenção humana.

Voltando-se ao Projeto de Lei n° 21/2020, é importante qualificar esse dado social conforme os seus ditames. Quando o aprendizado -mais simples ou mais profundo- do sistema de inteligência artificial falhar, a máquina estará sujeita a tomar decisões ruins, deixando de cumprir ou executando mal os objetivos para os quais foi programada. Deste modo, será inevitável que ela gere prejuízos aos seus usuários. E, nestes casos, haverá, inevitavelmente, um agente de inteligência artificial responsável pelo dano.

Logo, detecta-se certa escolha do projeto por enfatizar a responsabilização e opor-se as soluções que reforçam o “véu” sobre quem coloca em circulação os sistemas de IA. Estratégias deste tipo são bem-vindas por evitarem soluções que dificultam a indenização de vítimas dos defeitos e vícios cujos sistemas inteligentes apresentam, como a engenhosa atribuição de personalidade jurídica às inteligências artificiais, tendente a deflagrar uma verdadeira corrida, repleta de sucessivas desconsiderações da personalidade jurídica como obstáculo, por um patrimônio que nem sempre existirá.

Portanto, em sentido contrário, ao aplicar o projeto de lei, caso ele se torne lei, o intérprete deverá identificar, primeiro, o dano por mau funcionamento da IA existente, sua vítima e o agente de inteligência artificial responsável pelo sistema (este último qualificado conforme a definição do art.2°, inciso IV, alíneas a’ e b’, PL n° 21/2020). Fixados estes pontos, inicia-se uma análise aos olhos das outras normas do ordenamento jurídico, com o objetivo de se estabelecer, a partir da relação jurídica entre a vítima e o ofensor, qual o regime de responsabilidade civil aplicável à hipótese concreta.

Enfim, verifica-se, a partir deste último ponto, a existência dos elementos da responsabilidade civil no caso concreto (além do dano, a ilicitude do ato e o nexo causal nos casos de responsabilidade objetiva – vide as relações de consumo- ou a ilicitude do ato, a culpa e o nexo causal nos casos de responsabilidade subjetiva). Depois disso, imputa-se, ou não, o dever de indenizar os danos causados por IA.

O itinerário sugerido abre espaço para incorporar algumas das importantes lições cujos estudiosos do tema proferiram. Principalmente, aquelas que apontavam a extensão dos mesmos pressupostos de responsabilização e instrumentos de tutela indenizatória a essas situações, as quais são novas e diferenciadas, apenas, por envolverem certo desenvolvimento tecnológico desconhecido. Sob tal perspectiva, a eventual nova lei evitaria criar soluções diferentes a problemas sem distinção em sua essência e, com isso, impediria quebras sistemáticas desnecessárias em nosso ordenamento.

Essa primeira resposta aos prejuízos experimentados por vítimas de danos advindos do uso de sistema de inteligência artificial resolve alguns problemas práticos, demonstrando que seus desafios não são verdadeiramente jurídicos, mas sim meras perplexidades com o desenvolvimento da tecnologia. Nesta direção, tome-se como exemplo a morte de Elaine Hezberg, primeira vítima de um atropelamento por carro autônomo, durante a fase de testes do produto. Tendo em vista que o carro não diminuiu a velocidade quando se deparou com um pedestre e que, segundo notícias, havia um condutor reserva no automóvel, o qual se distraiu assistindo o programa The Voice, pouco haveria de se discutir na hipótese de o fato ocorrer no Brasil, especialmente se aprovado o PL n° 21/2020.

No caso concreto, subsiste o nítido controle da inteligência artificial por um agente. Também, uma consumidora por equiparação, vítima de um acidente de consumo segundo as definições do arts. 14 e 17, CDC. Diante das cláusulas abertas presentes na lei brasileira, sem taxatividade das hipóteses consideradas como dano merecedor de indenização, pouca diferença jurídica há em relação a outras situações geradoras de prejuízos indenizáveis.

Contudo, precisa-se dizer que essa é somente uma parte das questões envolvendo a responsabilidade civil e os sistemas de inteligência artificial. Não por outro motivo, as lacunas de um projeto que visa ser a diretriz para o tratamento jurídico da inteligência artificial no Brasil, e a falta de debate com os setores que tratam dessa tecnologia no seu cotidiano, também impactam a matéria e continuam a provocar insegurança jurídica. Afinal, ao partir da premissa de que a IA toma decisões sempre baseada no conjunto de aprendizados definidos pelo homem (art.2°, inciso I, PL n° 21/2020), o Projeto de Lei esclarece a forma de resolver certas situações, mas, ao mesmo tempo, limita o seu escopo, cometendo o grave equívoco de ignorar as diferentes maneiras de aprendizado desses sistemas.

À luz de tal conjuntura, deixa-se de abordar com clareza a responsabilidade dos agentes de IA sobre as decisões tomadas pelo sistema de inteligência artificial baseadas em aprendizado autônomo, e não em aprendizado definido pelo homem. E, segundo especialistas, tal ocorrência é provável até mesmo quando ainda subsiste o controle humano do sistema (como sempre deve ser, segundo o art.9°, inciso IV, PL n° 21/2020). Mesmo que não se olvide de que a previsibilidade nunca foi elemento necessário para responsabilização civil segundo o direito brasileiro, sendo, então, viável continuar a responsabilizar quem desenvolve e comercializa a IA nestes casos, deve se refletir o quanto seguir este caminho será adequado.

Isso porque, é urgente um debate sério a respeito do risco envolvido em tais operações de busca por maior desenvolvimento de tecnologias, dentre elas, a IA, como bem denotado por Bianca Kremer quando de sua colaboração, na Câmara dos Deputados, para o supracitado projeto.

Assim, qual a disposição dos brasileiros para expor-se a danos, embora passíveis de ressarcimento, em prol das facilidades que máquinas cada vez mais inteligentes são capazes de oferecer? De outro lado, o quanto as sociedades empresárias serão incentivadas para produção de sistemas de inteligência artificial que aprendam sozinhos? Precisarão desenvolvê-las e responsabilizar-se por todos seus impactos? Ou haverá uma ciência sobre a imprevisibilidade dos comportamentos do sistema cuja transmissão a certos adquirentes do produto torna escusável a responsabilidade dos agentes? Essas portas, repletas de dúvidas, não foram abertas por inteiro, nem tampouco fechadas de modo definitivo, diante do PL n° 21/2020.

Porém, sob o prisma da condição de tais soluções – qual seja, a de caminhos admissíveis à luz do ordenamento jurídico- sua discussão no Poder Legislativo, será fundamental e não encerrada com eventual aprovação do PL de IA. Aliás, direcionando-se ao sentido contrário, o ideal seria incorporar essas questões ao próprio PL n° 21/2020, tornando-o mais maduro e completo antes de uma deliberação final quantos aos seus desígnios dentro do processo legislativo.

De um jeito ou de outro, o imprescindível é saber que a agenda dos temas envolvendo responsabilidade civil e inteligência artificial apenas iniciou-se e está longe de acabar. Afinal, conforme oportuno paralelo, é inadmissível que soluções jurídicas flutuem a partir de um movimento incerto, como o balão do Google movido por inteligência artificial que, ao ser programado para levar internet a lugares remotos, andou não em linha reta, mas sim em um surpreendente “zigue-zague”. Portanto, inclusive no cotidiano tema da responsabilidade civil, debates, públicos e honestos, precisam fazer-se para cuidar da questão da inteligência artificial, aprovando-se novas diretrizes aptas a resolver os múltiplos problemas relacionados ao assunto.

*Rodrigo da Mata, mestrando em Direito Civil pela UERJ. Professor em cursos de graduação e pós-graduação. Advogado

*Caio Pires, mestre em Direito Civil pela UERJ. Professor em cursos de graduação e pós-graduação. Advogado do Marano Advogados Associados

*Julia Fiad, graduanda em Direito pela Universidade Federal do Estado do Rio de Janeiro. Estagiária do Marano Advogados Associados

Tudo o que sabemos sobre:

ArtigoInteligência Artificial

Comentários

Os comentários são exclusivos para assinantes do Estadão.