Responsabilidade civil é ponto de tensão do Marco Legal da Inteligência Artificial

Responsabilidade civil é ponto de tensão do Marco Legal da Inteligência Artificial

Marcelo Tostes*

21 de maio de 2022 | 08h00

Marcelo Tostes. FOTO: DIVULGAÇÃO

Em 30 de março deste ano, uma comissão de juristas (CJSUBIA) foi formada no Senado Federal para debater o Marco Legal da Inteligência Artificial no Brasil. A previsão é que o grupo analise três projetos de lei sobre o assunto: o PL 5.051/2019; o PL 872/2021; e o PL 21/2020.­ Há muita expectativa entre os profissionais do direito sobre pontos importantes da legislação, mas a ciência jurídica não consegue apresentar respostas sozinha. São vozes indispensáveis nesse debate as da sociedade civil, da iniciativa privada e dos profissionais da área de tecnologia, que estão redefinindo as fronteiras entre o ficcional e o real.

Por isso, ainda que o debate ocorra a nível legislativo, é essencial que todos esses atores estejam familiarizados com os contornos dos tópicos mais relevantes. Só assim poderão adotar posições mais informadas e assertivas sobre as propostas levantadas pela Comissão.

Um dos principais pontos a serem enfrentados pela Comissão é o da responsabilidade civil. E o motivo é simples: essas são as regras aplicáveis quando o sistema de inteligência artificial causa algum dano.

As regras de responsabilidade civil só se aplicam quando alguém sofre um dano cuja causa está na conduta de outra pessoa. A ideia é ressarcir o prejuízo da vítima, criando para o autor do dano um dever de indenizar. Então, se alguém está dirigindo e atropela um pedestre, poderá ser chamado a arcar com todos os prejuízos que aquela pessoa sofrer.

Já nessa definição, dois pontos reúnem discussões importantes sobre Sistemas de Inteligência Artificial. Quem é o responsável?

Vamos modificar o exemplo do acidente de trânsito. Se, ao invés de um carro tripulado, o atropelamento tivesse sido causado por um carro autônomo. Quem seria o responsável?

Sistemas de Inteligência Artificial, por mais complexos que sejam, não são considerados sujeitos de direito. Não podem titularizar ou exercer direitos, nem assumir posições em relações jurídicas.

Como a responsabilidade civil ainda é lastreada na figura humana, a legislação precisará buscar algum sujeito de direito, seja pessoa física ou jurídica, envolvido na cadeia de produção daquele sistema de inteligência artificial, a quem atribuir o dever de indenizar.

Essa figura deve ficar muito bem delimitada na legislação. O projeto de lei 21/2020, após emendas, fala em responsabilizar agentes de desenvolvimento e agentes de operação, observadas as suas funções. Os primeiros seriam aqueles que participam da fase do planejamento até a verificação, validação ou implantação, e os segundos aqueles que participam do monitoramento e operação do sistema.

Identificar os sujeitos que podem ser responsabilizados, e, especificamente, as medidas que se espera deles para prevenção dos danos, é indispensável para conceder previsibilidade e segurança para o desenvolvimento e utilização dessas novas tecnologias no Brasil.

Precisa demonstrar culpa? O dever de indenizar só vai surgir, em regra, se o agente que causa o dano tiver agido de forma negligente, imprudente ou imperita. Ou seja, com culpa. Somente nessa hipótese é que o causador do dano poderia ser chamado a ressarcir os prejuízos da vítima.

Do outro lado, o Direito reconhece que nem todo o cuidado pode impedir que acidentes aconteçam. Assim, se o agente tomou as medidas de precaução possíveis e ao seu alcance, mas ainda assim o dano aconteceu, ele não poderá ser chamado a indenizar, justamente por que não agiu com culpa.

A legislação cria, assim, um incentivo para que as pessoas sejam mais cuidadosas e evitem causar danos por negligência, por exemplo. Esse é o chamado regime da responsabilidade subjetiva, e foi o sugerido no PL 21/2020.

Existem algumas situações, no entanto, em que o dever de indenizar independe da demonstração de culpa. São os casos de responsabilidade objetiva. Neles, não importa o nível de cuidado que o sujeito tome, se ocorre o dano, ele será chamado a indeniza-lo integralmente.

Esse segundo tipo de responsabilidade é muito comum no direito do consumidor.

A lógica que orienta esse modelo é a de que os fabricantes dos produtos e prestadores dos serviços estariam em posição mais adequada para absorver os riscos das suas atividades do que os consumidores. Eles poderiam, então, precificar esse risco, distribuindo coletivamente o ônus da responsabilidade civil, e continuar atuando no mercado.

A responsabilidade dos agentes à luz da função por eles desenvolvida e a exigência do requisito da culpa são duas posições que, até então, o PL 21/2020 tinha adotado. Como qualquer escolha, elas têm vantagens e desvantagens, que devem ser esclarecidas no debate em geral.

A vantagem de separar a responsabilidade à luz da função desempenhada pelo agente é evitar a responsabilização de uma pessoa por uma etapa do desenvolvimento sobre a qual ela não detinha controle algum. Ou seja, não se chama quem participou só do design para responder por uma falha de utilização, e vice-versa.

Uma desvantagem, no entanto, é que pode ficar complexo identificar em qual ponto da cadeia ocorreu a falha. Nesse caso, é necessário que a legislação preveja o registro integral de todas as etapas de produção e operação de um sistema de inteligência artificial, de forma que essa documentação possa passar por perícias judiciais com o objetivo de identificar a origem do erro.

Uma vez identificado o agente que poderá ser chamado a indenizar, é preciso definir se vai ser exigido ou não o requisito da culpa.

A vantagem do sistema de responsabilidade subjetiva é que se gera um incentivo para atuação diligente dos agentes de desenvolvimento ou de operação, na medida em que eles sabem que qualquer indício de negligência, imprudência ou imperícia poderá atrair para eles o dever de indenizar.

A desvantagem seria, a princípio, para a vítima, que poderia ficar desassistida caso fosse demonstrada a ausência de culpa dos agentes de desenvolvimento ou operação.

Porém, a tentativa de “resolver” esse problema, adotando a responsabilidade objetiva e promovendo a indenização a qualquer custo, atrai ainda mais desvantagens do que a responsabilidade subjetiva.

Isso porque, já que o agente vai ser responsabilizado em qualquer hipótese, ele perde o incentivo para ser cuidadoso e passa a operar exclusivamente com base no mínimo exigido pela lei. Nos casos de tecnologias com potencial para utilização em escala, qualquer falha invariavelmente afetará centenas, senão milhares de usuários, aumentando as chances de condenações milionárias. Isso tudo agrega custos à produção, que só podem ser repassados aos consumidores até um limite. Ultrapassado esse ponto, o produto deixa de ser acessível, o desenvolvimento passa a ser arriscado demais, e o investimento deixa de ser interessante.

Como resultado, a sociedade brasileira como um todo deixaria de ter acesso aos avanços tecnológicos da Inteligência Artificial que, de tão caros, ficariam concentrados em uma classe social mais abastada. A iniciativa privada perderia em competitividade para outros países, e muito provavelmente ocorreria uma grande fuga de cérebros, com desenvolvedores buscando no exterior oportunidades de trabalho.

O que todos buscam: segurança. Assuntos como Inteligência Artificial mobilizam não só os juristas, mas também a comunidade científica, a iniciativa privada e a sociedade como um todo. Cada um com seus pressupostos, esses grupos têm um interesse em comum: a segurança.

O Direito busca segurança jurídica, que assume a forma de previsibilidade do regramento aplicável. O mercado precisa de segurança para assumir os riscos do investimento, enquanto os consumidores querem se sentir seguros ao usar a nova tecnologia. Por fim, mas não menos importante, os desenvolvedores almejam segurança para continuar a reescrever as fronteiras entre o real e o ficcional.

Articular todos esses pontos necessariamente passa pela forma como responderemos ao ponto de maior tensão envolvendo sistemas de inteligência artificial: a responsabilidade civil.

Por isso, quanto mais pessoas estiverem inteiradas do tema e de suas problemáticas, maior será a qualidade do debate, e mais chances teremos, como sociedade, de alcançar uma regulação que incentive o investimento, o desenvolvimento e o uso seguros da inteligência artificial.

*Marcelo Tostes, advogado, sócio fundador e CEO do Marcelo Tostes Advogados

Tudo o que sabemos sobre:

Artigo

Comentários

Os comentários são exclusivos para assinantes do Estadão.