PUBLICIDADE

Foto do(a) blog

Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Inteligência artificial na saúde: medidas para que seja moralmente boa

Por Sidney Klajner e Rony Vainzof
Atualização:
Sidney Klajner e Rony Vainzof. FOTOS: DIVULGAÇÃO Foto: Estadão

A inteligência artificial (IA) é ramo da ciência da computação que trata da emulação do comportamento humano em máquinas, incluindo a resolução de problemas e o aprendizado. Suas aplicações são hoje condicionantes do desenvolvimento econômico e social de qualquer nação, já que permitem a exploração de novíssimos níveis de conhecimento e abrem margem para descobertas e contribuem para a solução de alguns dos maiores desafios da humanidade.

PUBLICIDADE

Na área da saúde, a intensificação e diversificação das aplicações de IA demonstram avanços, para ficar em alguns exemplos, na precisão de diagnósticos e prevenção de doenças, medicina personalizada, pesquisas clínicas e desenvolvimento de medicamentos, qualidade da assistência, redução de custos e eficiência na gestão de recursos, e na ampliação do acesso, promoção, gestão e planejamento da saúde.

Além disso, a IA poupa tempo dos profissionais da área da saúde, de forma que possam centrar seus esforços nos cuidados mais complexos e especializados e se dedicar ainda mais aos pacientes, imprimindo humanismo ao atendimento.

Um diagnóstico correto de doenças requer anos de treinamento especializado, e, mesmo assim, é normalmente um processo árduo. Técnicas de aprendizagem de máquinas (machine learning), subárea da IA, trazem enormes avanços nesse processo, tornando-o mais célere, barato e acessível. Já se usa IA na detecção de câncer de pulmão e derrames com base em tomografias, na avaliação do risco de doenças cardíacas com base em eletrocardiogramas e imagens de ressonância magnética do coração, na classificação de lesões cutâneas a partir de fotografias e ao buscar indícios de retinopatia diabética em imagens de fundo de olho.

No desenvolvimento de medicamentos, a IA auxilia a identificar em quais estruturas moleculares do organismo drogas podem agir (os alvos terapêuticos) e na seleção de quais moléculas se ligarão ao alvo e surtirão o efeito previsto.

Publicidade

O objetivo da medicina personalizada é, a partir da individualidade de cada paciente, selecionar os melhores tratamentos, inclusive medicamentosos. Conforme cresce a capacidade de processamento dos algoritmos e o volume de dados disponíveis (sejam de análises genômicas, exames de imagem ou testes laboratoriais), mais a IA tem chance de brilhar.

Porém, em que pese a magnitude dos benefícios elencados, caso a IA não seja aplicada de forma ética, segura e responsável desde a sua concepção (ou seja, ética by design), os riscos e danos podem ser elevados. Isso é agravado se a IA tiver algum grau de autonomia e se a criticidade da aplicação para a saúde humana for alta.

Os erros podem ser motivados por um treinamento/aprendizado incorreto ou insuficiente. Ou o próprio modelo de IA pode ser falho, ou seja, partir de premissas equivocadas, como heranças de preconceito institucionalizadas dos desenvolvedores e usuários.

Nem sempre esses vieses são conscientes, mas podem influenciar escolhas e se impregnar negativamente no corpo dos algoritmos, como grupos de pessoas que não estão devidamente representadas em bancos de dados para treinamento das aplicações.

Imagine, por exemplo, o caso da aplicação de IA para detecção de câncer de pele, mas no qual os dados para treinar o modelo foram somente de populações de pele clara. O algoritmo provavelmente não será adequado ou relevante para essa mesma detecção em pessoas com outras cores de pele.

Publicidade

Diante da importância de todas essas questões, a Organização Mundial da Saúde elencou princípios éticos para o uso de IA no setor.

CONTiNUA APÓS PUBLICIDADE

  1. Autonomia humana: o uso de IA não pode prejudicar a autonomia do ser humano, que deve permanecer no controle dos sistemas de saúde e das decisões médicas. Já provedores e usuários das tecnologias devem ter informações suficientes para fazer uso seguro e eficaz dos sistemas de IA. Por sua vez, pacientes, precisam entender o papel que a IA desempenha no cuidado. Ainda, o uso de IA deve respeitar direitos de privacidade e a proteção de dados pessoais.
  2. Bem-estar, segurança humana e interesse público: as tecnologias de IA não devem prejudicar pessoas. Os desenvolvedores das aplicações devem atender aos requisitos regulatórios de segurança, precisão e eficácia. Medidas de controle e melhoria de qualidade ao longo do tempo do uso de IA devem estar sempre disponíveis.
  3. Transparência, explicabilidade e inteligibilidade: as tecnologias de IA devem ser compreensíveis para desenvolvedores, profissionais da saúde, usuários, pacientes e reguladores, incluindo a adoção de medidas de transparência e explicabilidade. A transparência envolve informações publicadas ou documentadas antes do projeto ou implantação.
  4. Responsabilidade e prestação de contas: é de responsabilidade das partes interessadas garantir que a IA seja usada em condições apropriadas e por pessoas adequadamente treinadas, com pontos de supervisão humana. Se algo der errado, deve haver agentes identificáveis para responsabilização e reparação de indivíduos ou grupos afetados negativamente por decisões baseadas em algoritmos.
  5. Inclusão e equidade: as tecnologias de IA não devem codificar preconceitos em detrimento de grupos identificáveis, especialmente os que já são marginalizados. As tecnologias de IA devem minimizar as inevitáveis disparidades de poder que surgem entre provedores e pacientes, entre formuladores de políticas e pessoas e entre empresas e governos que criam e implantam tecnologias de IA e aqueles que as utilizam.
  6. Responsiva e sustentável: usuários e desenvolvedores devem conseguir avaliar a IA e seus efeitos e ter seus pontos de vista levados em conta. Os sistemas também devem ser projetados para minimizar suas consequências ambientais e aumentar a eficiência energética. A sustentabilidade também deve fomentar que governos e empresas lidem com questões de capacitação, incluindo treinamento para profissionais de saúde para se adaptarem ao uso de sistemas de IA e possíveis perdas de empregos.

Elencamos algumas opções possíveis para cumprir as diretrizes éticas para aplicações de IA de alto risco - e quem sabe resolver alguns problemas antes que eles apareçam. Uma é a realização de mapeamento do que pode dar errado e análises de impacto da implementação dos sistemas. Faz parte desse pacote, por exemplo, garantir a boa governança de dados utilizados para treinamento, teste e validação do sistema, evitando vieses discriminatórios. Também é importante haver documentação detalhada sobre o sistema, de seu funcionamento e das decisões tomadas em sua construção, além de registros de eventos ocorridos na operação.

E como humanos interagem com máquinas? É fundamental haver interfaces adequadas, que, mais do que amigáveis, sejam auditáveis. As regras que regem essa relação devem ser transparentes, assim como a apresentação dos processos decisórios e a interpretação dos resultados. Um grupo interdisciplinar de especialistas das diversas áreas do conhecimento podem avaliar esses processos e apontar caminhos para a mitigação dos danos.

O futuro da saúde, baseado em ciência e evidências, aponta para a oferta de cuidados preventivos e personalizados. A IA, pragmática e complexa, é e será cada vez mais primordial para que se cuide da saúde, e não da doença. Ela é uma evolução tecnológica de alta recompensa, mas também de alto risco.

Publicidade

Assim, o ciclo de vida das aplicações de IA no setor da saúde, desde a sua concepção, deve ser pautado em formular e apoiar soluções moralmente boas (novamente, ética by design), incorporando medidas de proteção da vida, da saúde, da integridade física e mental e da prevalência da vontade do paciente sobre como conduzir sua própria saúde, de forma que a confiança e segurança das aplicações de IA sejam plenas, e os riscos, mormente os mais críticos, sejam evitados.

*Sidney Klajner é cirurgião do aparelho digestivo e presidente da Sociedade Beneficente Israelita Brasileira Albert Einstein. Possui graduação, residência e mestrado pela Faculdade de Medicina da Universidade de São Paulo, além de ser fellow of American College of Surgeons. Coordenador da pós-graduação em Coloproctologia e professor do MBA Executivo em Gestão de Saúde no Instituto Israelita de Ensino e Pesquisa do Einstein. Membro do Conselho Superior de Gestão em Saúde, da Secretaria de Saúde do Estado de São Paulo, e do Conselho Superior de Combate às Doenças Infecciosas, também do governo de São Paulo, que formula estratégias para o enfrentamento de novas epidemias e pandemias e tem coordenação do secretário de Ciência, Pesquisa e Desenvolvimento em Saúde, David Uip. Coautor do livro A Revolução Digital na Saúde (Editora dos Editores, 2019)

*Rony Vainzof é sócio da Opice Blum, Bruno e Vainzof Advogados; coordenador da Pós-Graduação em Direito Digital da Escola Paulista de Direito, mestre em Soluções Alternativas de Controvérsias Empresariais, coordenador do livro Inteligência Artificial - Sociedade, Economia e Estado (Thomson Reuters - Revista dos Tribunais);  diretor do Departamento de Defesa e Segurança da FIESP e coordenador do Grupo de Trabalho de Segurança e Defesa Cibernética; consultor em Proteção de Dados da Fecomercio/SP; eleito o melhor advogado do ano em "Privacy and Data Security Law" pelo The Best Lawyers in Brazil - 2021; ganhador do prêmio "Protagonista Brasil, País Digital", do movimento "Brasil, País Digital" - 2021

Comentários

Os comentários são exclusivos para assinantes do Estadão.