Inteligência Artificial na Medicina e a responsabilidade civil


A inteligência artificial (IA), assim como em outras áreas, tem revolucionado a medicina, trazendo avanços significativos em diagnósticos, tratamentos e na gestão dos cuidados de saúde.
Contudo, a incorporação dessas tecnologias levanta questões complexas sobre a responsabilidade médica, especialmente quando ocorre uma falha ou erro associado ao uso de sistemas automatizados.
Ainda que, por ser extremamente recente, tal aspecto inovador limite a aferição de resultados, é possível discutir essas temáticas.
Assim, este artigo visa fornecer um panorama geral — mediante uma abordagem introdutória — sobre os limites da responsabilidade dos médicos no contexto da IA, analisando a legislação vigente, a doutrina relevante e as implicações éticas e jurídicas para a prática médica.
Inteligência Artificial na Prática Médica
A inteligência artificial na medicina abrange uma ampla gama de aplicações, desde algoritmos que auxiliam em diagnósticos até robôs que realizam cirurgias com precisão superior à humana.
Tecnologias como machine learning, redes neurais e análise preditiva são usadas para interpretar exames de imagem, prever a evolução de doenças e até personalizar tratamentos com base em dados genômicos.
Um exemplo marcante é o uso de IA em radiologia, onde algoritmos podem detectar anomalias em exames de imagem com uma precisão que muitas vezes supera a de especialistas humanos.
Sistemas como o IBM Watson Healthcare têm sido utilizados para ajudar oncologistas a determinar tratamentos personalizados com base em grandes volumes de dados de pacientes.
Ademais, destaca-se o exemplo das intervenções cirúrgicas e clínicas, onde sistemas complexos guiados por inteligência artificial, sob comando, podem operar funções específicas ou permitir que o profissional preste atendimento de forma remota.
Contudo, a confiabilidade dessas tecnologias ainda é uma questão em aberto. Um erro em um diagnóstico automatizado ou em uma intervenção cirúrgica assistida por robô pode ter consequências graves para o paciente.
Nesse contexto, surge a necessidade de questionar até que ponto o médico é responsável por eventuais falhas da IA.
A Responsabilidade Médica: Conceitos Fundamentais
No Brasil, a responsabilidade civil dos médicos é tradicionalmente subjetiva, como já demonstrado, o que exige a demonstração de culpa, dolo ou negligência por parte do profissional para que haja reparação de danos. Esse princípio, conforme estabelecido no Código Civil (art. 186 e 927), impõe que a conduta do médico seja avaliada com base no cuidado e na diligência esperados na profissão. A responsabilidade subjetiva leva em conta fatores como a formação, a experiência e as condições em que o ato médico foi realizado.
Contudo, quando um médico utiliza uma tecnologia de IA que apresenta uma falha, a questão da responsabilidade se torna mais complexa. Afinal, até que ponto o médico pode ser responsabilizado por um erro que, tecnicamente, é de uma máquina ou de um software? Além disso, é necessário considerar se o médico agiu com a devida diligência ao escolher e utilizar a tecnologia, e se ele teve controle suficiente sobre o processo para que possa ser considerado culpado por um eventual erro.
A jurisprudência brasileira ainda está se desenvolvendo em relação a esses casos. No entanto, é possível que o judiciário adote uma abordagem casuística, analisando cada situação individualmente para determinar a extensão da responsabilidade do médico.
Teoria do Risco e a Responsabilidade pelo Uso de IA
A teoria do risco, amplamente discutida no direito civil, sugere que quem se beneficia de uma atividade deve também arcar com os riscos inerentes a ela. Em certas situações, como no caso do uso de sistemas de inteligência artificial dotados de grande autonomia, os juristas têm-se debruçado sobre a possibilidade de aplicação da teoria do risco — conforme se nota, inclusive, pelo projeto do Novo Código Civil — especialmente em áreas onde há um potencial maior de causar danos, como na medicina.
Segundo essa perspectiva, a simples adoção de uma tecnologia que envolve riscos poderia, em tese, gerar uma responsabilidade objetiva para o médico, independentemente de culpa. No entanto, essa visão deve ser equilibrada com o entendimento de que a IA é uma ferramenta e que o médico ainda tem o dever de supervisionar e validar os resultados obtidos por esses sistemas.
Ademais, é importante considerar que o ordenamento jurídico prevê a responsabilidade solidária. Isso significa que, além do médico, fabricantes de equipamentos e desenvolvedores de software também poderiam ser responsabilizados por falhas, desde que se prove que a tecnologia utilizada era defeituosa ou inadequada. Contudo, a doutrina sobre a aplicação da teoria do risco no contexto da IA médica ainda está em desenvolvimento.
Responsabilidade Solidária: Médicos e Terceiros Envolvidos
O ordenamento prevê e permite a responsabilização solidária entre médicos, hospitais, fabricantes e desenvolvedores, quando o dano ao paciente decorre de um defeito em produtos ou serviços utilizados na prestação dos cuidados de saúde. Isso significa que, em um eventual processo judicial, o paciente poderia demandar tanto o médico quanto o fabricante de um equipamento defeituoso.
Nesse cenário, teoriza-se que a responsabilidade do médico poderia ser mitigada se ele demonstrasse que utilizou a tecnologia de maneira adequada e conforme as melhores práticas médicas, transferindo o ônus para o desenvolvedor ou fabricante do sistema defeituoso.
A questão central talvez seja se o médico teve controle, responsabilidade e conhecimento suficientes sobre o funcionamento da tecnologia para evitar o erro ou se ele confiou cegamente no sistema. No caso de uma falha tecnológica, pode ser necessário determinar se o médico deveria ter sido mais cauteloso ao interpretar os resultados fornecidos pela IA.
As discussões sobre responsabilidade solidária também abrangem a necessidade de uma avaliação contínua da eficácia e segurança das tecnologias médicas, bem como a transparência nos processos de certificação e aprovação dessas inovações.
Questões Éticas e Futuras Implicações Jurídicas
O uso da IA na medicina também levanta questões éticas, como a autonomia do paciente, a transparência dos algoritmos e a proteção de dados sensíveis.
A responsabilidade do médico deve ser considerada dentro desse contexto mais amplo, onde decisões automatizadas podem impactar diretamente a saúde e a vida dos pacientes.
A autonomia do paciente pode ser comprometida se ele não tiver conhecimento ou entendimento adequado sobre o papel da IA no seu tratamento. Além disso, a opacidade dos algoritmos – o chamado "problema da caixa-preta" – levanta preocupações sobre como as decisões são tomadas e quem é responsável por elas.
A proteção de dados sensíveis é outra área crítica, já que a IA na medicina frequentemente requer grandes volumes de dados para funcionar de maneira eficaz. O médico tem a responsabilidade de garantir que esses dados sejam tratados de acordo com a legislação vigente, como a Lei Geral de Proteção de Dados (LGPD).
No futuro, é provável que surjam novas regulamentações específicas para o uso de IA na medicina, bem como pode ser provocado pela promulgação do Novo Código Civil, que defina de forma mais clara os limites da responsabilidade dos médicos e de outros envolvidos no processo.
Até lá, é essencial que os médicos atuem com diligência, ética e transparência ao incorporar essas tecnologias em sua prática.
Conclusão
A responsabilidade médica na era da IA não pode ser vista de forma isolada, mas como parte de um ecossistema mais amplo, que inclui fabricantes, desenvolvedores e reguladores. A aplicação da teoria do risco e a responsabilidade solidária são temas centrais que precisam ser abordados de forma abrangente e cuidadosa, garantindo que a inovação tecnológica caminhe lado a lado com a ética e a justiça.
Ficou com alguma dúvida?
Sobre o autor:

