A Transferência Decisória para Sistemas de IA: Panorama Transversal
A transferência de capacidade decisória para sistemas de IA é um fenômeno transversal a vários setores, mas assume dimensão especialmente delicada naqueles em que estão em jogo direitos fundamentais — como a saúde, a liberdade e o patrimônio dos indivíduos. No exercício da medicina, enquanto arte praticada por seres humanos, há discussões consolidadas sobre o chamado "ato médico" e a responsabilidade técnica envolvida. Com a IA, o ponto de tensão recai sobre o grau de delegação de decisões e procedimentos — como a interpretação de exames de imagem, a análise de dados laboratoriais ou a recomendação de diagnósticos — a softwares que funcionam como black-boxes.
Parece-nos que esse cenário apresenta pelo menos dois planos de responsabilidade que merecem ser analisados separadamente. O primeiro concerne ao desenvolvedor do sistema de IA, que pode responder civilmente pela disponibilização de um produto capaz de causar danos, equiparando-se a qualquer outro fornecedor de equipamento médico. O segundo concerne ao profissional de saúde que utiliza o sistema, o qual, segundo Eduardo Tomasevicius Filho, encontra-se numa posição de insegurança ao utilizar o resultado interpretado pelo algoritmo, pois ignora os critérios de decisão, mas, ainda assim, deve zelar pelo bem-estar do paciente.
A Responsabilidade do Desenvolvedor de IA Médica
O desenvolvedor de sistemas de IA destinados a aplicações médicas enquadra-se na categoria de fornecedor de produto ou serviço para fins do CDC (art. 3º). Verificou-se que, nessa qualidade, sujeita-se ao regime de responsabilidade objetiva pelo fato do produto ou do serviço (arts. 12 e 14 do CDC), salvo nas hipóteses taxativas de exclusão: inexistência de defeito, culpa exclusiva do consumidor ou de terceiro.
A questão que se coloca, no entanto, é a de saber se um sistema de IA médica que apresenta taxa de erro dentro dos parâmetros aceitos pela literatura científica — mas que, num caso específico, gera um diagnóstico equivocado — pode ser considerado "defeituoso" para fins de responsabilidade. Parece-nos que a resposta exige análise casuística: se a margem de erro era conhecida, estava devidamente documentada e foi comunicada ao profissional de saúde, o produto pode não ser considerado defeituoso; se, ao contrário, o sistema foi apresentado como mais preciso do que efetivamente é, configurar-se-á defeito de informação, com todas as consequências daí decorrentes.
A Posição do Profissional de Saúde
Na seara de serviços médicos, há que se distinguir a responsabilidade do profissional — subjetiva, na forma do art. 14, § 4º, do CDC — daquela do hospital ou do plano de saúde — objetiva, nos termos do caput do mesmo art. 14 —, sem prejuízo de ações regressivas quando configurada culpa do médico.
Entretanto, segundo Maria Helena Diniz, pode não haver vínculo contratual, e a responsabilidade, assim, ser extracontratual — haja vista existirem profissões que desempenham função social e obedecem a obrigações legais concomitantes às contratuais, como a médica. Em muitas hipóteses, por outro lado, a relação médico-paciente é regida pelo CDC, ensejando responsabilidade objetiva dos estabelecimentos de saúde.
Verificou-se que a responsabilidade pessoal do médico, entretanto, permanece subjetiva, sendo apurada pela verificação de culpa, na forma do § 4º do art. 14 do CDC. Assim, para que o médico responda pessoalmente por dano causado mediante uso de IA, será necessário demonstrar que agiu com imprudência, negligência ou imperícia — o que pode incluir, por exemplo, a adoção irrefletida de diagnóstico algorítmico sem a devida avaliação clínica complementar.
O PL 2.338/2023 e o Paradoxo da Medicina Defensiva
Interessante notar, nesse sentido, que a redação atual do PL 2.338/2023 prevê três regimes de responsabilidade com enorme potencial de choque. O art. 27, § 1º, prescreve que o fornecedor ou operador de sistemas de IA de alto risco ou risco excessivo respondem objetivamente pelos danos causados — e o profissional liberal que utiliza tecnologia com IA para o desenvolvimento de sua atividade estará abrangido pelo conceito de "operador" (art. 4º, III). Em sequência, o § 2º do mesmo art. 27 diz que, nos demais casos, haverá presunção de culpa do agente, com inversão automática do ônus probatório. Por sua vez, o art. 29 do mesmo diploma afirma que danos causados por sistemas de IA nas relações de consumo continuam sob a égide do CDC — devolvendo a responsabilidade pessoal do profissional liberal à necessidade de demonstração de culpa que não se presume.
Especificamente, Eugênio Facchini Neto e Augusto Pereira Costa ressaltam o risco de se adotar responsabilidade objetiva do médico pelo uso de IA: a criação de um "efeito paradoxal", em que o profissional que utiliza algoritmos em prol do paciente ficaria sujeito a regime mais severo do que aquele que se recusa a modernizar-se. O receio de maior ônus levaria à adoção de "medicina defensiva de natureza omissiva", em que o profissional preferiria não recorrer à IA, mesmo que fosse útil ao paciente.
Parece-nos que essa crítica é procedente e aponta para uma inconsistência estrutural do PL 2.338/2023: ao aplicar responsabilidade objetiva ao operador de sistemas de alto risco sem distinguir adequadamente o desenvolvedor do profissional que meramente utiliza o sistema como ferramenta de apoio, o projeto pode, paradoxalmente, desincentivar o uso responsável de IA em áreas onde ela poderia gerar benefícios substanciais à saúde pública.
A Responsabilidade do Hospital e do Plano de Saúde
A responsabilidade objetiva do hospital e do plano de saúde pelos danos causados por sistemas de IA adotados em seus serviços é, a nosso ver, a solução mais coerente com o sistema do CDC e com os princípios de proteção da parte vulnerável da relação consumerista. O estabelecimento de saúde que incorpora IA ao seu processo de atendimento assume o risco da atividade e deve responder independentemente de culpa pelos danos decorrentes de falhas do sistema.
Essa responsabilidade objetiva do estabelecimento não exclui, obviamente, o direito de regresso contra o desenvolvedor do sistema de IA defeituoso (art. 13 do CDC) ou contra o profissional de saúde que, por culpa própria, contribuiu para o dano. O que o CDC veda é que o consumidor tenha de suportar o ônus de identificar o responsável na cadeia — direito à reparação que deve ser assegurado de forma direta, ágil e efetiva.
Perspectivas para a Regulação Setorial
O panorama atual revela que a regulação da responsabilidade por IA na área da saúde ainda é fragmentada e insuficiente no Brasil. A ANVISA, o CFM e a ANS têm papel fundamental a desempenhar na definição de padrões técnicos e deontológicos para o uso de IA em aplicações médicas — padrões que, uma vez estabelecidos, poderão servir de referência para a aferição da culpa dos profissionais e da adequação dos sistemas empregados. Verificou-se que, sem essa regulação setorial específica, o direito geral da responsabilidade civil — por mais elaborado que seja — será sempre insuficiente para dar conta das especificidades técnicas e éticas do uso de IA na medicina.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".