tema, deixe de encaminhar um paciente com sinais de infarto para uma avaliação presencial. A IA, por falha no algoritmo, classifica erroneamente os sintomas como “baixo risco” e o paciente acaba sofrendo complicações cardíacas graves. Nesse caso, o dano se insere no “escopo protetivo” da norma, pois decorre de um defeito no funcionamento do sistema, relacionado ao tipo de risco que a legislação busca evitar: problemas inerentes à tecnologia que afetem, principalmente, a segurança e a saúde do usuário. A responsabilidade pode recair tanto na clínica — que utilizou a IA sem o devido discernimento — quanto no fornecedor, caso este não tenha adotado as cautelas exigidas por lei (como os dispositivos do PL 2338/23 que disciplinam governança e impacto de IA, atualmente constantes do Capítulo IV – art. 19 e seguintes – do texto aprovado no Senado)372. Em outro cenário, no entanto, um paciente obtém acesso não autorizado à versão corporativa do mesmo software e a utiliza de maneira completamente irregular, ignorando avisos de que o produto se destina a profissionais de saúde e não substitui consulta médica. Ao seguir interpretações equivocadas da IA e renunciar à procura por um pronto-socorro, o paciente agrava um quadro clínico já existente. Nessa hipótese, é defensável a tese de que o dano se origina de um mau uso deliberado e extrapola o risco típico que o legislador pretende coibir, pois não decorre do mal funcionamento do sistema em seu uso ordinário, mas sim do desvio de finalidade praticado pelo próprio paciente. A teoria do escopo da norma mostra que, se o lesado agiu à margem das orientações de segurança e das condições de uso, afastando-se completamente daquilo que o fornecedor e as regras consumeristas definem como legítimo, o nexo causal entre o defeito do produto e o dano se rompe. De fato, observa-se que tanto o PL 2338/23 quanto as propostas europeias (nomeadamente o AI Act e a Proposta de Diretiva de Responsabilidade Civil para IA) pretendem assegurar justamente que o desenvolvedor responda pelos danos que sejam “típicos” da tecnologia, como análises equivocadas que prejudiquem de maneira injusta um usuário. Dessa forma, o resultado (o agravamento da saúde) não 372 No caso em tela, a empresa desenvolvedora, para cumprir requisitos de governança, transparência e compliance, deveria ao menos ressaltar, em contrato e no manual de uso, que a IA não substitui avaliação médica – bem como fazer o sistema informar, repetidamente, que qualquer diagnóstico definitivo exige a intervenção de um profissional habilitado.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".