A Estrutura das Excludentes de Responsabilidade
No regime de responsabilidade objetiva, a inexistência de causalidade pode decorrer de fatores como fortuito, fato exclusivo da vítima ou fato de terceiro. Já a ausência de culpa, quando verificado o nexo causal, exclui a responsabilidade com fundamento na análise do próprio nexo de imputação. Analogamente, se o agente atuar amparado por legítima defesa, estado de necessidade ou cumprimento de dever legal, pode haver o afastamento da antijuridicidade, também inviabilizando a imputação de responsabilidade.
Parece-nos que a compreensão dessas excludentes adquire relevo especial quando se trata de sistemas de inteligência artificial, pois a autonomia dos algoritmos pode dificultar — ou mesmo impossibilitar — a demonstração de que qualquer das hipóteses clássicas de exclusão efetivamente incide no caso concreto. A pergunta que se impõe é: quando um sistema de IA causa dano em razão de comportamento emergente não previsto pelo desenvolvedor, pode-se invocar o fortuito externo? Ou tal imprevisibilidade, inerente à natureza evolutiva dos algoritmos, deve ser considerada risco próprio da atividade e, portanto, suportado pelo operador?
Ilicitude, Culpa e Imputabilidade: Distinções Fundamentais
A distinção entre ilicitude, culpa e imputabilidade reflete-se no ordenamento brasileiro e na evolução histórica dos sistemas de responsabilidade. Segundo Nelson Rosenvald, em linha com a doutrina de Rudolf von Ihering, a ilicitude decorre do desrespeito objetivo a um dever de cuidado, enquanto a culpa diz respeito ao juízo moral da conduta que podia e devia ter sido diferente.
Verificou-se que diferentes ordenamentos tratam de forma distinta essa relação. O sistema francês não dissocia a ilicitude da culpa, tratando-as como elementos indissociáveis do ilícito civil; o sistema alemão e o brasileiro, por sua vez, concebem-nas como pressupostos autônomos, permitindo que haja ilicitude sem culpa — como nas hipóteses de responsabilidade objetiva — e, em tese, culpa sem ilicitude formal, quando o agente viola um dever de cuidado em situação não expressamente vedada pela ordem jurídica.
A responsabilidade objetiva genuína, por outro lado, não exige discussão sobre ilicitude e elemento subjetivo, apoiando-se no risco ou em previsão legal expressa. Exemplos como o Código de Defesa do Consumidor brasileiro são descritos por parte da doutrina como "responsabilidade civil subjetiva com alto grau de objetividade", pois há sempre um padrão mínimo de segurança desrespeitado que serve de fundamento implícito à imputação.
O CDC e o Profissional Liberal: Uma Tensão Persistente
O debate acerca do profissional liberal no Brasil reforça que o Código de Defesa do Consumidor — lei especial — não está derrogado pelo Código Civil nessa matéria. Vale o critério subjetivo para o profissional liberal, conforme o art. 14, § 4º do CDC, enquanto a responsabilidade objetiva permanece a regra em outras situações consumeristas. Essa dicotomia ganha novos contornos quando o profissional liberal adota sistemas de IA como suporte à sua atividade.
Parece-nos que a questão mais delicada consiste em saber se o profissional liberal — médico, advogado, engenheiro — que utiliza IA como instrumento de trabalho permanece sob o regime subjetivo do CDC ou se, ao incorporar uma tecnologia objetivamente arriscada ao exercício de sua profissão, migra, ao menos parcialmente, para um regime mais severo. O PL 2.338/2023, ao prever no art. 27, § 1º, a responsabilidade objetiva do "operador" de sistemas de IA de alto risco, e ao definir operador no art. 4º, III, como qualquer pessoa que empregue ou utilize sistema de IA em seu nome ou benefício, sugere que o profissional liberal pode ser alcançado pela responsabilidade objetiva — o que representaria ruptura significativa com a tradição do CDC.
O Modelo Português e as Limitações Quantitativas
Em Portugal, mesmo na responsabilidade objetiva, elementos como a culpa ou a atenuação do dever de reparar surgem em limites quantitativos de indenização e na equidade prevista em lei. Tal solução permite que o sistema de responsabilidade objetiva seja temperado por considerações de proporcionalidade, evitando que a imputação irrestrita de danos conduza a resultados economicamente insuportáveis para os agentes.
Verificou-se que essa abordagem encontra paralelos no direito brasileiro, onde o art. 944, parágrafo único, do Código Civil autoriza o juiz a reduzir equitativamente a indenização quando houver desproporção entre a culpa e o dano. No contexto da IA, tal dispositivo poderia ser utilizado para modular a responsabilidade do operador que, embora objetivamente responsável, tenha adotado todas as precauções técnicas razoáveis para minimizar o risco de dano.
Aspectos Práticos da Prova no Contencioso Envolvendo IA
Do ponto de vista probatório, os desafios práticos do nexo de imputação no contexto da IA são consideráveis. A demonstração do nexo causal entre o funcionamento do sistema e o dano sofrido exige, frequentemente, perícia técnica especializada capaz de reconstruir os processos decisórios do algoritmo — tarefa que, nos sistemas de deep learning, pode ser de extrema complexidade ou mesmo impossível com as ferramentas disponíveis.
Parece-nos que a solução mais adequada passa pela adoção de mecanismos de inversão do ônus probatório — já prevista no art. 6º, VIII, do CDC e aventada no art. 27, § 2º, do PL 2.338/2023 para sistemas que não sejam de alto risco —, combinada com obrigações de transparência e documentação técnica impostas aos desenvolvedores e operadores de sistemas de IA. O AI Act europeu caminha nessa direção ao exigir, para sistemas de alto risco, a manutenção de registros (logs) detalhados que permitam a auditoria a posteriori do comportamento do sistema.
A Responsabilidade Solidária e o Ressarcimento da Vítima
Outro aspecto prático de relevo diz respeito à responsabilidade solidária entre os múltiplos agentes da cadeia de desenvolvimento e operação de sistemas de IA. O Código Civil, em seu art. 942, estabelece a solidariedade entre os coautores do dano. No contexto da IA, a cadeia pode envolver o desenvolvedor do modelo base, o fornecedor de dados de treinamento, o integrador que adapta o sistema a uma aplicação específica e o operador que o utiliza junto ao consumidor final.
Verificou-se que a solidariedade, nesse caso, serve como instrumento fundamental de proteção da vítima, que não precisará identificar precisamente qual agente da cadeia causou o dano para obter reparação integral. A questão do ressarcimento entre os codevedores solidários — mediante ação regressiva — permanece, todavia, como ponto de tensão, pois exige a determinação da parcela de responsabilidade de cada agente, tarefa que pode ser igualmente complexa do ponto de vista técnico e jurídico.
A articulação entre os regimes de responsabilidade objetiva e subjetiva, as excludentes clássicas e os novos desafios probatórios impostos pela IA configura, portanto, o núcleo dos aspectos práticos que o operador do direito deverá enfrentar nos litígios envolvendo sistemas inteligentes — campo em que a fronteira entre a teoria e a prática se revela cada vez mais tênue e exigente.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".