A atribuição de responsabilidade civil por danos causados por sistemas de inteligência artificial é um dos desafios jurídicos mais complexos da contemporaneidade. A autonomia dos sistemas de IA, a multiplicidade de agentes envolvidos em seu desenvolvimento e operação, e a dificuldade de estabelecer nexo causal criam lacunas que os regimes tradicionais de responsabilidade civil não foram desenhados para endereçar.
Regime do Código Civil
O Código Civil brasileiro prevê dois regimes de responsabilidade: a subjetiva (art. 186 c/c art. 927), que exige a demonstração de culpa; e a objetiva (art. 927, parágrafo único), aplicável quando a atividade normalmente desenvolvida implica, por sua natureza, risco para os direitos de outrem.
A caracterização do desenvolvimento e operação de IA como atividade de risco é debatida. A natureza probabilística dos resultados de muitos sistemas de IA, a possibilidade de comportamentos emergentes e a dificuldade de previsão completa de resultados são argumentos favoráveis à aplicação do risco da atividade.
Responsabilidade pelo Fato do Produto
Quando o sistema de IA é integrado a um produto ou serviço oferecido ao consumidor, o Código de Defesa do Consumidor (arts. 12 e 14) prevê responsabilidade objetiva do fornecedor por defeitos do produto ou do serviço. O desenvolvedor de IA, como integrante da cadeia de fornecimento, pode ser responsabilizado solidariamente com o fabricante ou prestador de serviço.
A questão é definir quando um resultado indesejado do sistema de IA constitui defeito. Sistemas probabilísticos não garantem acerto em cem por cento dos casos, e a expectativa legítima do consumidor deve ser calibrada adequadamente.
Multiplicidade de Agentes
A cadeia de desenvolvimento e operação de IA envolve múltiplos agentes: desenvolvedores do modelo base; treinadores e curadores de dados; integradores que adaptam o sistema; operadores que o implantam; e usuários finais que interagem com ele. A responsabilidade de cada agente deve ser analisada conforme sua contribuição para o dano.
Nexo Causal e Opacidade
O nexo causal é especialmente difícil de estabelecer em danos causados por IA. A opacidade de muitos modelos dificulta a identificação precisa de quais fatores levaram ao resultado danoso. Isso levanta a questão da inversão do ônus da prova e da adoção de presunções de causalidade.
Deveres de Cuidado
Independentemente do regime de responsabilidade adotado, os desenvolvedores de IA têm deveres de cuidado que incluem: testes adequados antes do deployment; monitoramento contínuo do desempenho; correção de falhas conhecidas; informação clara sobre limitações do sistema; e implementação de mecanismos de supervisão humana para decisões críticas.
Perspectivas Regulatórias
O PL 2338/2023 contempla regras específicas de responsabilidade civil para IA, que devem complementar e especificar as regras gerais do Código Civil e do CDC. A definição do regime — objetivo ou subjetivo, conforme o nível de risco — será determinante para o desenvolvimento do setor no Brasil.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".