Voltar ao Blog
Responsabilidade CivilConsiderações Finais

Considerações Finais: Aspectos Práticos

Aspectos práticos das considerações finais: nexo de imputação na IA, teorias do risco, fato da coisa, responsabilidade indireta, CDC, LGPD, PL 2338/23 e AI Act aplicados ao direito civil.

Alessandro Lavorante 22 de agosto de 2025 8 min de leitura

O Nexo de Imputação como Elemento Central

O denominador comum das discussões desenvolvidas ao longo desta obra é o nexo de imputação: a identificação de quem deve responder pelos danos causados por sistemas de inteligência artificial e com fundamento em que critério jurídico essa responsabilidade deve ser atribuída. Parece-nos que a análise dos critérios de imputação de responsabilidade aos fatos derivados da inteligência artificial confirma que o direito brasileiro já dispõe de um arcabouço robusto — composto por modelos subjetivos e objetivos, teorias do risco e regras de responsabilidade indireta — para lidar com a maior parte dos problemas trazidos pela IA.

Se, no início do percurso analítico, discutimos a base clássica da culpa (lato sensu) como pressuposto de ilicitude, logo se percebeu que a evolução tecnológica e a própria autonomia decisória de sistemas avançados justificam o alargamento tanto daquelas hipóteses quanto das de responsabilidade objetiva ou híbrida. O nexo de imputação deixa de estar restrito à falha pessoal do agente, assumindo contornos ligados ao risco inerente à atividade, ao proveito econômico de quem explora a IA ou à posição de quem efetivamente controla — ou deveria controlar — o sistema.

As Teorias do Risco e sua Aplicação à IA

As teorias do risco — seja o risco criado (ou risco da atividade), seja o risco-proveito ou mesmo as versões mais rigorosas de risco excepcional e integral — fornecem um lastro normativo para responsabilizar desenvolvedores, fornecedores e operadores, independentemente de culpa provada. A lógica subjacente é a de que, ao colocar em circulação algo potencialmente danoso, ou ao explorar comercialmente um sistema autônomo, assumem-se os ônus pelos danos dele decorrentes.

Verifica-se que o risco do empreendimento, previsto no art. 931 do Código Civil, e a responsabilidade pelo defeito do produto no CDC — arts. 12 e 14 —, que constituem espécies de "fato do produto", reforçam a ideia de que, quando os danos resultam de produtos ou serviços envolvendo IA, a reparação não depende da localização de uma conduta específica ou do enquadramento formal de uma determinada atividade como "de risco", mas decorre da própria inserção desse bem no mercado.

Parece-nos que a teoria do risco-proveito, em especial, é aquela que melhor captura a lógica econômica subjacente ao desenvolvimento comercial da IA: as empresas que exploram sistemas de inteligência artificial obtêm ganhos significativos de eficiência, redução de custos e ampliação de mercado — ganhos que justificam, pela lógica da reciprocidade, que essas mesmas empresas suportem os riscos e os custos dos danos que seus sistemas possam causar a terceiros.

O Fato da Coisa e a Guarda de Sistemas Inteligentes

As teorias sobre o fato da coisa evidenciam que, historicamente, a guarda e o poder de direção são cruciais para atribuir responsabilidade objetiva quando algo relativamente imprevisível causa danos a terceiros. Se a IA se assemelha, em certos aspectos, a bens inanimados — por exigir manutenção e controle —, ela também pode apresentar comportamentos inesperados, remetendo à analogia com animais, cujo tutor responde por sua natureza muitas vezes imprevisível. Tais analogias servem para ilustrar o quanto o direito já conviveu com a flexibilização da ideia de risco-proveito para muito além do "risco-lucro", e também com a ideia de "risco do comportamento", que extrapola a vontade humana imediata.

Verifica-se que o conceito de guarda, no contexto da IA, exige adaptação: o guardião de um sistema de IA não é necessariamente aquele que detém a propriedade física do hardware, mas aquele que exerce o controle efetivo sobre o comportamento do sistema — isto é, aquele que define seus parâmetros de operação, monitora seus resultados e tem a capacidade de intervir para corrigi-los. Essa concepção funcional de guarda é coerente com o PL 2.338/2023, que distingue entre o desenvolvedor do sistema — responsável pelo seu projeto e treinamento — e o operador — responsável pela sua implantação e uso em contextos específicos —, atribuindo a cada um obrigações proporcionais ao seu grau de controle sobre o sistema.

Parece-nos que a identificação do guardião da IA é, na prática, um dos principais desafios para a aplicação do regime de responsabilidade civil: em sistemas vendidos como serviço (SaaS), o desenvolvedor cede o controle ao operador; em sistemas de código aberto, o controle pode estar fragmentado entre inúmeros contribuidores independentes; em sistemas implantados em ambientes de nuvem, a infraestrutura pode ser fornecida por um terceiro que não tem conhecimento do uso específico feito pelo operador. Cada uma dessas configurações cria desafios distintos para a identificação do responsável.

A Responsabilidade Indireta e a Distribuição dos Riscos na Cadeia de IA

Os regimes de responsabilidade indireta — pais e filhos, tutores e pupilos, empregador e empregado — demonstram que a legislação brasileira objetiva a reparação plena do dano também quando há uma relação de dependência ou subordinação que justifique repassar a outrem a obrigação de indenizar. Em cenários de IA, isso se traduz, por exemplo, na atribuição de responsabilidade ao desenvolvedor ou à organização que emprega a tecnologia em proveito próprio — ainda que o sistema opere de forma parcialmente autônoma.

As noções de culpa in eligendo ou in vigilando permanecem relevantes na esfera interna — direito de regresso —, ao passo que, externamente, prevalece a proteção da vítima sob o prisma do risco. Verifica-se que esse modelo é perfeitamente compatível com o PL 2.338/2023, que prevê, em seus arts. 28 e 29, tanto a responsabilidade objetiva dos agentes de IA perante as vítimas quanto a possibilidade de repartição interna dos riscos entre os diferentes agentes da cadeia — repartição que pode levar em conta o grau de controle de cada agente, sua participação no ciclo de desenvolvimento e sua capacidade de prevenção dos danos.

Parece-nos que a articulação entre responsabilidade objetiva perante a vítima e responsabilidade subjetiva nas relações internas é a arquitetura normativa mais adequada para o campo da IA — e é exatamente essa a arquitetura que emerge da leitura sistemática do Código Civil de 2002, do CDC, da LGPD e do PL 2.338/2023.

O Nexo de Imputação na IA: Síntese Prática

Em síntese, o nexo de imputação na IA deixa claro que não basta provar a relação causal entre o evento danoso e o sistema autônomo; é preciso identificar quem deve responder, seja por culpa, seja por risco, seja pelo cumprimento de valores como a sociabilidade e a eticidade. Nesse ponto, tanto o ordenamento brasileiro vigente quanto as propostas nacionais e europeias tendem a um regime misto, combinando presunções de responsabilidade, inversão do ônus da prova, classificação de risco por nível de autonomia e reparação integral.

Essa construção não rompe totalmente com os pilares do Direito Civil; ao contrário, prolonga-os para abarcar realidades emergentes e salvaguardar tanto a segurança das vítimas quanto o desenvolvimento inovador. Parece-nos que a coerência desse sistema só pode ser preservada se a interpretação das normas vigentes for orientada por uma hermenêutica que considere simultaneamente a proteção dos direitos fundamentais, a eficiência econômica e os imperativos éticos que devem governar o desenvolvimento da inteligência artificial.

Adequações Regulatórias Necessárias

Entretanto, algumas adequações regulatórias e hermenêuticas, desde que feitas sem precipitação, são necessárias para melhor acomodar o tema. Parece-nos que as mais urgentes são: (i) a criação de um mecanismo processual específico para a produção de prova técnica em casos de danos causados por IA, que permita o acesso judicial aos dados de treinamento, aos registros de funcionamento e à documentação técnica do sistema; (ii) a extensão da responsabilidade solidária a todos os agentes da cadeia de IA que exerceram controle sobre o sistema causador do dano, com a posterior repartição interna segundo os critérios do PL 2.338/2023; e (iii) a criação de um fundo de reparação para vítimas de danos causados por sistemas de IA quando o responsável não puder ser identificado ou não dispuser de recursos suficientes para a reparação integral.

Verifica-se que é salutar que esses critérios sejam sempre rediscutidos e abertos à contribuição de toda a sociedade — juristas, técnicos, usuários, representantes da sociedade civil e do setor empresarial. A regulação da IA não pode ser obra exclusiva do legislador ou dos tribunais: ela exige um processo deliberativo amplo e inclusivo, capaz de capturar a complexidade técnica e social do fenômeno e de produzir normas legítimas e eficazes.

A Responsabilidade Civil como Instrumento de Governança da IA

Conclui-se, por fim, que a responsabilidade civil pela IA não deve ser encarada apenas como um mecanismo de reparação de danos já ocorridos, mas também como um poderoso instrumento de governança preventiva: ao definir claramente quem responde pelos danos causados por sistemas inteligentes — e em que condições essa responsabilidade pode ser afastada —, o ordenamento jurídico cria os incentivos adequados para que os agentes da cadeia de IA adotem, proativamente, práticas de desenvolvimento seguro, transparente e responsável.

Parece-nos que a combinação entre um regime de responsabilidade civil bem calibrado, um arcabouço regulatório específico para a IA — como o que o PL 2.338/2023 pretende instituir — e mecanismos efetivos de enforcement constitui a melhor estratégia disponível para garantir que o desenvolvimento da inteligência artificial no Brasil seja orientado pelos valores constitucionais de dignidade, igualdade, solidariedade e proteção dos direitos fundamentais.

ConclusõesConsiderações FinaisIARegulação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.