Voltar ao Blog
ImputaçãoCapítulo 3

A Responsabilidade pelo Fato da Coisa Inanimada: Conceitos Fundamentais

Conceitos fundamentais da responsabilidade pelo fato da coisa inanimada: teoria da guarda, Code Napoléon, Código Civil brasileiro e aplicação analógica à inteligência artificial.

Alessandro Lavorante 26 de junho de 2025 8 min de leitura

A Responsabilidade pelo Fato da Coisa Inanimada: Conceitos Fundamentais e Aplicações à Inteligência Artificial

As linhas de analogia entre a responsabilidade pelo fato da coisa inanimada e os danos causados por sistemas de inteligência artificial são variadas e distintas, mas, em linhas gerais, a noção de que os princípios orientadores da guarda de coisas e animais podem ser aplicados à IA se lastreia nas seguintes premissas: a IA pode ser considerada uma "coisa inanimada" na forma de software; além disso, exibe elementos de imprevisibilidade que aproximam sua lógica de ação da dos animais, em razão de uma espécie de "comportamento próprio" suscetível de escapar ao controle humano tradicional. Parece-nos que a exploração cuidadosa dessas premissas é essencial para determinar os limites e as potencialidades da aplicação analógica desses institutos ao contexto dos sistemas inteligentes.

A Natureza e a Sofisticação dos Algoritmos como Fator Complicador

Obviamente, a própria natureza e a sofisticação dos algoritmos de IA, bem como a possibilidade de evolução, ingerência e modificações contínuas em servidores remotos, tornam mais complexa a identificação do "guardião efetivo" — aquele que, no momento do dano, detinha o poder de direção, uso e controle sobre o sistema. Enquanto na responsabilidade clássica pelo fato da coisa o guardião é identificado com relativa simplicidade — trata-se do proprietário, do detentor ou de quem exerce poder de fato sobre o bem no momento relevante —, nos sistemas de IA essa identificação se fragmenta ao longo de uma cadeia de agentes que inclui desenvolvedores, treinadores de modelos, integradores, operadores e usuários finais.

Nas próximas linhas, busca-se analisar até onde é viável e faz sentido a subsunção da IA ao regime de responsabilidade civil derivado das "coisas inanimadas" e dos danos causados pelos animais — tarefa que exige tanto o exame dos fundamentos históricos e dogmáticos desses institutos quanto a avaliação crítica de sua adequação às especificidades tecnológicas dos sistemas inteligentes.

A Evolução Histórica da Responsabilidade pelo Fato da Coisa: Da Guarda ao Risco

Em relação às coisas, observa-se uma evolução histórico-doutrinária embasada em duas teorias principais: a teoria da guarda e a teoria do risco. Ambas foram fundamentais para justificar a presunção de responsabilidade do guardião ou proprietário pelo "fato da coisa inanimada" (Cavalieri Filho, 2023, p. 286; Miragem, 2020, p. 242).

A teoria da guarda foca no poder de controle e direção que determinada pessoa exerce sobre a coisa: quem tem poder de uso, direção e fiscalização sobre um bem deve responder pelos danos que ele causa, pois era sua responsabilidade mantê-lo sob controle seguro. Essa teoria é compatível com um modelo de responsabilidade subjetiva atenuada — em que a culpa é presumida do guardião, cabendo a ele provar que adotou todas as precauções necessárias — ou com um modelo de responsabilidade objetiva, em que a mera relação de guarda é suficiente para fundamentar a obrigação de indenizar, independentemente de qualquer avaliação de conduta.

A teoria do risco, por sua vez, prescinde da relação de guarda e foca nos riscos inerentes à coisa ou à atividade a ela associada: quem cria ou explora um risco deve responder pelos danos que ele produz. Essa teoria é particularmente adequada para as coisas que, por sua natureza, apresentam riscos que superam os limites do ordinário — como explosivos, substâncias tóxicas, instalações elétricas de alta tensão — e que, no contexto da IA, incluem sistemas de tomada de decisão autônoma em áreas sensíveis como saúde, crédito e seleção de pessoal.

O Code Napoléon e a Distinção entre Coisa Inanimada e Coisa Inteligente

A responsabilidade civil extracontratual por danos causados por coisas, contemplada desde os primórdios do Code Napoléon (Loi 1803-03-05, vigente desde 12 de março de 1804), teve um papel decisivo na evolução dos sistemas jurídicos continentais. Partindo do art. 1384 (atualmente incorporado ao art. 1242), o código distinguia a responsabilidade pelo fato da "coisa inanimada" daquela decorrente do fato da "coisa inteligente" — o animal. Enquanto a primeira se limitava a um enunciado sintético, a segunda recebia mais atenção no art. 1385 (atual art. 1243), cujo teor atribuía ao proprietário do animal a obrigação de indenizar pelos danos causados, "salvo que prove o caso fortuito" (Ruffolo, 2019, p. 1699).

Essa distinção entre "coisa inanimada" e "coisa inteligente" (animal) é filosoficamente relevante para o debate sobre a IA: os sistemas de inteligência artificial situam-se, de certa forma, num ponto intermediário entre essas duas categorias. São, a rigor, coisas inanimadas — não possuem vida, consciência ou subjetividade jurídica própria. No entanto, exibem comportamentos que, do ponto de vista funcional, se assemelham à imprevisibilidade animal: produzem resultados que seus criadores não anteciparam, reagem de modo não linear a estímulos do ambiente e podem causar danos em circunstâncias que nenhum agente humano específico ordenou ou desejou.

Parece-nos que essa ambiguidade ontológica não impede — e talvez até estimule — a aplicação analógica dos princípios de ambas as categorias: da coisa inanimada, extrai-se a regra da responsabilidade objetiva do guardião pelo uso e manutenção segura do sistema; do animal, extrai-se a lógica da responsabilidade pelo comportamento autônomo e imprevisível, que escapa ao controle permanente do responsável mas que, por isso mesmo, não o exonera.

O Direito Brasileiro: Arts. 936 a 938 do Código Civil e suas Implicações

No direito brasileiro, a responsabilidade pelo fato da coisa encontra assento nos arts. 936 a 938 do Código Civil de 2002, que regulam, respectivamente, a responsabilidade pelo fato do animal, pelo fato de prédios em ruína e pela queda ou lançamento de objetos. O art. 936 atribui responsabilidade objetiva ao dono ou detentor do animal pelos danos por ele causados, admitindo exoneração apenas mediante prova de culpa exclusiva da vítima ou força maior. O art. 937 impõe ao dono do prédio a responsabilidade pela queda de partes do imóvel. O art. 938 responsabiliza o habitante do prédio por objetos lançados ou caídos em lugar indevido.

Esses dispositivos, interpretados à luz dos princípios gerais da responsabilidade objetiva, fornecem um modelo de imputação fundado na relação de guarda e no risco criado pelo bem sob domínio do responsável — modelo que, com os devidos ajustes, pode fundamentar a responsabilidade de desenvolvedores e operadores de sistemas de IA pelos danos que esses sistemas causam.

Verificou-se que a jurisprudência brasileira tem reconhecido, de modo crescente, a responsabilidade de empresas que utilizam sistemas automatizados de tomada de decisão pelos danos causados a consumidores — especialmente em casos de recusa indevida de crédito, de exclusão algorítmica de candidatos em processos seletivos e de discriminação por sistemas de precificação dinâmica. Nesses casos, os tribunais têm aplicado, de modo concorrente, os arts. 12 e 14 do CDC, o art. 931 do Código Civil e os princípios gerais de proteção ao consumidor, sem necessidade de recorrer expressamente às categorias do fato da coisa ou do fato do animal — mas produzindo resultados convergentes com a lógica de imputação objetiva que elas encerram.

A Identificação do Guardião Efetivo na Cadeia de IA

A questão mais delicada na aplicação analógica das teorias do fato da coisa e do fato do animal à IA é, como se antecipou, a identificação do "guardião efetivo" no momento do dano. O AI Act (Regulamento UE 2024/1689) distingue entre "fornecedores" (providers) — que desenvolvem e colocam no mercado o sistema de IA —, "implantadores" (deployers) — que o utilizam em contexto profissional ou comercial —, e "usuários" finais. Essa distinção é relevante porque a responsabilidade pelo dano pode recair sobre diferentes agentes dependendo do estágio do ciclo de vida em que o dano ocorreu e de quem detinha, naquele momento, o poder de controle e intervenção sobre o sistema.

O PL 2.338/2023 adota terminologia parcialmente convergente ao distinguir entre "agentes de IA" em sentido amplo, "fornecedores" e "operadores" (arts. 3º e 4º), estabelecendo que os fornecedores são responsáveis pelos defeitos de design e treinamento, enquanto os operadores respondem pelas consequências da implementação em contextos para os quais o sistema não foi projetado. Essa distribuição de responsabilidades é coerente com a lógica da guarda: cada agente responde pelos riscos que controla, e o guardião efetivo no momento do dano é o que detinha poder de intervenção sobre o sistema naquele instante.

Síntese: Potencialidades e Limites da Analogia

Parece-nos que a analogia entre a responsabilidade pelo fato da coisa inanimada e os danos causados por sistemas de IA tem potencialidades significativas — especialmente no que diz respeito à lógica de imputação objetiva fundada na guarda e no risco criado —, mas encontra limites importantes na dificuldade de identificar o guardião efetivo em cadeias produtivas complexas e distribuídas.

A solução mais adequada parece ser a de uma responsabilidade solidária entre todos os agentes que, em diferentes momentos, detiveram o poder de guarda sobre o sistema — solução que já encontra amparo no regime de solidariedade passiva dos arts. 12 e 14 do CDC e que poderia ser reforçada por disposições específicas do PL 2.338/2023. Essa abordagem garantiria ao consumidor lesado o direito de acionar qualquer agente da cadeia, preservando o direito de regresso entre eles segundo a efetiva contribuição causal de cada um.


Referências

  • CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
  • MIRAGEM, Bruno. Curso de Direito do Consumidor. 8. ed. São Paulo: Revista dos Tribunais, 2020.
  • RUFFOLO, Ugo. La Responsabilità per l'Utilizzo dell'Intelligenza Artificiale. In: RUFFOLO, Ugo (Coord.). Intelligenza Artificiale. Milão: Giuffré, 2019.
Coisa InanimadaGuardaResponsabilidade

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.