Voltar ao Blog
ImputaçãoCapítulo 3

3.3.1. A Responsabilidade pelo Fato da Coisa Inanimada: Aplicações e Implicações

equiparar de modo imediato a objetos inanimados merece cautela: se, por um lado, essa aproximação levaria à responsabilidade presumida do proprietário, com excludentes de força maior ou culpa da...

Alessandro Lavorante 5 de julho de 2025 2 min de leitura

equiparar de modo imediato a objetos inanimados merece cautela: se, por um lado, essa aproximação levaria à responsabilidade presumida do proprietário, com excludentes de força maior ou culpa da vítima, por outro, não contemplaria a autonomia efetiva que alguns sistemas de IA podem exibir615. Por outro lado, muitos afirmam que “a IA não é uma coisa” no sentido que o direito civil, ao menos em tradição, contempla. Nessa leitura clássica, o dano deve ser decorrente de uma coisa vista como ente passivo – de modo que a culpa recai sobre falhas de manutenção ou omissões de controle do custodiante. Entretanto, na IA, o dano pode nascer de uma “impulsão” artificial – remetendo-nos a uma esfera mais complexa, em que o comportamento do sistema não depende somente de descuido humano616. Além disso, parte da doutrina sustenta que a configuração da responsabilidade sofre variações conforme a natureza do sistema de IA. Em sistemas fechados, em que o produtor detém maior controle do hardware e do software, sua responsabilidade tende a ser mais acentuada. Já em sistemas abertos, sujeitos a interferências externas, o utilizador ou custodiante fica mais exposto ao dever de vigilância. Logo, o instrutor ou “treinador” da IA também pode ser responsabilizado se suas interações induzirem comportamentos danosos617. A dificuldade está, pois, em determinar quem detém o controle efetivo da coisa. E, se agregarmos à análise as atualizações por parte dos desenvolvedores e o compartilhamento de bases de dados de treinamento e aprendizado em tempo real a que tais tecnologias são submetidas, referida dedução é praticamente inviável. Diante de tais dificuldades, aplicar o conceito de guarda diretamente a um software ou a uma IA suscita uma dupla barreira: a ontológica, pela ausência de controle contínuo e material, e a prática, pela própria autonomia do sistema. Tentar “corporificar” a IA em um robô ou veículo autônomo tampouco resolve o problema, pois o proprietário pode apenas ligá-lo ou desligá-lo, sem necessariamente interferir no comportamento interno – controlado por regras elaboradas por terceiros e executadas em locais remotos. Mesmo ao considerar a distinção, elaborada pelos franceses, entre a guarda da estrutura (bem corpóreo) e a guarda do comportamento (di615 Ibidem, p. 93 616 Costanza, 2019, pp. 1687-1688. 617 D’alfonso, 2022a, pp. 106-107.

Coisa InanimadaGuardaResponsabilidade

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco