O Fato da Coisa e o Fato do Animal como Modelos de Imputação de Responsabilidade em Sistemas de Inteligência Artificial
No contexto da inteligência artificial, observamos que a busca por uma teoria ou regime jurídico ideal envolve a convergência de elementos de diferentes vertentes doutrinárias. A aplicação das teorias do risco à IA frequentemente impõe ajustes e soluções híbridas, sobretudo pela imprevisibilidade de sistemas autônomos e pela dificuldade de individualizar condutas em cadeias produtivas complexas. As reflexões se voltam, neste momento, para dois modelos próprios de responsabilidade objetiva consagrados no Código Civil de 2002 — o "fato da coisa" e o "fato do animal" —, institutos tradicionais que, ainda que não aplicáveis originalmente ao tema, enriquecem o debate sobre a imputação de responsabilidade por danos causados por sistemas de inteligência artificial.
Origens Históricas e Fundamentos Normativos
A responsabilidade civil pelo fato da coisa e a responsabilidade civil pelo fato do animal são temas que, historicamente, encontraram fundamento no Code Napoléon de 1804 — irradiando influência para outros ordenamentos de tradição romano-germânica, como Itália, Portugal e Brasil. O desenvolvimento desses dispositivos se deu não apenas por razões históricas, mas também por motivações de política legislativa: a elaboração de normas que atribuem ao guardião ou proprietário o dever de indenizar, independentemente de culpa ou com culpa presumida, decorre da constatação de que coisas (em especial as dotadas de risco ou defeito) e animais (portadores de instintos naturais imprevisíveis) podem ocasionar danos a terceiros sem que haja intervenção direta do ser humano — e que os terceiros lesados não dispunham de melhor amparo contra esses danos.
O Code Napoléon, em seu art. 1384 (atualmente incorporado ao art. 1242), distinguia a responsabilidade pelo fato da "coisa inanimada" daquela decorrente do fato da "coisa inteligente" — o animal. Enquanto a primeira se limitava a um enunciado sintético, a segunda recebia tratamento mais detalhado no art. 1385 (atual art. 1243), que atribuía ao proprietário do animal a obrigação de indenizar pelos danos causados, "salvo que prove o caso fortuito" (Ruffolo, 2019, p. 1699). Essa distinção refletia a percepção de que animais, por sua natureza, exibem comportamentos imprevisíveis que escapam ao controle permanente do proprietário — percepção que, como se verá, guarda analogia relevante com o comportamento emergente de sistemas de IA.
Fundamentos Principiológicos da Responsabilidade pelo Fato da Coisa e do Animal
Tais teorias, consolidadas ao longo de séculos, partem da noção de que determinados riscos — quando superam a capacidade de fiscalização ou previsão da conduta humana — precisam ser alocados a quem extrai proveito ou detém o poder de comando sobre o bem ou animal. Não se trata, nessa lógica, de punir o guardião pela sua culpa, mas de imputar a ele os custos dos riscos que introduz na sociedade ao exercer seu poder de guarda ou domínio.
No direito brasileiro, esses institutos encontram assento nos arts. 936 a 938 do Código Civil de 2002. O art. 936 prevê que o dono ou detentor do animal responde pelos danos por ele causados, salvo se provar culpa da vítima ou força maior. O art. 937 atribui ao dono do prédio a responsabilidade pela queda de objetos que dele caírem ou forem lançados em lugar indevido. O art. 938 prevê a responsabilidade do habitante do prédio por coisas nele colocadas ou depositadas em lugar de risco. Esses dispositivos, de aplicação eminentemente objetiva — ou, quando muito, de culpa presumida —, traduzem a mesma lógica que perpassa as teorias do risco: a alocação dos custos do risco a quem melhor pode controlá-lo e distribuí-lo socialmente.
A Analogia com a Inteligência Artificial: Premissas e Limites
Há tempos, estudiosos da inteligência artificial e da responsabilidade civil vêm traçando paralelos e explorando possíveis aplicações analógicas, com vistas a fundamentar a responsabilização civil de desenvolvedores e — algo que falta nas teorias do risco-proveito e do risco da atividade — dos usuários finais. As linhas de analogia são várias e distintas, mas, em linhas gerais, a noção de que os princípios orientadores da guarda de coisas e animais podem ser aplicados à IA se lastreia nas seguintes premissas.
Em primeiro lugar, a IA pode ser considerada uma "coisa inanimada" na forma de software — um bem incorpóreo, de titularidade definida, que pode causar danos a terceiros independentemente de qualquer intervenção humana direta. Essa premissa é a mais simples e a menos controversa: o software é um produto, seu criador e seu guardião respondem pelos danos que ele causa. O CDC e o art. 931 do Código Civil já fornecem, nesse ponto, o arcabouço normativo adequado.
Em segundo lugar — e essa é a analogia mais instigante —, a IA exibe elementos de imprevisibilidade que aproximam sua lógica de ação da dos animais, em razão de uma espécie de "comportamento próprio" suscetível de escapar ao controle humano tradicional. Sistemas de machine learning, especialmente aqueles com capacidade de autoaprendizado, modificam seus parâmetros de decisão ao longo do tempo, produzindo resultados que seus criadores não anteciparam e não poderiam necessariamente ter previsto. Essa imprevisibilidade funcional é análoga — embora não idêntica — à imprevisibilidade instintiva dos animais: em ambos os casos, o "guardião" deve responder pelos danos causados por um comportamento que escapou ao seu controle, precisamente porque era inerente à natureza do ente sob sua guarda.
Complexidades na Identificação do "Guardião Efetivo"
Obviamente, a própria natureza e a sofisticação dos algoritmos de IA, bem como a possibilidade de evolução, ingerência e modificações contínuas em servidores remotos, tornam mais complexa a identificação do "guardião efetivo" — aquele que, no momento do dano, detinha o poder de direção, uso e controle sobre o sistema. Nas teorias clássicas da guarda, o guardião é identificado de modo relativamente simples: é o proprietário do animal ou o habitante do prédio de onde caiu o objeto. Na IA, a cadeia de custódia é frequentemente distribuída entre o desenvolvedor do modelo base, o operador que o adapta para uso específico, o integrador que o incorpora ao produto final e o usuário que o implementa no contexto de consumo.
O AI Act (Regulamento UE 2024/1689) endereça parcialmente esse problema ao distinguir entre "fornecedores" (providers) e "implantadores" (deployers) de sistemas de IA, atribuindo obrigações e responsabilidades diferenciadas a cada categoria. O PL 2.338/2023 adota terminologia semelhante ao diferenciar entre "agentes de IA", "fornecedores" e "operadores" (arts. 3º e 4º), reconhecendo que a responsabilidade deve ser distribuída segundo o efetivo poder de controle e intervenção de cada agente sobre o sistema.
A Contribuição dos Modelos de Guarda para o Debate sobre a IA
Parece-nos que a utilidade das teorias do fato da coisa e do fato do animal para o debate sobre a responsabilidade civil em sistemas de IA não reside tanto na sua aplicação direta — que encontra limitações evidentes diante da complexidade dos sistemas contemporâneos —, mas na lógica principiológica que elas encerram. Essa lógica pode ser sintetizada em três proposições.
Primeira: a responsabilidade não pressupõe culpa; basta a relação de guarda ou domínio sobre o ente que causou o dano. Segunda: o guardião responde pelos comportamentos do ente sob sua guarda que escaparam ao seu controle, precisamente porque assumiu o dever de vigilância ao tomar posse do ente. Terceira: o regime de exclusão da responsabilidade é restrito — o guardião somente se exonera mediante prova de caso fortuito, força maior ou culpa exclusiva da vítima, não bastando a simples imprevisibilidade do comportamento danoso.
Essas três proposições, aplicadas ao contexto da IA, sustentam que o desenvolvedor ou operador de um sistema de IA responde pelos danos que ele causa, mesmo quando o comportamento danoso não foi previsto nem desejado, desde que o sistema estivesse sob sua guarda no momento do evento. O PL 2.338/2023 e o AI Act apontam nessa direção ao estabelecer obrigações de monitoramento, supervisão humana e comunicação de incidentes — reconhecendo, implicitamente, que o dever de guarda sobre sistemas de IA é contínuo e exige vigilância ativa.
Referências
- CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
- MIRAGEM, Bruno. Curso de Direito do Consumidor. 8. ed. São Paulo: Revista dos Tribunais, 2020.
- RUFFOLO, Ugo. La Responsabilità per l'Utilizzo dell'Intelligenza Artificiale. In: RUFFOLO, Ugo (Coord.). Intelligenza Artificiale. Milão: Giuffré, 2019.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".