A Responsabilidade pelo Fato do Animal no Direito Brasileiro
O art. 936 do Código Civil de 2002 estabelece que o dono, ou detentor, do animal ressarcirá o dano por este causado, se não provar culpa da vítima ou força maior. Trata-se de hipótese clássica de responsabilidade objetiva — não necessariamente fundada na culpa do guardião, mas na relação de controle que ele mantém sobre o ser que causou o dano. O regime é estruturalmente semelhante ao da responsabilidade pelo fato da coisa inanimada, mas apresenta uma diferença crucial: o animal tem autonomia de comportamento que a coisa inerte não possui.
Essa autonomia comportamental do animal é precisamente o elemento que torna o instituto relevante para o debate sobre a responsabilidade por sistemas de inteligência artificial. Um animal — especialmente um animal doméstico — age de forma parcialmente previsível, mas possui instintos, reações e comportamentos que podem surpreender mesmo o guardião mais diligente. O guardião sabe que o animal pode agir de forma inesperada; aceita esse risco ao mantê-lo sob seu controle; e responde pelos danos resultantes de comportamentos que, embora imprevistos no caso concreto, decorrem da natureza do ser que escolheu guardar.
A analogia com a inteligência artificial é imediata: os sistemas de IA baseados em aprendizado de máquina também podem exibir comportamentos emergentes, não totalmente previstos pelos seus desenvolvedores ou operadores. O guardião da IA — seja o desenvolvedor, o operador ou o usuário — sabe que o sistema pode agir de formas inesperadas; aceita esse risco ao implantar e utilizar a tecnologia; e deveria responder pelos danos resultantes de comportamentos que, embora imprevistos, decorrem da natureza dos sistemas autônomos que escolheu utilizar.
O Direito Comparado: Analogia Animal-IA
No direito italiano, Ugo Ruffolo sustenta que o art. 2052 do Codice Civile — que regula a responsabilidade por animais — funciona como espelho normativo do art. 2051, que regula a responsabilidade por coisas, podendo abranger a condução de uma IA de autoaprendizado (self-learning). O treinador ou desenvolvedor, portanto, responderia por danos causados pela "inteligência" que ele próprio ajudou a desenvolver — inclusive se a IA "fugir" ou se comportar de forma inesperada, assim como o dono do animal responde pela fuga ou pelo ataque imprevisível de sua criação.
Em Portugal, Henrique Sousa Antunes sustenta que a responsabilidade pela guarda de animais é configurável em relação a sistemas de IA autônomos, desde que se reconheça que a autonomia adaptativa da IA aproxima-a, funcionalmente, da autonomia comportamental dos animais. Nessa leitura, o desenvolvedor ou operador de um sistema de IA autônomo estaria, de certa forma, na posição do criador ou adestrador de um animal: moldou seu comportamento, estabeleceu seus objetivos e padrões de resposta, e deve responder pelas consequências do comportamento que ajudou a formar.
Esse diálogo entre institutos sugere que a responsabilidade por IA não representa propriamente uma ruptura conceitual total com a tradição jurídica, mas sim um sofisticado — ou, para alguns, exagerado — prolongamento das premissas tradicionais da guarda, onde se combinam elementos de controle, aferição de risco e exame das excludentes de responsabilidade: força maior, culpa exclusiva da vítima e fato de terceiro.
Autonomia, Previsibilidade e os Limites da Analogia
A analogia entre animais e sistemas de IA tem apelo intuitivo, mas não deve ser levada ao extremo sem que se considerem suas limitações. Um animal age por instinto e impulso; seus comportamentos, ainda que imprevisíveis no caso concreto, seguem padrões relativamente estáveis ditados por sua biologia. Um sistema de IA, por outro lado, age a partir de regras, pesos e parâmetros que podem ser alterados remotamente, por agentes que nunca tiveram contato físico com o sistema — e cujos efeitos sobre o comportamento do sistema podem ser impossíveis de prever com antecedência.
Além disso, um animal existe em um único lugar físico e em um único momento temporal; um sistema de IA pode ser replicado instantaneamente, executado simultaneamente em múltiplos contextos e atualizado de forma contínua por seu desenvolvedor. Essa multiplicidade e essa fluidez tornam a relação de guarda muito mais difusa e, em muitos casos, praticamente impossível de atribuir a um único agente com a clareza que o regime de responsabilidade pelo fato do animal pressupõe.
É inegável, contudo, que a IA introduz obstáculos práticos além da própria dificuldade de enquadramento conceitual: sua intangibilidade, a possibilidade de hospedagem e atualização remotas, a multiplicidade de atores e a autonomia adaptativa podem, a depender dos recortes usados na subsunção, terminar por tornar irreconhecíveis os conceitos de guarda — seja de coisas ou de animais. Em alguns casos, a solução talvez resida em regimes mistos — responsabilidade por produto e atividade perigosa, combinados com a figura do "fabricante" ou do "programador" principal.
Excludentes e Responsabilidade Compartilhada
No regime do art. 936 do Código Civil, as excludentes admitidas são a culpa da vítima e a força maior. Essas excludentes têm correspondência no campo da responsabilidade por sistemas de IA, mas com matizes importantes. A "culpa da vítima" equivaleria, no contexto da IA, ao uso do sistema de forma manifestamente inadequada ou contrária às orientações do fornecedor — hipótese em que o operador ou usuário assume os riscos do comportamento resultante. A "força maior" equivaleria a eventos externos absolutamente imprevisíveis e irresistíveis que levaram o sistema a agir de forma danosa — como ataques cibernéticos sofisticados que subverteram o comportamento do sistema sem qualquer possibilidade razoável de prevenção.
Em ambos os casos, porém, o ônus de demonstrar a excludente recai sobre o guardião — e não sobre a vítima. Essa distribuição do ônus probatório é um dos aspectos mais relevantes do regime objetivo de responsabilidade: a vítima precisa apenas demonstrar o dano e o nexo causal com o sistema de IA; o guardião é quem deve demonstrar a ausência de responsabilidade. Essa lógica é coerente com os princípios gerais da responsabilidade objetiva no direito brasileiro e com as tendências regulatórias emergentes, tanto no Brasil quanto na União Europeia.
Perspectivas: Adaptação ou Criação?
A questão que se coloca ao final desse percurso analógico é se o direito deve adaptar os institutos existentes — como a responsabilidade pelo fato do animal — para abarcar os sistemas de IA, ou se deve criar um regime inteiramente novo. A experiência comparada sugere que ambas as abordagens são possíveis e, em certa medida, complementares.
No curto prazo, a adaptação dos institutos existentes é inevitável: os tribunais precisarão decidir casos concretos envolvendo danos causados por sistemas de IA antes que qualquer legislação específica seja aprovada e entre em vigor. Nesse contexto, a analogia com a responsabilidade pelo fato do animal oferece um ponto de apoio hermenêutico legítimo — desde que aplicada com consciência de suas limitações e com abertura para as adaptações que a singularidade da IA exige.
No médio e longo prazo, contudo, é provável que se consolide um regime específico de responsabilidade civil por danos causados por sistemas de inteligência artificial — seja por força de legislação nacional como o PL 2.338/23, seja por influência do direito europeu, seja pela evolução da própria jurisprudência. Quando esse regime específico emergir, as analogias com a responsabilidade pelo fato do animal e pelo fato da coisa inanimada continuarão sendo úteis como substrato interpretativo — mas deixarão de ser o principal instrumento de imputação de responsabilidade. Por ora, as teorias do risco e a teoria da guarda — tanto de coisas quanto de animais — seguem fornecendo substrato teórico para a responsabilização objetiva, ainda que exijam grandes releituras e flexibilizações diante da disrupção tecnológica representada pela IA.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".