da vítima e força maior no referido artigo confirma a transição para um regime de responsabilidade objetiva por fato de animal, abandonando o modelo anterior baseado na presunção de culpa – refletindo uma evolução significativa na abordagem do tema624. A teoria da guarda do animal, portanto, baseia-se na constatação de que o animal possui inteligência natural, porém relativamente imprevisível, não estando integralmente sob o domínio do homem. Razões de política legislativa levaram a adoções variadas: no Brasil, vigora a responsabilidade objetiva, enquanto, em certos contextos históricos, cogitou-se culpa presumida (culpa in custodiendo). Em toda hipótese, segundo Flávio Tartuce, a essência também reside na ideia de risco: quem aufere vantagens ao manter o animal (seja um cão de guarda, seja um tigre selvagem para exibição) assume o ônus de indenizar eventuais danos625. Como vimos quando tratamos do risco-proveito (3.2.3), o problema dessa teoria é a subjetividade e imprecisão que a definição de “proveito” traz. Entretanto, segundo o próprio Tartuce, sob essa ótica, a criação ou guarda de animais pode constituir atividade de risco, enquadrando-se no parágrafo único do art. 927 do Código Civil626. Exemplificam-se situações em que a periculosidade é evidente, como o adestramento de cães violentos ou a manutenção de apiários, em que a guarda do bem ou animal exige cuidados extremos para evitar danos a terceiros. Colocadas brevemente as bases teóricas, e voltando ao nosso foco central, a doutrina vem explorando se a IA – sobretudo a dotada de machine learning profundo – poderia se encaixar nesses regimes de custódia627. Nesse ponto, pode-se notar, nos últimos anos, que diversos autores da civilística moderna que decidiram abordar o tema da inteligência artificial se dedicaram a comentar, ao menos em notas de rodapé, sobre as analogias que podem ser feitas entre o tratamento jurídico conferido aos donos ou guardiões de animas e os usuários e desenvolvedores de sistemas de inteligência artificial. O “impulso” se deve, principalmente, como já adiantamos, pela dificuldade de prever reações ou “comportamentos” que esses sistemas podem desenvolver. 624 Simão, 2006, p. 353. 625 Tartuce, 2011, p. 74. 626 Idem. 627 Facchini Neto e Andrade, 2023, p. 98.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".