Os Limites da Analogia entre Animal e Inteligência Artificial
A comparação entre inteligência artificial e animais encontra limites desde logo, para muitos intransponíveis: um animal possui instintos inatos, ao passo que uma IA é fruto de programação — embora tenha capacidade para a imprevisibilidade. O guardião do animal tem meios físicos de contê-lo, mas nem sempre o operador da IA consegue "intervir" quando o sistema adquire novas camadas de inteligência ou trafega online em servidores remotos. Essa assimetria remete para a distinção que os franceses criaram sobre a guarda da "estrutura da coisa" e a guarda do "comportamento da coisa" — distinção que, transportada para o universo da IA, sugere a diferença entre o controle sobre o design do sistema e o controle sobre suas operações em tempo real.
Ainda assim, a teoria da guarda de animais inspirou a construção de teorias mais amplas de responsabilidade objetiva, mirando a proteção de terceiros contra comportamentos imprevisíveis. No Brasil, há quem sustente que o regime do art. 936, adaptado, poderia alcançar a IA, justificando a imputação de responsabilidade objetiva ao detentor — usuário, desenvolvedor ou proprietário — desde que, de fato, haja algum grau de controle ou proveito econômico. Parece-nos que essa posição é defensável como solução transitória, na ausência de regulamentação específica, mas não pode ser vista como resposta definitiva.
A Doutrina Comparada e as Propostas Analógicas
Monteiro Filho e Rosenvald, por exemplo, sugerem que as inteligências artificiais "essencialmente selvagens" equivaleriam a animais ferozes, ao passo que as IA "domesticadas" seriam aquelas sob controle efetivo do detentor. Nesse paralelo, contudo, os autores questionam como aferir se uma IA continua "adequadamente domesticada", dado que seus algoritmos se expandem e evoluem continuamente — sem que o guardião possa, necessariamente, acompanhar ou compreender integralmente esse processo.
Da mesma forma, Tepedino e Silva observam que a imprevisibilidade do animal guarda semelhança estrutural com a tomada de decisão de uma IA, justificando uma responsabilidade objetiva análoga ao art. 936 do Código Civil. No entanto, os autores reconhecem que a analogia deve ser operada com cautela, pois a complexidade técnica dos sistemas de IA modernos introduz variáveis que o regime clássico da guarda não foi desenhado para absorver.
Essa visão encontra eco também em outros ordenamentos. No direito português, Antunes defende que, na ausência da personificação e da atribuição das inerentes capacidades jurídicas, um regime equiparável ao dos animais seria o mais adequado para tratar dos danos causados por IA. A justificativa é pragmática: não há, ainda, consensus suficiente para atribuir personalidade jurídica à IA, e os regimes de responsabilidade existentes devem ser adaptados para cobrir o vazio normativo, ao invés de aguardar o amadurecimento de soluções mais radicais.
O AI Act e o PL 2338/2023: Respostas Normativas ao Desafio
O AI Act europeu (Regulamento UE 2024/1689) optou por uma abordagem graduada de responsabilidade, baseada no nível de risco do sistema de IA. Sistemas classificados como de "alto risco" — incluindo aqueles utilizados em infraestrutura crítica, gestão de processos judiciais, recrutamento e seleção, concessão de crédito e aplicações de saúde — sujeitam-se a obrigações rigorosas de conformidade, rastreabilidade, transparência e supervisão humana. A responsabilidade pelos danos causados por esses sistemas é, nesses casos, mais facilmente imputável ao fornecedor ou ao operador, conforme a origem do defeito ou da falha.
O PL 2338/2023, em tramitação no Senado Federal, adota abordagem similar, estabelecendo um regime de responsabilidade que combina responsabilidade objetiva para sistemas de alto risco com responsabilidade subjetiva para os demais. O projeto prevê ainda a criação de um sistema de auditoria e certificação de conformidade, bem como a designação de um "responsável pela conformidade" em organizações que desenvolvam ou operem sistemas de IA de impacto relevante. Essas disposições revelam uma opção por um modelo regulatório preventivo, orientado para a gestão dos riscos antes que os danos se concretizem.
Verifica-se, portanto, uma convergência entre os modelos brasileiro e europeu no sentido de estabelecer regimes de responsabilidade diferenciados conforme o risco, em lugar de simplesmente estender a analogia com o fato do animal ou da coisa inanimada. Essa convergência é positiva, pois facilita a harmonização normativa em um setor caracterizado por cadeias de valor globais e impactos transfronteiriços.
Perspectivas para o Direito Brasileiro
As perspectivas para o direito brasileiro em matéria de responsabilidade por danos causados por IA são, ao mesmo tempo, desafiadoras e promissoras. Desafiadoras porque os sistemas de IA de geração mais recente — como os modelos de linguagem de grande escala (large language models) e os sistemas de tomada de decisão autônoma — levam ao limite os pressupostos dos regimes clássicos de responsabilidade civil. Promissoras porque o debate doutrinário e legislativo brasileiro está em estágio avançado, beneficiando-se da experiência europeia sem estar vinculado a ela.
Parece-nos que a chave para o sucesso do regime brasileiro de responsabilidade por IA reside na combinação de três elementos: (i) uma cláusula geral de responsabilidade objetiva para sistemas de alto risco, fundada no art. 927, parágrafo único, do Código Civil e complementada pelo PL 2338/2023; (ii) regras específicas de identificação do responsável, que distingam claramente o desenvolvedor, o operador e o usuário final, atribuindo a cada um as obrigações e responsabilidades correspondentes ao seu papel na cadeia de valor; e (iii) mecanismos de reparação coletiva e fondos de compensação para danos causados por sistemas cuja titularidade ou controle não seja facilmente identificável.
Esses três elementos dialogam com os institutos tradicionais da responsabilidade pelo fato do animal e da coisa inanimada, mas vão além deles, reconhecendo a singularidade da inteligência artificial como fenômeno tecnológico sem precedente histórico direto. É nessa tensão entre continuidade e ruptura que reside o maior desafio para a doutrina civilista contemporânea.
Conclusão Parcial
Conclui-se, portanto, que a responsabilidade pelo fato do animal oferece um referencial teórico valioso — mas insuficiente por si só — para o tratamento jurídico dos danos causados por inteligência artificial. A imprevisibilidade comportamental, a lógica do risco e a figura do guardião são contribuições que transcendem o campo específico dos animais e iluminam a discussão sobre IA. Os limites da analogia, contudo, apontam para a necessidade de instrumentos normativos específicos, que o legislador brasileiro e o europeu já iniciaram a construir, e que a doutrina deve contribuir para aperfeiçoar com rigor técnico e sensibilidade aos valores que fundamentam o direito civil contemporâneo.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".