O Conceito de Guarda e Seu Alcance Jurídico
É importante ressaltar que o conceito de guarda não se resume à mera posse física imediata. Ele implica poder de comando e direção, caracterizado por uma dimensão intelectual que vai além da detenção material da coisa. Aguiar Dias sublinha que "a coisa não pode causar dano por si só, exigindo uma causa externa ou um fato humano que a movimente para o evento danoso". Assim, a teoria da guarda justifica a responsabilidade pelo fato da coisa quando o dano ocorre sem intervenção direta do dono ou de seu preposto, evitando-se que a mera titularidade formal sirva como critério de imputação de responsabilidade.
Essa dimensão intelectual da guarda foi desenvolvida, sobretudo, pela jurisprudência francesa, que distinguiu entre a guarda da estrutura da coisa — atribuída ao fabricante ou ao detentor do projeto — e a guarda do comportamento da coisa — conferida a quem a utiliza efetivamente e a quem comanda suas operações cotidianas. Referida distinção revela-se particularmente relevante quando se trata de coisas tecnologicamente complexas, cujo comportamento depende tanto de fatores intrínsecos ao seu design quanto de decisões operacionais de seus usuários.
No Brasil, a doutrina de Pablo Stolze Gagliano e Rodolfo Pamplona Filho acolhe esse entendimento ao afirmar que a guarda pressupõe o poder de uso, direção e controle sobre a coisa, com capacidade de impedir que ela cause danos. Parece-nos correto esse posicionamento, na medida em que ele projeta a responsabilidade sobre quem efetivamente se beneficia da coisa e quem tem condições reais de evitar o dano — critério mais justo do que a mera titularidade registral ou formal.
A Transferência de Controle e a Exclusão de Responsabilidade
Em relação à titularidade ou não do bem, vários exemplos práticos mostram como a transferência de controle efetivo pode afastar a responsabilidade do titular formal. Em casos de alienação de veículos, por exemplo, o antigo proprietário não responde por danos causados após a entrega da posse, mesmo que o registro no DETRAN não tenha sido atualizado, desde que comprove a alienação. A jurisprudência do Superior Tribunal de Justiça (STJ) consolidou orientação nesse sentido, reconhecendo que o fato jurídico relevante é a transferência efetiva do poder de comando, não a mera regularização registral.
A exclusão de responsabilidade em situações de perda involuntária de controle, como furtos ou roubos, também encontra ampla aceitação. Segundo Pablo Stolze Gagliano e Rodolfo Pamplona Filho, consumado o crime, o proprietário perde o poder de comando, deixando de ser guardião. Contudo, sustentam os autores que em casos de negligência grave — por exemplo, deixar um veículo destrancado em local de risco — a responsabilidade permanece, pois a perda da guarda resulta da própria conduta descuidada do proprietário.
Essa distinção é axiologicamente consistente: não seria razoável imputar ao proprietário responsabilidade por fatos que escapam inteiramente ao seu controle, como o furto praticado por terceiro sem qualquer concorrência de sua negligência. O mesmo raciocínio se aplica à hipótese de caso fortuito externo — aquele que é absolutamente alheio à atividade do guardião —, que funciona como excludente do nexo causal e, portanto, da obrigação de indenizar.
Inteligência Artificial e o Desafio da Guarda Tecnológica
Nesse panorama, ganha relevo a discussão sobre a responsabilidade pelo fato de coisas inanimadas e sua eventual projeção na inteligência artificial. A autonomia decisória da IA é, particularmente, uma complicadora nesse exercício subsuntivo — especialmente quando o software continua a se aprimorar e se modificar ao longo do tempo, rompendo, em parte, com a premissa de controle efetivo do dono ou guardião.
Segundo Eugênio Facchini Neto e Fábio Siebeneichler de Andrade, em que pese a "autonomia", sistemas de IA são juridicamente vistos como "coisas" — suscitando responsabilidade objetiva ou baseada em culpa presumida de seus proprietários ou possuidores. Ainda assim, segundo os autores, o nível de autonomia e a capacidade de auto-modificação dessas tecnologias podem dificultar a aplicação direta do regime tradicional de guarda, exigindo adaptações ou novos instrumentos normativos.
O PL 2338/2023, que tramita no Senado Federal, representa a principal iniciativa brasileira para regulamentar a inteligência artificial. O projeto estabelece princípios como transparência, explicabilidade, responsabilização e não discriminação, prevendo regime de responsabilidade civil diferenciado conforme o nível de risco do sistema de IA. Sistemas de alto risco — como aqueles utilizados em saúde, segurança pública e concessão de crédito — sujeitam-se a obrigações mais rigorosas de conformidade, o que repercute diretamente na definição do responsável pelos danos eventualmente causados.
O AI Act Europeu e os Reflexos no Ordenamento Brasileiro
No plano comparado, o AI Act europeu (Regulamento UE 2024/1689) estabeleceu um marco regulatório abrangente para sistemas de inteligência artificial, classificando-os por níveis de risco e impondo obrigações específicas a fornecedores e operadores. A distinção entre "fornecedor" — aquele que desenvolve o sistema — e "operador" — aquele que o implementa em contexto específico — guarda analogia com a distinção francesa entre guardião da estrutura e guardião do comportamento da coisa.
Parece-nos que essa analogia, embora imperfeita, oferece um ponto de partida útil para a interpretação do direito brasileiro na ausência de regulamentação específica. Se o guardião do comportamento responde pelos danos decorrentes do uso da coisa, o operador de um sistema de IA que o implementa em contexto determinado deveria, em princípio, responder pelos danos causados por decisões autônomas desse sistema naquele contexto. O desenvolvedor, por sua vez, responderia pelos defeitos intrínsecos de concepção ou treinamento do sistema — analogamente ao guardião da estrutura.
Perspectivas e Limites da Analogia
Verifica-se, contudo, que a analogia entre coisas inanimadas e sistemas de IA encontra limites claros. A coisa inanimada tradicional — um veículo, uma máquina industrial, uma estrutura predial — tem comportamento determinístico ou probabilístico bem delimitado, ao passo que sistemas de IA com aprendizado profundo podem desenvolver comportamentos emergentes imprevisíveis, não inteiramente redutíveis ao controle do guardião.
Essa imprevisibilidade estrutural é o principal argumento contrário à aplicação irrestrita do regime de guarda à IA. Se o guardião não pode, nem mesmo em tese, antecipar todos os comportamentos do sistema, como se pode afirmar que detém o poder de comando que fundamenta a responsabilidade objetiva? A resposta a essa questão é uma das mais relevantes do debate doutrinário contemporâneo e ainda não encontrou solução pacífica nem na doutrina nacional nem na comparada.
De todo modo, parece-nos que, enquanto não houver regime específico, a responsabilidade objetiva fundada na teoria do risco — seja pelo fato da coisa, seja pela cláusula geral do art. 927, parágrafo único, do Código Civil — constitui o instrumento mais adequado para proteger as vítimas de danos causados por sistemas de IA, sem prejuízo do desenvolvimento de marcos regulatórios que reflitam as especificidades dessas tecnologias.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".