Voltar ao Blog
ImputaçãoCapítulo 3

Critérios de Imputação de Responsabilidade pela IA: Aplicações e Implicações

Análise dos critérios de imputação de responsabilidade civil pela IA: risco do empreendimento, fato da coisa e ato de terceiro no Código Civil e PL 2338/23.

Alessandro Lavorante 4 de fevereiro de 2025 7 min de leitura

O Risco do Empreendimento e a Responsabilidade Objetiva

Aprofundando o tema, adentra-se o risco do empreendimento, como previsto no art. 931 do Código Civil, que impõe responsabilidade objetiva aos empresários pelos danos dos produtos que colocam em circulação. Trata-se de regime que prescinde da demonstração de culpa, bastando a comprovação do dano e do nexo causal entre a atividade empresarial e o prejuízo experimentado pela vítima. Parece-nos que essa construção normativa assume relevância particular quando se trata de sistemas de inteligência artificial colocados no mercado, porquanto os riscos inerentes a tais tecnologias muitas vezes transcendem a capacidade de previsão individual de qualquer agente.

Nesse contexto, faz-se a distinção fundamental entre o fato do produto e o defeito do produto. O fato do produto corresponde ao dano causado simplesmente pela inserção do bem no mercado, independentemente de qualquer anomalia intrínseca; o defeito do produto, por sua vez, pressupõe falhas de concepção, fabricação ou informação que tornem o bem inadequado ao fim a que se destina ou perigoso ao consumidor. O Código de Defesa do Consumidor, em seus arts. 12 a 14, consagra essa distinção e a aplica com rigor ao fornecedor, fabricante e importador.

O Risco do Desenvolvimento e a Autonomia Algorítmica

Verificou-se, ademais, que as controvérsias em torno do risco do desenvolvimento adquirem dimensão singular no domínio da inteligência artificial. Entende-se por risco do desenvolvimento aquele que surge em razão de danos antes incognoscíveis ou cientificamente imprevisíveis no momento de lançamento do produto. Em setores tradicionais — como o farmacêutico —, já se discute extensamente se tal risco deve ser suportado pelo fabricante ou pela coletividade. No caso da IA, todavia, a questão se complexifica, pois, em razão dos mecanismos de autoaprendizado — machine learning e deep learning —, o comportamento do software pode alterar-se substancialmente ao longo do tempo, potencializando riscos que não eram mensuráveis na ocasião do lançamento original.

Parece-nos que a doutrina ainda não chegou a consenso sobre se o risco do desenvolvimento deve, no âmbito da IA, ser tratado como causa excludente de responsabilidade ou se a natureza evolutiva dos algoritmos converte o risco em previsível — e, portanto, imputável ao desenvolvedor ou ao operador. O PL 2.338/2023, em sua redação atual, não resolve expressamente essa tensão, limitando-se a estabelecer responsabilidade objetiva para sistemas de alto risco e excessivo risco (art. 27, § 1º), sem abordar a hipótese de comportamentos emergentes e não programados.

A Responsabilidade pelo Fato da Coisa

A análise avança para a responsabilidade pelo fato da coisa, tradicionalmente vinculada à "guarda" de objetos. No direito brasileiro e comparado, consolidou-se o entendimento de que o guardião de uma coisa — não necessariamente perigosa em si mesma — responde pelos danos a ela associados, ainda que sem culpa comprovada. O guardião, nessa acepção, é aquele que detém poder de uso, direção e controle sobre o objeto, independentemente de ser o proprietário formal.

Ao transpor essa teoria para a inteligência artificial, explora-se a tensão gerada pela autonomia dos algoritmos. Verificou-se que, em muitos sistemas de IA avançados, o controle humano efetivo sobre o comportamento do algoritmo é limitado ou mesmo ilusório — especialmente em modelos de redes neurais profundas cujos processos decisórios permanecem opacos, fenômeno denominado black box. Surge, portanto, o questionamento sobre a adequação das fórmulas tradicionais baseadas na guarda material de objetos para regular entidades cujo comportamento não pode ser antecipado, controlado ou revertido com a mesma facilidade que se exerce sobre uma coisa inanimada.

Parte da doutrina sustenta que, mesmo diante dessa dificuldade, a responsabilidade pelo fato da coisa deve ser mantida como referencial interpretativo, adaptando-se o conceito de "guarda" para abarcar não apenas o controle físico, mas também o controle lógico e operacional sobre o sistema de IA. Outros autores, contudo, reputam insuficiente essa transposição analógica, defendendo a criação de regimes específicos que reconheçam a singularidade dos danos causados por sistemas autônomos.

A Analogia com os Danos Causados por Animais

Em paralelo, expõe-se o regime jurídico referente aos danos causados por animais, previsto no art. 936 do Código Civil, em que a responsabilidade do dono ou detentor se dá de modo objetivo. A norma estabelece que o dono ou detentor do animal ressarcirá o dano causado por este, salvo se provar a culpa da vítima ou força maior. Parte da doutrina tem traçado analogias entre a imprevisibilidade do comportamento animal e a IA de machine learning, dada a capacidade de ambos de agirem sem controle humano absoluto.

A analogia apresenta pontos de contato relevantes: assim como o animal pode surpreender o seu dono com comportamentos inesperados, o sistema de IA pode gerar resultados imprevistos que o desenvolvedor ou operador não antecipou nem poderia facilmente evitar. Entretanto, a analogia encontra limites precisos. Os animais possuem natureza biológica e instintos que, ao menos em parte, são previsíveis para quem os conhece; os sistemas de IA, por sua vez, são construídos artificialmente e seus comportamentos emergentes decorrem de interações matemáticas de alta complexidade. Parece-nos que a analogia, portanto, possui valor heurístico, mas não pode ser elevada à condição de fundamento normativo autônomo sem os devidos temperamentos.

A Responsabilidade pelo Ato de Terceiro

Por fim, o capítulo abre espaço para a responsabilidade civil derivada de ato de terceiro, aprofundando reflexões sobre as relações de pais e filhos, tutores e curatelados, empregadores e empregados. É nessa seara que se encaixam as discussões sobre a responsabilidade do empregador pelos danos causados pelo empregado, nos termos dos arts. 932, III, e 933 do Código Civil — que prescinde de prova de culpa in vigilando ou in eligendo — e as relações daí elaboradas, doutrinariamente, em relação aos sistemas de IA.

Discute-se se, por analogia, o "proprietário" ou usuário final de uma IA altamente autônoma poderia ser comparado a um responsável legal por "incapaz", considerando a imprevisibilidade do agente e a necessidade de supervisão contínua. A figura do responsável por incapaz pressupõe a incapacidade de autodeterminação plena do tutelado; na IA, a ausência de vontade jurídica própria e a dependência de parâmetros programados aproxima, em certa medida, os dois regimes. Contudo, verificou-se que a analogia não é perfeita: a IA não possui interesses próprios a serem tutelados, ao contrário do incapaz, e a atribuição de responsabilidade ao "responsável" pela IA deve decorrer de critérios objetivos relacionados ao controle e ao benefício econômico da atividade.

Perspectivas Regulatórias: PL 2.338/2023 e AI Act

O exame comparativo entre o PL 2.338/2023 e o AI Act europeu (Regulamento UE 2024/1689) revela que ambos os instrumentos optaram por um modelo de responsabilidade graduado pelo nível de risco dos sistemas. O AI Act classifica os sistemas em quatro categorias — risco inaceitável, alto risco, risco limitado e risco mínimo —, impondo obrigações progressivamente mais severas conforme se eleva o potencial de dano. O PL 2.338/2023 adota estrutura semelhante, distinguindo sistemas de risco excessivo, alto risco e demais sistemas.

Parece-nos que essa abordagem representa avanço significativo em relação à aplicação irrefletida das categorias tradicionais do Código Civil, pois reconhece que a responsabilidade pela IA deve ser calibrada em função das características técnicas e do contexto de uso de cada sistema. Não obstante, remanesce o desafio de operacionalizar tais distinções em juízo, especialmente quando o sistema de IA em questão transitar entre categorias ao longo do tempo, em razão de atualizações ou de aprendizado contínuo.

A articulação entre os critérios do Código Civil — risco do empreendimento, fato da coisa, ato de terceiro — e os regimes específicos propostos pelo PL 2.338/2023 constitui, portanto, o núcleo dos desafios que se colocam ao operador do direito no cenário atual. A resolução desses desafios exigirá não apenas hermenêutica criativa, mas também disposição do legislador para construir marcos normativos que efetivamente tutelem as vítimas de danos causados por sistemas de inteligência artificial, sem inviabilizar a inovação tecnológica.

ImputaçãoResponsabilidadeCritérios

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.