Voltar ao Blog
ImputaçãoCapítulo 3

A Responsabilidade pelos Danos Causados pelo Incapaz: Perspectivas e Desafios

Perspectivas e desafios da responsabilidade civil do incapaz frente à IA: analogia com art. 2047 italiano, PL 2338/23, AI Act e críticas doutrinárias à equiparação de IA a incapaz.

Alessandro Lavorante 3 de agosto de 2025 7 min de leitura

A Analogia com o Art. 2047 do Codice Civile: Fundamentos e Limites

A proposta de enquadrar a inteligência artificial no regime de responsabilidade civil previsto para pessoas não imputáveis — especialmente a partir do art. 2047 do Codice Civile italiano — representa uma das tentativas mais ousadas e, ao mesmo tempo, mais contestadas da doutrina comparada. O dispositivo italiano estabelece que, quando o dano for causado por pessoa incapaz de entender ou de querer, a indenização será devida por quem tem o dever de vigilância sobre o incapaz; e que, se a vítima não conseguir obter reparação dessa pessoa, o juiz poderá condenar o próprio causador do dano ao pagamento de indenização equitativa, consideradas as condições econômicas das partes.

Parece-nos que a sedução dessa analogia reside na semelhança funcional entre o incapaz e o sistema de IA: ambos, em determinados contextos, atuam de forma que escapa ao controle imediato de quem deveria supervisioná-los; ambos carecem de imputabilidade subjetiva direta; e ambos geram a questão de saber quem, em última instância, deve responder pelos danos por eles causados. A noção de "dependência", central na teoria do risco-dependência desenvolvida por José Fernando Simão no contexto brasileiro, encontra correspondência na relação entre o operador de IA e o sistema que ele treina, configura e implanta.

Há quem sugira, nesse sentido, que o proprietário ou usuário final do sistema de IA poderia ser tratado analogamente a um responsável jurídico por menor ou incapaz: assim como o pai responde pelos atos do filho menor, o operador responderia pelos atos do algoritmo autônomo. Adicionalmente, assim como os pais se exoneram de responsabilidade quando os filhos atingem a maioridade, caberia, dentro dessa ótica, verificar o grau de independência efetivamente alcançado pela IA antes de se definir a extensão dos deveres de indenizar.

Críticas à Equiparação da IA ao Incapaz

Contudo, essa analogia enfrenta objeções substanciais, que a tornam, no mínimo, problemática como fundamento autônomo de responsabilidade. A limitação algorítmica, a ausência de consciência e a dependência de instruções programadas afastam a possibilidade de se atribuir aos sistemas de IA "fragilidade mental" ou condição "infantil" no sentido jurídico do termo. Para Costanza, isso acabaria em uma contradição interna: confere-se uma dimensão quase humana à IA, mas, ao mesmo tempo, recusa-se qualquer imputação direta de responsabilidade ao sistema.

Verifica-se que a incapacidade civil, no ordenamento brasileiro, é uma condição jurídica reconhecida exclusivamente a pessoas naturais, determinada em função de critérios biopsicológicos (menoridade, deficiência mental, embriaguez habitual, prodigalidade) que pressupõem a existência de uma subjetividade — ainda que limitada — capaz de experimentar direitos e obrigações. A IA, por sua vez, é um artefato técnico destituído de personalidade jurídica, sem patrimônio próprio, sem interesses tuteláveis e sem capacidade de sofrer danos existenciais. A equiparação, portanto, não é apenas tecnicamente incorreta: é potencialmente prejudicial ao desenvolvimento de um regime de responsabilidade coerente com a natureza dos sistemas artificiais.

Ademais, a analogia com a responsabilidade por incapaz pressupõe que o responsável legal tenha a possibilidade concreta de vigiar e controlar os atos do "dependente". No caso de sistemas de IA de alta complexidade — especialmente os baseados em aprendizado profundo (deep learning) —, o grau de opacidade algorítmica pode ser tal que nem mesmo o desenvolvedor ou o operador seja capaz de antecipar ou controlar os resultados do sistema. Parece-nos que essa assimetria informacional torna inadequado o modelo de vigilância-responsabilidade próprio do regime do incapaz, exigindo soluções normativas específicas para os danos causados por sistemas autônomos.

O AI Act Europeu e o PL 2.338/2023: Uma Resposta Regulatória Específica

O Regulamento (UE) 2024/1689 — AI Act —, aprovado pelo Parlamento Europeu e em vigor desde agosto de 2024, representa a primeira tentativa de regulação abrangente da inteligência artificial no mundo. O AI Act classifica os sistemas de IA por nível de risco — inaceitável, alto, limitado e mínimo — e estabelece obrigações proporcionais para desenvolvedores e operadores. Para os sistemas de alto risco, o regulamento prevê, entre outras exigências, sistemas de gestão de riscos (art. 9º), governança de dados (art. 10º), supervisão humana (art. 14º) e requisitos de exatidão e cibersegurança (art. 15º).

No Brasil, o PL 2.338/2023, em tramitação no Senado Federal, adota abordagem similar, estabelecendo, em seu art. 4º, os princípios que devem orientar o desenvolvimento e a aplicação de sistemas de IA, entre os quais a proteção dos direitos fundamentais, a não discriminação, a transparência e a responsabilidade. O art. 28 do PL prevê a responsabilidade objetiva dos agentes de IA pelos danos causados a usuários e terceiros, sem exigir a prova de culpa — o que representa um distanciamento explícito do modelo de imputação subjetiva e uma aproximação ao regime objetivo do Código Civil.

Parece-nos que essa convergência regulatória entre o AI Act e o PL 2.338/2023 demonstra que o legislador — nacional e internacional — optou por não recorrer à analogia com o incapaz como fundamento do regime de responsabilidade pela IA, preferindo construir um regime específico, baseado na classificação de risco e na responsabilidade objetiva dos agentes que se beneficiam economicamente dos sistemas autônomos.

Perspectivas Dialéticas: Entre a Analogia e a Autonomia Normativa

O debate sobre a possibilidade de aplicação analógica do regime do incapaz à IA revela, em última análise, uma tensão mais profunda: entre a tentação de resolver problemas novos com instrumentos velhos — o que garante previsibilidade e coerência sistemática — e a necessidade de reconhecer que determinados fenômenos tecnológicos exigem soluções normativas específicas.

Verifica-se que a analogia com o incapaz, embora teoricamente instigante, apresenta limitações práticas que a tornam insuficiente como regime principal de responsabilidade pela IA. Sua utilidade reside, antes, em fornecer insights sobre a distribuição de deveres de vigilância e sobre a lógica da subsidiariedade — elementos que podem ser incorporados, de forma adaptada, em um regime específico para sistemas autônomos.

A doutrina mais avançada, representada por autores como Mafalda Miranda Barbosa, Felipe Braga Netto e Carlos Edison do Rêgo Monteiro Filho, tende a reconhecer que o regime de responsabilidade pela IA deve ser construído a partir de múltiplos pilares: a responsabilidade objetiva baseada no risco da atividade, os deveres específicos de conformidade normativa (compliance) derivados de instrumentos como o AI Act e o PL 2.338/2023, e a responsabilidade solidária dos agentes da cadeia de desenvolvimento e implantação dos sistemas.

Desafios Práticos e Caminhos para a Regulação

Entre os principais desafios práticos identificados pela doutrina, parece-nos que merecem destaque: (i) a identificação precisa dos responsáveis em cadeias complexas de desenvolvimento e operação de IA, que envolvem múltiplos agentes — desenvolvedores, fornecedores de dados, operadores e usuários —, cada qual com graus distintos de controle e de capacidade de prevenção de danos; (ii) a questão da prova do nexo de causalidade em casos de danos causados por sistemas de aprendizado profundo, cujos processos decisórios são frequentemente opacos e não reproduzíveis; e (iii) a definição de critérios equitativos para a repartição interna dos riscos entre os agentes da cadeia, de modo a preservar os incentivos à inovação sem transferir indevidamente os custos dos danos para as vítimas.

Verifica-se que o ordenamento jurídico brasileiro, ao combinar o regime geral de responsabilidade civil do Código Civil com as disposições específicas do CDC, da LGPD e do futuro marco regulatório da IA representado pelo PL 2.338/2023, dispõe de instrumentos suficientes para enfrentar esses desafios — desde que a interpretação e a aplicação dessas normas sejam orientadas pelos princípios da proteção das vítimas, da transparência algorítmica e da proporcionalidade na distribuição dos riscos tecnológicos.

Parece-nos, em conclusão, que a analogia entre a IA e o incapaz, embora não possa servir como fundamento autônomo de um regime de responsabilidade específico para sistemas autônomos, oferece contribuições hermenêuticas valiosas — especialmente no que concerne aos deveres de vigilância, à lógica da subsidiariedade e ao critério da equidade na fixação da indenização. Tais contribuições devem ser incorporadas de forma crítica e adaptada ao debate sobre a regulação da IA no Brasil, sem que se incorra na falácia de tratar o algoritmo como se fosse uma pessoa.

IncapazResponsabilidadeAnalogiaIA

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.