O Vácuo de Responsabilidade e a Relevância da Experiência Europeia
A responsabilidade pelos danos causados por sistemas de IA constitui um dos debates centrais na construção de regimes de responsabilidade civil para a inteligência artificial. Na Europa, igualmente, a responsabilidade vicária desponta como tema de primeiríssima importância, sobretudo pela lacuna normativa evidenciada no contexto europeu. Enquanto atividades humanas são reguladas por regimes consolidados — como ocorre com auxiliares humanos nos planos trabalhista e contratual —, as falhas de sistemas automatizados ainda não contam com parâmetros definidos, gerando um "vácuo de responsabilidade" que o AI Act (Regulamento UE 2024/1689) e a proposta de Diretiva europeia sobre responsabilidade por IA tentam preencher.
Esse vácuo tem implicações práticas graves: vítimas de danos causados por sistemas de IA podem encontrar dificuldades para identificar o responsável, provar o nexo causal e obter reparação efetiva. A multiplicidade de agentes envolvidos no desenvolvimento, na comercialização e na operação dos sistemas — desenvolvedores, treinadores, operadores, distribuidores, usuários — dilui a responsabilidade a ponto de, em alguns casos, impossibilitar sua imputação por meio dos instrumentos clássicos do direito civil.
A Responsabilidade pelos Danos Causados pelo Incapaz no Código Civil Brasileiro
O Código Civil brasileiro prevê, nos arts. 932, I e II, a responsabilidade dos pais pelos atos de seus filhos menores, bem como dos tutores e curadores em relação aos danos causados pelos incapazes que estejam sob sua autoridade e companhia. Tal disposição é complementada pela previsão de responsabilidade objetiva dos responsáveis pelo art. 933 — que determina que as pessoas indicadas nos incisos I a V do art. 932 respondam pelos atos praticados pelos terceiros ali referidos, ainda que não haja culpa de sua parte.
A responsabilidade dos pais, por sua vez, encontra fundamento no poder familiar, que agrega deveres de orientação, proteção e informação, indo além da simples vigilância física. No plano extracontratual, Monteiro Filho e Rosenvald reforçam que é o poder familiar, compreendido não apenas como vigilância física, mas como dever de cuidado, educação e proteção, que fundamenta a responsabilidade do representante legal pelos atos dos filhos incapazes. Interpretação semelhante tem sido adotada pelo Superior Tribunal de Justiça, que considera o plexo de obrigações inerentes ao poder familiar, incluindo orientação e prevenção, conforme o REsp 1.436.401/MG.
O Poder Familiar como Paradigma de Autoridade e Controle
O Enunciado 450 da V Jornada de Direito Civil do CJF consolidou o entendimento de que a responsabilidade dos pais pelos atos danosos praticados pelos filhos menores é objetiva — e não por culpa presumida —, respondendo ambos os genitores solidariamente em razão do exercício do poder familiar. Esse enunciado é relevante porque deixa claro que o fundamento da responsabilidade não é a falha de vigilância, mas a própria posição de autoridade que o poder familiar confere aos genitores.
Parece-nos que esse fundamento — a autoridade como fonte de responsabilidade — é precisamente o elemento que torna a analogia entre a responsabilidade dos pais pelos filhos incapazes e a responsabilidade dos desenvolvedores por sistemas de IA tão sugestiva para a doutrina contemporânea. Assim como os pais respondem objetivamente pelos atos dos filhos menores porque exercem sobre eles poder de formação, direção e controle, os desenvolvedores de sistemas de IA respondem objetivamente pelos danos causados por esses sistemas porque exercem sobre eles poder de programação, treinamento e parametrização.
Essa analogia, contudo, apresenta limites importantes. O filho incapaz é um ser humano com personalidade jurídica própria e potencial para desenvolver autonomia plena; o sistema de IA é uma entidade técnica sem personalidade jurídica. O filho pode eventualmente responder subsidiariamente por seus atos (art. 928 do CC); o sistema de IA, por não ter personalidade jurídica, não pode ser sujeito de responsabilidade. Essas diferenças estruturais limitam o alcance da analogia e reforçam a necessidade de um regime específico.
O Art. 928 e a Responsabilidade Subsidiária do Incapaz
O art. 928 do Código Civil prevê que o incapaz responde pelos prejuízos que causar, se as pessoas por ele responsáveis não tiverem obrigação de fazê-lo ou não dispuserem de meios suficientes para tanto. Essa responsabilidade subsidiária do incapaz é condicionada à equidade: o juiz deve fixar indenização equitativa que não prive o incapaz ou seus dependentes dos meios necessários para sua subsistência (art. 928, parágrafo único).
A lógica do art. 928 revela uma hierarquia de responsabilidades: primeiramente respondem os pais, tutores ou curadores (art. 932); apenas subsidiariamente, e nas condições previstas, o próprio incapaz. Essa estrutura hierárquica poderia ser adaptada para o contexto da IA: primeiramente responderia o operador do sistema (aquele que o implementou em contexto específico); subsidiariamente, o desenvolvedor (aquele que o criou e o disponibilizou); e, em último caso, fundos de compensação estatais ou setoriais, para cobrir situações em que nenhum dos responsáveis primários possua meios suficientes para reparar o dano.
Responsabilidade Objetiva, LGPD e o PL 2338/2023
A interseção entre a responsabilidade pelos danos causados pelo incapaz e a responsabilidade por danos causados por IA pode ser enriquecida pela análise dos marcos normativos específicos existentes. A LGPD (Lei 13.709/2018), em seu art. 42, estabelece que o controlador ou o operador que causar dano ao titular de dados em razão do exercício de atividade de tratamento de dados pessoais é obrigado a repará-lo. Esse dispositivo adota regime de responsabilidade objetiva, prescindindo de demonstração de culpa — em paralelo ao que dispõe o art. 933 do Código Civil para as hipóteses de fato de terceiro.
O PL 2338/2023, por sua vez, estabelece que os fornecedores de sistemas de IA de alto risco respondem objetivamente pelos danos causados por esses sistemas, independentemente de culpa. Sistemas de risco limitado e mínimo sujeitam-se a regime de responsabilidade subjetiva, com inversão do ônus da prova em favor da vítima quando esta demonstrar a verossimilhança de suas alegações. Essa estrutura bipartida — responsabilidade objetiva para alto risco, subjetiva com inversão do ônus para os demais — harmoniza-se com o CDC (art. 14 para serviços e arts. 12 e 13 para produtos) e com a cláusula geral do art. 927, parágrafo único, do Código Civil.
Perspectivas para a Doutrina e a Jurisprudência Brasileiras
Verifica-se, portanto, que os conceitos fundamentais da responsabilidade pelos danos causados pelo incapaz oferecem ao intérprete brasileiro um quadro teórico rico e articulado, que pode ser adaptado — com as necessárias cautelas — para o tratamento dos danos causados por sistemas de inteligência artificial. A ideia de que quem exerce autoridade e controle sobre uma entidade com capacidade de causar danos deve responder objetivamente por esses danos é, em sua essência, transponível ao contexto da IA, desde que se reconheçam as peculiaridades técnicas que diferenciam um sistema autônomo de um ser humano incapaz.
A chave para o desenvolvimento de uma doutrina brasileira coerente sobre responsabilidade por IA está, a nosso ver, na articulação criativa entre os institutos existentes — fato do animal, fato da coisa, fato de terceiro, poder familiar — e os novos marcos regulatórios em gestação. O intérprete não deve escolher entre continuidade e ruptura, mas buscar a síntese que melhor sirva aos valores fundamentais do direito civil: a reparação integral do dano injusto, a prevenção de danos futuros, a distribuição equitativa dos riscos sociais e o respeito à dignidade das pessoas afetadas por decisões autônomas de sistemas tecnológicos.
A construção dessa síntese é o desafio central da civilística brasileira no campo da inteligência artificial — e os fundamentos aqui examinados são os primeiros tijolos de um edifício dogmático que ainda está em fase de construção.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".