A Responsabilidade dos Incapazes e o Alcance do Art. 932
O art. 932 do Código Civil não faz distinção em função do grau de incapacidade, apenas da menoridade — o que implica que o regime de responsabilidade indireta dos pais se aplica tanto aos absolutamente incapazes (menores de dezesseis anos, art. 3.º do CC) quanto aos relativamente incapazes (entre dezesseis e dezoito anos, art. 4.º, I, do CC). Isso não afasta a possibilidade de o menor também responder, conforme se depreende do art. 928 do Código Civil, quando os pais, ou demais responsáveis, não tiverem obrigação de fazê-lo ou não dispuserem de meios suficientes para tanto.
À luz do inciso II do art. 932, a mesma lógica se estende aos tutores e curadores pelos atos de pupilos e curatelados que estejam sob sua autoridade e companhia, sobretudo quando os incapazes possuem bens. Essa extensão revela a sistematicidade do regime: em todas as hipóteses de incapacidade civil reconhecida pelo ordenamento, há um responsável designado que responde objetivamente pelos danos causados pelo incapaz — seja o genitor no exercício do poder familiar, o tutor ou o curador —, e essa responsabilidade objetiva independe de qualquer juízo sobre a qualidade do cuidado prestado.
Responsabilidade do Empregador e a Relevância para o Contexto da IA
Pelo inciso III do art. 932, a responsabilidade se transfere ao empregador ou comitente por atos de empregados, serviçais e prepostos no exercício do trabalho. Esse dispositivo é particularmente relevante para a análise da responsabilidade por danos causados por IA, na medida em que os desenvolvedores de sistemas de IA são, tipicamente, empregados ou prestadores de serviços de empresas que os contratam para criar, treinar e manter esses sistemas. A empresa, na qualidade de comitente, responderia objetivamente pelos danos causados por seu desenvolvedor no exercício de sua atividade profissional.
Essa lógica encontra suporte na jurisprudência do STJ, que tem interpretado extensivamente o conceito de "exercício do trabalho" para alcançar situações em que o dano foi causado em razão das atribuições do empregado, mesmo que fora do horário ou do local de trabalho. Parece-nos que, adaptado ao contexto da IA, esse entendimento permitiria imputar à empresa desenvolvedora a responsabilidade pelos danos causados por um sistema de IA cujos defeitos de concepção ou treinamento derivam do trabalho de seus empregados.
A Responsabilidade Objetiva "Impura" e o Direito de Regresso
Em todos esses casos, segundo Arnaldo Rizzardo, verifica-se uma "imputabilidade objetiva, independentemente da vontade do agente e da pessoa que responde pelos atos daquele, quando imputável", demandando a atribuição de responsabilidade mesmo sem inquirição sobre a voluntariedade ou a culpa stricto sensu. Ao mesmo tempo, a formulação da responsabilidade objetiva indireta no Código Civil é considerada "impura" por autores como Álvaro Villaça Azevedo, pois, segundo o autor, não exclui a necessidade de demonstrar a culpa do causador direto do dano.
Essa "impureza" fundamenta, em alguns casos, a posterior ação de regresso prevista no art. 934: aquele que ressarcir o dano causado por outrem pode reaver o que houver pago daquele por quem pagou, salvo se o causador do dano for descendente seu, absolutamente ou relativamente incapaz. Assim, embora o responsável indireto não precise demonstrar sua própria culpa para ser condenado, mantém o direito de, posteriormente, buscar o ressarcimento do causador direto que agiu com culpa.
No contexto da IA, esse regime de regresso é especialmente relevante: se uma empresa responde pelos danos causados por um sistema de IA desenvolvido por seus empregados, pode, em princípio, buscar regresso contra o empregado que agiu com negligência ou dolo na concepção ou no treinamento do sistema. A questão prática, contudo, é se o empregado individual teria condições econômicas de arcar com os custos de uma ação de regresso em casos de danos em larga escala — o que torna esse mecanismo de limitada efetividade na prática.
O Vácuo de Responsabilidade no Contexto Europeu
Em resumo, conforme a doutrina destaca, toda nova fundamentação de responsabilidade, seja ela objetiva ou não, permanece alicerçada no mesmo propósito de "recomposição de um dano injusto, concebido como a lesão de interesse alheio juridicamente tutelado", nas palavras de Massimo Bianca.
No Brasil, a responsabilidade por fato de outrem apresenta desafios teóricos e práticos que servem de analogia para entender como atribuir responsabilidade pelos danos causados por sistemas de IA. Na Europa, igualmente, a responsabilidade vicária desponta como um dos debates centrais na construção de regimes de responsabilidade civil para a inteligência artificial, sobretudo pela lacuna normativa evidenciada no contexto europeu. Enquanto atividades humanas são reguladas por regimes consolidados — como ocorre com auxiliares humanos no âmbito do direito do trabalho e da responsabilidade por fato de terceiro —, as falhas de sistemas automatizados ainda não contam com parâmetros definidos, gerando um "vácuo de responsabilidade".
Esse vácuo manifesta-se, concretamente, em situações em que um sistema de IA causa dano sem que se consiga identificar claramente nem o causador direto nem o responsável indireto — seja porque o sistema operou autonomamente sem intervenção humana identificável, seja porque a cadeia de responsabilidade envolveu múltiplos agentes em diferentes jurisdições. O AI Act europeu tentou endereçar esse problema ao estabelecer obrigações claras de registro, rastreabilidade e documentação para sistemas de alto risco, de modo a permitir a identificação do responsável ex post com maior precisão.
A Responsabilidade Vicária como Modelo para a IA
A responsabilidade vicária — entendida como a obrigação de reparar danos causados por terceiro em razão de relação de autoridade, controle ou benefício econômico — é, possivelmente, o modelo mais adequado para capturar a especificidade da responsabilidade por IA. Ela não requer que o responsável tenha causado diretamente o dano, mas apenas que mantenha sobre o causador uma relação que justifique a imposição do dever de reparar.
Parece-nos que essa abordagem é mais coerente com a realidade dos sistemas de IA modernos do que a simples extensão dos regimes de guarda da coisa inanimada ou do animal. A empresa que desenvolve e comercializa um sistema de IA exerce sobre ele — e sobre seus efeitos no mundo — uma posição estruturalmente análoga à do empregador em relação ao empregado ou à do pai em relação ao filho: uma posição de autoridade, controle e benefício econômico que justifica a assunção dos riscos correspondentes.
Do ponto de vista da LGPD (Lei 13.709/2018), essa lógica já encontra expressão positiva: o controlador de dados pessoais — aquele que determina as finalidades e os meios do tratamento — responde objetivamente pelos danos causados pelo tratamento irregular, mesmo quando o tratamento foi realizado pelo operador (art. 42 da LGPD). Esse regime de responsabilidade vicária do controlador pelos atos do operador é, mutatis mutandis, aplicável à relação entre a empresa desenvolvedora e o sistema de IA que ela cria e mantém.
Síntese e Articulação com os Próximos Desenvolvimentos
A análise do fato de terceiro, portanto, revela que o ordenamento brasileiro já dispõe de instrumentos conceituais e normativos suficientes para tratar, de forma provisória, da responsabilidade por danos causados por sistemas de IA. O regime dos arts. 932 e 933 do Código Civil, combinado com a cláusula geral do art. 927, parágrafo único, e com as disposições específicas da LGPD, forma um arcabouço que, embora imperfeito, permite ao juiz identificar o responsável e impor o dever de reparação na maioria dos casos concretos.
Essa provisoriedade, contudo, não dispensa a necessidade de regulamentação específica — tarefa que o PL 2338/2023 e o AI Act europeu estão a realizar, com diferentes graus de amplitude e profundidade. O desenvolvimento doutrinário e jurisprudencial brasileiro, nesse contexto, deve orientar-se pela busca de soluções que combinem efetividade na proteção das vítimas com proporcionalidade na atribuição de responsabilidade, reconhecendo a diversidade de papéis e capacidades dos diferentes agentes envolvidos no ciclo de vida dos sistemas de inteligência artificial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".