A Conduta Humana como Âncora da Imputação
A análise da conduta humana — seja em ação ou omissão — confirmou que, mesmo diante de sistemas autônomos de inteligência artificial, a responsabilidade permanece circunscrita às decisões e deveres impostos a desenvolvedores, fornecedores e operadores, pois o direito ancora a imputação, em última medida, na voluntariedade dos atos — ilícitos ou simplesmente antijurídicos — de pessoas físicas ou jurídicas. Parece-nos que essa ancoragem na conduta humana não é uma limitação do ordenamento jurídico, mas uma opção consciente e coerente com os fundamentos da responsabilidade civil: a obrigação de reparar pressupõe a existência de um sujeito capaz de ser responsabilizado, de ter seu patrimônio afetado e de ser compelido a adotar comportamentos preventivos no futuro.
A IA, enquanto artefato tecnológico desprovido de personalidade jurídica, patrimônio próprio e capacidade de sofrer sanções, não pode ser sujeito passivo de uma pretensão indenizatória. O que o ordenamento pode e deve fazer é distribuir adequadamente os riscos entre os agentes humanos e jurídicos que participam do ciclo de desenvolvimento, implantação e operação dos sistemas inteligentes — e é precisamente isso que o Código Civil de 2002, o CDC, a LGPD e o PL 2.338/2023 se propõem a fazer, cada qual em sua esfera de atuação.
O Dano na Era Algorítmica: Novos Contornos de um Conceito Clássico
O dano — abarcando tanto prejuízos materiais quanto imateriais, individuais ou coletivos — assume papel central na definição de quais situações de fato exigem reparação, sobretudo quando os sistemas algorítmicos reproduzem vieses, violam direitos de privacidade ou ensejam comportamentos inesperados. Parece-nos que o conceito de dano, no contexto da IA, precisa ser expandido em pelo menos três dimensões.
A primeira dimensão é a do dano individualizado mas não percebido: situações em que o sistema de IA produz resultados lesivos para indivíduos específicos que, por desconhecerem o funcionamento do algoritmo, não percebem que foram prejudicados. Exemplo paradigmático é o da decisão automatizada de concessão de crédito que nega financiamento a um consumidor com base em critérios discriminatórios não declarados. O art. 20 da LGPD, que garante ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, constitui o principal instrumento normativo para a identificação e reparação desse tipo de dano.
A segunda dimensão é a do dano coletivo difuso: situações em que o sistema de IA produz resultados discriminatórios de forma sistemática, afetando grupos inteiros de pessoas — por exemplo, mulheres, negros, pessoas com deficiência — com base em vieses presentes nos dados de treinamento. Nesses casos, o dano transcende o individual e assume feição coletiva, exigindo mecanismos de tutela coletiva — ação civil pública, ação popular, termos de ajustamento de conduta — que complementem a tutela individual.
A terceira dimensão é a do dano ao patrimônio informacional: situações em que o tratamento irregular de dados pessoais por sistemas de IA causa prejuízo à autodeterminação informacional do titular, independentemente de qualquer dano material ou imaterial imediatamente identificável. A LGPD, em seus arts. 42 a 44, reconhece esse tipo de dano ao estabelecer a responsabilidade objetiva do controlador e do operador pelo tratamento irregular de dados — responsabilidade que prescinde da comprovação de culpa e se satisfaz com a demonstração do tratamento irregular e do dano resultante.
O Nexo de Causalidade e as Teorias Aplicáveis
O estudo do nexo de causalidade mostrou-se especialmente sensível no contexto da IA: a pluralidade de agentes e a autonomia dos algoritmos podem fragmentar a cadeia causal, dificultando a prova do liame entre o ato humano e o dano. As várias teorias de causalidade — equivalência das condições, causalidade adequada, dano direto e imediato, imputação objetiva — apresentam saídas para a alocação de responsabilidade, mas nenhuma delas elimina, isoladamente, a natureza híbrida e multifacetada dos sistemas de IA.
Verifica-se que a teoria da causalidade adequada, adotada majoritariamente pela doutrina e jurisprudência brasileiras, pode ser insuficiente para os casos de IA, pois ela pressupõe que o dano seja uma consequência normal e previsível da conduta do agente. Ora, uma das características mais marcantes dos sistemas de aprendizado profundo é exatamente a imprevisibilidade de seus resultados: o sistema pode produzir comportamentos que não foram antecipados nem pelos desenvolvedores, nem pelos operadores, nem pelos usuários. Nesses casos, a teoria da causalidade adequada pode levar à exclusão da responsabilidade por considerar o dano "imprevisível" — resultado que seria politicamente inaceitável e socialmente prejudicial.
Parece-nos que a teoria da imputação objetiva — que não exige a previsibilidade do dano, mas apenas que este esteja dentro da esfera de riscos que a conduta do agente criou ou potencializou — oferece uma saída mais adequada para esses casos. No contexto da IA, a empresa que desenvolve e coloca em circulação um sistema de aprendizado profundo cria, por essa simples ação, uma esfera de riscos que inclui todos os danos que o sistema puder causar no âmbito de sua aplicação funcional — independentemente de sua previsibilidade específica no momento do desenvolvimento.
As Concausas e a Causalidade Múltipla na IA
A teoria das concausas — concorrentes, cumulativas ou supervenientes — ganhou projeção ao evidenciar que danos tecnológicos, em geral, resultam de combinações de falhas humanas, lacunas algorítmicas e condições externas muitas vezes imprevisíveis. Em cenários de causalidade múltipla, a responsabilidade solidária se torna um instrumento de segurança jurídica para a vítima — ainda que seja essencial estabelecer critérios de repartição interna de riscos e possibilidade de regresso entre os diversos agentes envolvidos no ciclo de vida de um sistema de IA.
Verifica-se que a causalidade múltipla é a regra, e não a exceção, nos casos de danos causados por sistemas de IA: há quase sempre uma contribuição do desenvolvedor — que fez escolhas de design; do fornecedor de dados — que curou o conjunto de treinamento; do operador — que implantou o sistema sem a devida avaliação de impacto; e, por vezes, do próprio usuário — que interagiu com o sistema de forma a potencializar o risco. Nesse cenário, a solidariedade passiva entre os agentes da cadeia de IA — com a posterior repartição interna segundo a contribuição de cada um para o dano — é a solução que melhor concilia a proteção da vítima com a equidade na distribuição dos riscos.
O Papel do PL 2.338/2023 e do AI Act na Reestruturação do Nexo de Imputação
Parece-nos que o PL 2.338/2023 e o AI Act europeu representam os dois mais importantes instrumentos normativos contemporâneos para a reestruturação do nexo de imputação de responsabilidade civil pela IA. O AI Act, ao classificar os sistemas de IA por nível de risco e ao estabelecer obrigações proporcionais para desenvolvedores e operadores, cria um sistema de deveres específicos cujo descumprimento pode ser invocado como elemento de culpa em ações de responsabilidade civil. O PL 2.338/2023, ao seguir abordagem similar e ao prever expressamente a responsabilidade civil dos agentes de IA pelos danos causados por seus sistemas (art. 28), oferece base normativa específica para pretensões indenizatórias no Brasil.
Verifica-se que ambos os instrumentos adotam a responsabilidade objetiva como regime principal para os agentes que desenvolvem e operam sistemas de IA de alto risco — o que é coerente com o princípio da proteção das vítimas e com a teoria do risco que fundamenta o Código Civil de 2002. A responsabilidade subjetiva é reservada, em ambos os casos, para as relações internas entre os agentes da cadeia — especialmente na ação de regresso do agente principal contra aquele que, por culpa individual, contribuiu para o dano.
Parece-nos que essa arquitetura normativa — responsabilidade objetiva para o plano externo, responsabilidade subjetiva para o plano interno — é a que melhor concilia os valores em tensão no campo da IA: a proteção efetiva das vítimas, que não devem suportar os custos da opacidade algorítmica; o incentivo à inovação responsável, que não deve ser inibido por uma responsabilidade excessivamente ampla e imprevisível; e a proporcionalidade na distribuição dos riscos, que deve refletir o grau de controle e de benefício econômico de cada agente sobre o sistema causador do dano.
Síntese: A Responsabilidade Civil à Altura do Desafio da IA
Em síntese, verifica-se que o ordenamento jurídico brasileiro — ao conjugar os arts. 186, 187, 927, 931, 932 e 933 do Código Civil com as disposições do CDC, da LGPD e das futuras normas do PL 2.338/2023 — já dispõe de instrumentos normativos suficientes para a construção de um regime de responsabilidade civil pela IA que seja, ao mesmo tempo, coerente com a tradição do direito civil brasileiro e adequado às especificidades técnicas dos sistemas inteligentes.
Parece-nos que o percurso analítico desenvolvido ao longo desta obra confirma que a responsabilidade civil, longe de ser um obstáculo ao desenvolvimento da IA, é um dos mais poderosos instrumentos de governança responsável dessa tecnologia: ao distribuir adequadamente os riscos e ao criar incentivos para a adoção de práticas preventivas, ela contribui para que a IA se desenvolva de forma segura, transparente e alinhada com os valores constitucionais de dignidade, igualdade e solidariedade social.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".