A Voluntariedade da Conduta e Seus Reflexos na Responsabilidade Civil
A compreensão da conduta humana ilícita ou antijurídica constitui um dos pilares fundamentais da responsabilidade civil contemporânea. Cabe ressaltar, desde logo, que a voluntariedade da conduta não se confunde com a intenção de causar dano: verificou-se, tanto na doutrina quanto na jurisprudência pátria, que basta a consciência do ato em si para que se configure o elemento volitivo exigido pelo ordenamento. Essa distinção, aparentemente sutil, produz consequências jurídicas de grande alcance, especialmente quando se examina a crescente participação de sistemas automatizados e de inteligência artificial nos processos decisórios que afetam terceiros.
Segundo Rui Stoco, "a voluntariedade da conduta não é vinculada à intenção de gerar prejuízo, mas apenas à consciência do ato em si". Esse entendimento, incorporado pela doutrina majoritária, encontra ressonância no tratamento que o Código Civil de 2002 dispensa à responsabilidade tanto subjetiva quanto objetiva: em ambos os regimes, o que se exige é que o agente haja exercido livremente sua capacidade de agir ou de se omitir, e não que tenha deliberadamente buscado o resultado danoso. Parece-nos que tal premissa é ainda mais relevante na era digital, em que as escolhas técnicas realizadas no desenvolvimento de algoritmos produzem efeitos concretos sobre incontáveis pessoas, muitas vezes sem que qualquer intenção lesiva possa ser demonstrada.
Omissão, Dever de Agir e Inteligência Artificial
O tema da omissão merece tratamento particularizado. Em uma visão tradicional, a omissão seria simples inação — o não fazer. Contudo, verificou-se que essa perspectiva é insuficiente para dar conta das complexidades impostas pelos sistemas tecnológicos avançados. A omissão juridicamente relevante pressupõe a existência de um dever de agir, seja ele decorrente de norma expressa, de contrato, de posição de garante ou das circunstâncias concretas que criam risco para terceiros. Quando esse dever existe e não é observado, a inação transforma-se em conduta ilícita apta a gerar o dever de reparar.
Em contextos de inteligência artificial, parece-nos que a omissão envolve, mais do que a simples inação, um conjunto de obrigações técnicas e éticas cuja inobservância raramente deixará de acarretar responsabilidade jurídica. O desenvolvedor que, ciente de vieses discriminatórios em seu algoritmo de concessão de crédito, deixa de corrigi-los antes da implantação comercial do sistema, pratica uma omissão antijurídica de graves consequências. O mesmo se diga do operador de plataforma digital que, alertado sobre conteúdos ilícitos em circulação, permanece inerte diante do dano iminente aos usuários afetados. Em ambos os casos, o que define a ilicitude não é a intenção, mas a violação de um padrão objetivo de conduta exigível.
Nesse sentido, a omissão deve ser compreendida à luz do dever de agir não apenas por imperativo ético, mas também pelo compromisso jurídico com a prevenção de riscos e danos. Como se verifica ao longo das legislações e orientações normativas atuais — entre elas o Projeto de Lei nº 2.338/2023, que propõe marco regulatório para a IA no Brasil, e o AI Act europeu (Regulamento UE 2024/1689) —, o sentido predominante não é o de desdobrar indefinidamente a responsabilidade civil, mas o de reforçar compromissos éticos e jurídicos no desenvolvimento de sistemas autônomos.
O Exemplo dos Responsáveis Legais e Sua Transposição para a IA
Há um exemplo clássico na doutrina civilista que ilumina bem a questão da voluntariedade dissociada da intenção: a responsabilidade dos pais pelos danos causados por seus filhos menores. Nos termos do art. 932, I, do Código Civil, os pais respondem pelos atos dos filhos menores que estiverem sob sua autoridade e em sua companhia. A ausência de discernimento do menor quanto à ilicitude do ato não afasta a responsabilidade dos responsáveis legais, salvo quando o evento é claramente fortuito — como uma rajada de vento que move uma bola e quebra uma vidraça. O fundamento dessa responsabilidade reside precisamente na posição de garante ocupada pelos pais: sua escolha de assumir a guarda e a educação do filho traduz-se em deveres juridicamente exigíveis perante terceiros.
Esse raciocínio é perfeitamente transponível para o campo da inteligência artificial. A criação e a configuração de algoritmos, assim como as decisões que guiam o treinamento e a adaptação de sistemas autônomos, constituem atos voluntários — ações deliberadas dos desenvolvedores que influenciam diretamente o comportamento futuro dessas tecnologias. Em um sistema de reconhecimento facial, por exemplo, o treinamento do algoritmo para identificar pessoas de diferentes etnias envolve escolhas metodológicas concretas: que banco de dados utilizar, como balancear as amostras, quais parâmetros de acurácia adotar para cada grupo demográfico. Cada uma dessas escolhas é, em si, um ato humano voluntário, ainda que seus efeitos se manifestem de modo difuso e não intencional.
Responsabilidade Objetiva e o Risco da Atividade Tecnológica
Cabe ressaltar que, em determinadas hipóteses, o ordenamento jurídico brasileiro dispensa a demonstração de culpa para a configuração do dever de reparar. A cláusula geral de responsabilidade objetiva prevista no parágrafo único do art. 927 do Código Civil estabelece que aquele que, por sua atividade, criar risco para os direitos de outrem fica obrigado a reparar o dano causado, ainda que sem culpa. A doutrina tem debatido, com crescente intensidade, se o desenvolvimento e a operação de sistemas de inteligência artificial de alto risco se enquadrariam nessa categoria de atividades perigosas.
Sob essa perspectiva, não seria necessário demonstrar que o desenvolvedor ou o operador da IA agiu com negligência, imprudência ou imperícia. Bastaria estabelecer o nexo causal entre o funcionamento do sistema e o dano sofrido pela vítima. Esse caminho — já percorrido em outros domínios tecnológicos, como o das usinas nucleares e das atividades de exploração de petróleo — parece-nos particularmente adequado para situações em que a opacidade dos algoritmos torna extremamente difícil a demonstração de culpa específica. O PL 2.338/2023 avança nessa direção ao prever regimes diferenciados de responsabilidade para sistemas de IA classificados como de alto risco.
Propostas para uma Regulação Coerente
A análise até aqui desenvolvida sugere que o direito brasileiro dispõe de instrumentos suficientes para lidar com os desafios impostos pela conduta antijurídica no âmbito da inteligência artificial, desde que esses instrumentos sejam aplicados com rigor e coerência. Não se trata de criar uma categoria jurídica inteiramente nova para a IA, mas de adaptar e precisar os conceitos já existentes — voluntariedade, omissão, dever de agir, atividade perigosa — às especificidades tecnológicas do cenário contemporâneo.
Verificou-se, contudo, que algumas lacunas subsistem. A ausência de critérios claros para a identificação do polo passivo da responsabilidade em cadeias complexas de desenvolvimento, treinamento e operação de IA representa um obstáculo concreto ao acesso à reparação. Quem responde pelos danos causados por um sistema treinado por uma empresa, operado por outra e distribuído por uma terceira? A resposta a essa pergunta exige tanto clareza normativa quanto mecanismos processuais adequados, como a inversão do ônus da prova prevista no art. 6º, VIII, do Código de Defesa do Consumidor, aplicável sempre que o usuário lesado puder ser enquadrado na categoria de consumidor.
Em síntese, a incorporação de algoritmos autônomos não elimina a exigência de condutas atentas aos deveres jurídicos e éticos; ao contrário, intensifica a responsabilização dos atores humanos pela prevenção de riscos e pela mitigação de danos. A IA não é destinatária de deveres — é fator tecnológico que amplifica o alcance e a complexidade das obrigações humanas na cadeia de desenvolvimento e circulação de bens e serviços. Essa perspectiva, que parece-nos a mais coerente com os princípios gerais do direito civil brasileiro, é também a que melhor serve aos objetivos de proteção dos indivíduos e de fomento responsável à inovação tecnológica.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".