A responsabilidade civil por danos causados por sistemas de inteligência artificial coloca o jurista diante de uma encruzilhada metodológica. De um lado, o ordenamento positivo disponibiliza um conjunto consolidado de pressupostos e teorias construídos ao longo de séculos de evolução doutrinária e jurisprudencial. De outro, a realidade tecnológica apresenta configurações de dano que escapam, em muitos aspectos, às molduras disponíveis. A questão que se impõe, portanto, não é se o Direito deve ser aplicado a essas situações — a resposta é afirmativa e não comporta dúvida —, mas de que forma seus instrumentos clássicos precisam ser reinterpretados e, eventualmente, complementados para dar conta dos desafios específicos que a IA impõe.
Um dos aspectos mais relevantes nesse debate é a multiplicidade de regimes jurídicos potencialmente aplicáveis a um mesmo fato danoso. Considere-se, por exemplo, a hipótese de um assistente robótico utilizado em sala de cirurgia que, em decorrência de uma atualização autônoma do seu sistema de aprendizado por reforço, adota um protocolo de ação não previsto pelos seus desenvolvedores e causa dano irreversível ao paciente. Nesse cenário, emergem simultaneamente: (a) a responsabilidade objetiva do hospital pelo fato da coisa, nos termos do art. 927 e seguintes do Código Civil (Lei nº 10.406/2002); (b) a responsabilidade consumerista do fabricante pelo defeito do produto, à luz do art. 12 do Código de Defesa do Consumidor (Lei nº 8.078/1990); (c) a responsabilidade subjetiva por imperícia do médico que utilizou o equipamento sem a devida capacitação; e (d) a eventual isenção de responsabilidade dos fabricantes caso se demonstre que, à época do desenvolvimento, não era tecnicamente possível prever o comportamento lesivo gerado pelo aprendizado contínuo do sistema.
Essa pluralidade não é um defeito do sistema jurídico, mas um reflexo da complexidade das relações que se estabelecem em torno de uma tecnologia multifacetada. O desafio consiste, precisamente, em evitar tanto a subresponsabilização — situação em que nenhum ator responde pelo dano causado — quanto a sobrerresponsabilização — situação em que todos os elos da cadeia são indistintamente responsabilizados, independentemente do grau de contribuição causal de cada um. Parece-nos que a chave para esse equilíbrio reside na distinção metodológica entre nexo causal e nexo de imputação, que permite tratar separadamente a questão fática — o que causou o dano — da questão normativa — quem deve responder por ele.
Cabe ressaltar que essa distinção não é apenas uma preferência acadêmica, mas tem consequências práticas imediatas. O nexo de causalidade, enquanto elo fático entre a conduta e o resultado danoso, é regido por critérios de verificação empírica e pelas teorias que a doutrina desenvolveu para isolar, dentre as múltiplas condições de um evento, aquela que o ordenamento considera juridicamente relevante. O nexo de imputação, por sua vez, incorpora critérios normativos — como o risco criado, o proveito econômico auferido, a posição de controle ocupada e os deveres específicos estabelecidos por lei ou contrato — que definem quem, dentre os eventuais causadores do dano, deve suportar a obrigação reparatória.
A conduta antijurídica — seja ela ativa ou omissiva — constitui o ponto de partida da análise. No campo das tecnologias digitais, a omissão apresenta-se como aspecto praticamente estrutural na configuração do fato ilícito. Os ambientes de desenvolvimento de IA são altamente controlados, e o que efetivamente potencializa riscos e gera danos significativos não são, em geral, as grandes ações expressas, mas as falhas, lacunas e negligências no desenvolvimento, no monitoramento e na correção dos sistemas. A escolha de tratar da omissão já no âmbito do estudo da ilicitude da conduta — e não apenas no nexo de causalidade ou na responsabilidade subjetiva — decorre dessa constatação empírica fundamental.
Nesse sentido, a perspectiva normativa europeia expressa no AI Act (Regulamento UE 2024/1689) oferece referências relevantes. O regulamento europeu classifica os sistemas de IA por níveis de risco e impõe deveres progressivos de transparência, documentação e supervisão humana conforme a categoria de risco a que pertencem. Essa lógica regulatória fortalece a tese de que o dever de agir — e a correspondente responsabilidade pela omissão — emerge, em grande medida, da posição de controle e do risco criado pelos agentes envolvidos no desenvolvimento e na operação dos sistemas, independentemente da existência de uma conduta culposa em sentido estrito.
No Brasil, o Projeto de Lei nº 2.338/23, aprovado no Senado Federal e em trâmite na Câmara dos Deputados, estabelece deveres análogos de transparência, gestão de riscos e proteção de dados, cuja violação pode configurar a omissão antijurídica relevante para fins de responsabilidade civil. A interação entre essas obrigações legais específicas e os pressupostos gerais da responsabilidade civil será, nos próximos anos, um dos campos mais férteis de debate jurídico e jurisprudencial no país.
O dano, elemento indispensável e autônomo da estrutura da responsabilidade civil, representa o prejuízo concreto que justifica a exigência de reparação. No contexto da IA, suas manifestações são variadas e, por vezes, de difícil quantificação: danos patrimoniais resultantes de decisões algorítmicas discriminatórias em processos de concessão de crédito ou de seleção empregatícia; danos morais decorrentes de violações de privacidade em sistemas de reconhecimento facial; danos difusos provocados por sistemas de desinformação operados em larga escala. A extensão e a profundidade dessas manifestações evidenciam que o campo de aplicação da responsabilidade civil por danos relacionados à IA é vasto e crescente, e que a adequada compreensão dos seus elementos estruturantes é condição indispensável para a tutela efetiva dos direitos dos afetados.
Este artigo integra o Capítulo 2 da obra sobre Responsabilidade Civil e Inteligência Artificial, de Alessandro Lavorante.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".