Voltar ao Blog
Responsabilidade CivilCapítulo 2

Elementos de Responsabilidade Civil e Relações com a IA: Análise Aprofundada

Análise aprofundada dos elementos da responsabilidade civil — conduta, dano, nexo causal e imputação — e seus desafios diante da autonomia dos sistemas de IA.

Alessandro Lavorante 17 de julho de 2024 6 min de leitura

Sistemas autônomos de inteligência artificial, ao tomarem decisões e executarem ações de maneira independente, desafiam pressupostos clássicos como a conduta humana direta e o nexo de causalidade linear. Essa constatação não é meramente teórica: há casos concretos em que veículos autônomos, sistemas de triagem médica e algoritmos de concessão de crédito causaram danos a terceiros sem que se pudesse identificar, com precisão, qual decisão humana específica desencadeou o resultado lesivo. O aprendizado autônomo contínuo desses sistemas pode resultar em comportamentos imprevisíveis, dificultando a identificação de culpa subjetiva ou mesmo de uma relação causal nos moldes tradicionais. Diante desse cenário, a evolução para regimes de responsabilidade objetiva, fundamentados no risco da atividade e na proteção do lesado, ganha contornos cada vez mais nítidos.

A constituição de uma relação jurídica de responsabilidade civil exige a presença de certos elementos que estabelecem os pressupostos do dever de indenizar: a conduta antijurídica, o dano, o nexo de causalidade entre ambos e, conforme entendimentos específicos da doutrina mais moderna, o nexo de imputação. Parte considerável dos estudiosos contemporâneos entende que a culpa — em sentido lato, incluindo o dolo —, embora mencionada nas normas como "ação ou omissão voluntária, negligência ou imprudência", não constitui pressuposto geral da responsabilidade civil. Essa observação se baseia na existência consolidada de modalidades de responsabilidade objetiva que prescindem inteiramente do elemento subjetivo.

Cabe ressaltar que o Código Civil de 2002 (Lei nº 10.406/2002) reforça essa característica ao conferir primazia à responsabilidade civil alicerçada no risco da atividade, especialmente nos arts. 927 e seguintes. Esses dispositivos refletem uma orientação social desenvolvida a partir das grandes transformações do pós-guerra e da industrialização massiva, quando ficou evidente que exigir a comprovação de culpa em relação a atividades de grande porte significaria, na prática, deixar inúmeras vítimas sem reparação. Segundo essa perspectiva, a culpa passa a ser um elemento acidental na estrutura da responsabilidade, e não o seu núcleo essencial. Em uma estrutura analítica rigorosa dos elementos do instituto, a culpa, por carecer de generalidade, não figura entre os elementos fundamentais.

Poder-se-ia objetar que a manutenção da culpa como critério central ofereceria maior segurança jurídica para empresas desenvolvedoras de IA, pois limitaria a responsabilidade a situações de manifesta negligência ou imprudência. Contudo, essa objeção não resiste a um exame mais cuidadoso: a assimetria informacional existente entre o desenvolvedor de um sistema de aprendizado profundo e o usuário ou a vítima é tão pronunciada que a exigência de comprovação de culpa tornaria praticamente inviável a responsabilização em quase todos os casos de dano por IA. A responsabilidade objetiva, por distribuir o ônus do risco sobre quem aufere os benefícios econômicos da tecnologia, apresenta-se como resposta mais coerente com os princípios constitucionais de solidariedade e proteção da pessoa humana.

A introdução teórica ao tema da culpa e seus elementos constitutivos mostra-se, não obstante, imprescindível para abordar a imputação de responsabilidade civil derivada de ações autônomas e de danos causados por sistemas de IA. Essa necessidade se manifesta de forma clara quando se examina, por exemplo, a responsabilidade dos profissionais liberais — médicos, engenheiros, advogados — que utilizam ferramentas de IA em seu exercício profissional. Nesses casos, a culpa do profissional pelo uso inadequado ou pela confiança excessiva no sistema pode ser elemento decisivo para a configuração da responsabilidade, independentemente do regime aplicável ao desenvolvedor da tecnologia.

O nexo de causalidade, por sua vez, ocupa posição central na estrutura analítica da responsabilidade civil e apresenta desafios particularmente agudos no contexto da IA. Para além das teorias clássicas — equivalência das condições, causalidade adequada e dano direto e imediato —, a doutrina contemporânea tem explorado caminhos alternativos capazes de lidar com cadeias causais complexas e com a participação de múltiplos atores. A teoria da causalidade probabilística, por exemplo, admite a responsabilização proporcional ao grau de contribuição de cada agente para o resultado danoso, o que pode se revelar especialmente útil em casos envolvendo sistemas de IA treinados por múltiplos fornecedores de dados.

Verifica-se, ademais, que a opacidade algorítmica — o chamado "problema da caixa preta" — dificulta não apenas a identificação da causa do dano, mas também a própria compreensão do funcionamento interno do sistema responsável pelo resultado lesivo. Quando um modelo de linguagem de grande escala produz uma informação falsa que causa prejuízo a um indivíduo, ou quando um sistema de reconhecimento facial identifica erroneamente uma pessoa como suspeita de crime, a reconstrução do iter causal exige conhecimentos técnicos altamente especializados. Esse cenário fortalece o argumento em favor da inversão do ônus da prova nas relações de consumo envolvendo IA, em linha com o que já prevê o art. 6º, VIII, do Código de Defesa do Consumidor (Lei nº 8.078/1990).

A noção de imputação, por fim, adquire relevância autônoma quando se percebe que nem sempre o causador direto do dano é o mais adequado destinatário da obrigação reparatória. No campo da inteligência artificial, a imputação deve abranger critérios que contemplem os diversos atores envolvidos no ciclo de desenvolvimento e operação dos sistemas autônomos: desenvolvedores, fornecedores de dados, proprietários e operadores. Parece-nos que essa abordagem, ao reconhecer a complexidade das cadeias de responsabilidade, está em consonância com a tendência regulatória europeia expressa no AI Act (Regulamento UE 2024/1689), que adota justamente uma lógica de distribuição de deveres de acordo com o papel exercido por cada agente na cadeia de desenvolvimento e uso da tecnologia.

A separação metodológica entre nexo causal e nexo de imputação — que estrutura a análise dos capítulos seguintes — permite, portanto, enfrentar com maior rigor as questões práticas que emergem dos danos causados por sistemas de IA. Enquanto o primeiro estabelece a conexão factual entre a ação ou omissão e o resultado danoso, o segundo delimita os critérios normativos que atribuem responsabilidade, mesmo na ausência de conduta culposa direta. Essa distinção não é meramente acadêmica: ela tem consequências concretas sobre quem suportará os custos dos danos causados por uma tecnologia cada vez mais presente no cotidiano social e econômico.


Este artigo integra o Capítulo 2 da obra sobre Responsabilidade Civil e Inteligência Artificial, de Alessandro Lavorante.

Responsabilidade CivilElementosIA

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.