Voltar ao Blog
Responsabilidade CivilCapítulo 2

Elementos de Responsabilidade Civil e Relações com a IA: Aspectos Práticos

Como os pressupostos práticos da responsabilidade civil — imputação, culpa e nexo causal — se aplicam a danos provocados por sistemas de inteligência artificial.

Alessandro Lavorante 20 de julho de 2024 6 min de leitura

A aplicação prática dos elementos da responsabilidade civil ao universo da inteligência artificial demanda, em primeiro lugar, o reconhecimento de que os conceitos tradicionais foram elaborados tendo em vista relações entre seres humanos capazes de compreender e controlar suas ações. Quando se introduz na equação um sistema capaz de aprender de maneira autônoma e de produzir resultados que fogem às antecipações de seus próprios criadores, a estrutura analítica clássica começa a apresentar lacunas. Não se trata, contudo, de abandonar os pressupostos estabelecidos pelo ordenamento jurídico, mas de reinterpretá-los à luz das peculiaridades tecnológicas e dos valores que o Direito é chamado a proteger.

A questão da culpa e seus elementos constitutivos mostra-se imprescindível para abordar a imputação de responsabilidade civil derivada de ações autônomas de sistemas de IA em, ao menos, quatro dimensões práticas: (i) para evidenciar as dificuldades trazidas pela opacidade de muitos desses sistemas, que impedem a reconstrução do iter decisório interno; (ii) para analisar a responsabilidade dos profissionais liberais e dos agentes públicos que interagem diretamente com essas tecnologias; (iii) pela sua relevância na análise dos danos entre particulares e nas hipóteses de responsabilidade regressiva; e (iv) para ilustrar, de forma didática, a passagem dos regimes subjetivos para os objetivos por meio das teorias do risco.

A noção de imputabilidade, por sua vez, surge como tema de rico debate doutrinário. Pablo Stolze e Rodolfo Pamplona Filho fazem referência ao posicionamento de René Savatier, que considera a imputabilidade um elemento autônomo da responsabilidade civil. Esses autores, contudo, discordam dessa visão, argumentando que a imputabilidade já se encontra implícita nos pressupostos tradicionais — como se percebe, por exemplo, no caso clássico do menor absolutamente incapaz que, embora inimputável, gera responsabilidade por seus atos, a qual recairá sobre seu responsável legal. No contexto do presente trabalho, a opção por manter o nexo de imputação como elemento autônomo encontra justificativa específica: no campo da IA, a imputação deve contemplar critérios que abranjam os múltiplos atores envolvidos no ciclo de vida dos sistemas autônomos.

Verificou-se que um mesmo fato danoso pode, no universo da IA, comportar enquadramentos jurídicos simultaneamente aplicáveis e, por vezes, contraditórios em seus resultados práticos. Considere-se, por exemplo, o caso de um sistema de diagnóstico médico baseado em aprendizado profundo que indica, de maneira incorreta, a ausência de uma condição grave. Esse único evento pode ensejar: (a) responsabilidade civil objetiva do hospital pelo fato da coisa; (b) responsabilidade consumerista do desenvolvedor pelo defeito do produto, nos termos do art. 12 do Código de Defesa do Consumidor (Lei nº 8.078/1990); (c) responsabilidade subjetiva do médico por culpa profissional, caso tenha confiado irrestritamente no sistema sem exercer seu próprio julgamento clínico; e (d) responsabilidade do fornecedor dos dados de treinamento, caso os vieses presentes nesses dados tenham sido determinantes para o diagnóstico equivocado.

Essa pluralidade de regimes não é fortuita. Ela reflete a diversidade de relações jurídicas que se estabelecem em torno de um sistema de IA e a necessidade de que o ordenamento jurídico disponha de instrumentos capazes de atribuir a cada ator a parcela de responsabilidade proporcional ao seu grau de controle e ao seu proveito econômico. Parece-nos que uma abordagem que reduza todos esses cenários a um único regime — seja ele subjetivo ou objetivo — empobreceria inevitavelmente a análise e poderia tanto desonerar quem deveria responder quanto sobrecarregar agentes cuja contribuição causal foi marginal.

A separação metodológica entre nexo causal e nexo de imputação ganha sentido, precisamente, nesse contexto de complexidade. O nexo causal tradicional e seus desenvolvimentos — a teoria da equivalência das condições, a teoria da causalidade adequada e a do dano direto e imediato — atuam no plano fático, identificando quais condutas ou omissões contribuíram materialmente para o resultado danoso. O nexo de imputação, por sua vez, opera no plano normativo, definindo quais atores devem, à luz do ordenamento jurídico e das políticas públicas subjacentes, responder pelos danos identificados, ainda que não tenham sido os causadores diretos.

Cabe ressaltar que a conduta antijurídica — seja ela ativa ou omissiva — constitui o ponto de partida nas discussões sobre responsabilidade civil no contexto da IA, uma vez que a violação de um dever jurídico preexistente fundamenta a exigência de reparação. A escolha metodológica de tratar da omissão ainda no estudo da ilicitude — e não apenas no nexo de causalidade ou na responsabilidade subjetiva — decorre de uma observação empírica relevante: no universo das tecnologias digitais, não são as grandes decisões expressas que, com maior frequência, potencializam riscos e geram danos significativos, mas as falhas, lacunas e negligências no desenvolvimento, monitoramento ou correção desses sistemas. A ideia da quebra de um comportamento esperado — comissivo ou omissivo — como elemento configurador da antijuridicidade sobrepõe-se, nessa perspectiva, às análises posteriores de culpa ou de assunção de riscos.

O dano, elemento autônomo e indispensável da responsabilidade civil, representa o prejuízo concreto que justifica a exigência de reparação. Sem a materialização do dano, inexiste razão para a obrigação de indenizar. Embora, metodologicamente, dedique-se menos espaço à conceituação do dano como elemento isolado — uma vez que toda a análise subsequente dos danos causados por sistemas de IA constitui, em última análise, uma investigação sobre as suas múltiplas variáveis e extensões —, cabe registrar que a identificação do dano na seara da IA apresenta desafios específicos: danos à privacidade decorrentes de violações de dados, danos reputacionais provocados por deepfakes, danos patrimoniais resultantes de decisões algorítmicas discriminatórias e danos difusos causados por sistemas de desinformação em larga escala são apenas alguns exemplos da extensão do problema.

A prática jurídica, portanto, exigirá do operador do Direito não apenas o domínio dos institutos clássicos da responsabilidade civil, mas também uma compreensão suficiente do funcionamento técnico dos sistemas de IA para que seja possível identificar, em cada caso concreto, quais elementos da cadeia de desenvolvimento e operação contribuíram para o resultado danoso e de que forma os pressupostos do dever de indenizar se configuram diante da realidade tecnológica envolvida.


Este artigo integra o Capítulo 2 da obra sobre Responsabilidade Civil e Inteligência Artificial, de Alessandro Lavorante.

Responsabilidade CivilElementosIA

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.