Voltar ao Blog
Responsabilidade CivilCapítulo 2

Elementos de Responsabilidade Civil e Relações com a IA: Aplicações e Implicações

Como dano, nexo causal e imputação se aplicam na prática aos sistemas de IA, com análise das teorias causais e dos desafios da responsabilização no Brasil e na UE.

Alessandro Lavorante 25 de julho de 2024 5 min de leitura

O dano constitui elemento autônomo e indispensável da responsabilidade civil, representando o prejuízo concreto que justifica a exigência de reparação. Sem a materialização do dano, inexiste razão para a obrigação de indenizar, sendo ele a peça central em torno da qual toda a estrutura reparatória se organiza. No contexto dos sistemas de inteligência artificial, a identificação e a delimitação do dano assumem complexidade adicional, uma vez que as formas pelas quais esses sistemas podem lesar interesses individuais e coletivos são inúmeras, algumas delas ainda sem correspondente preciso na tipologia tradicional do dano civil.

Embora, metodologicamente, o dano como elemento isolado da responsabilidade civil receba menos espaço nesta análise do que a conduta antijurídica e o nexo de causalidade, toda a investigação sobre os danos causados por sistemas de IA é, em última análise, uma exploração de suas múltiplas variáveis e extensões. Os exemplos são eloquentes: um sistema de reconhecimento facial que identifica erroneamente uma pessoa como suspeita de um crime gera dano moral direto ao identificado e, potencialmente, dano coletivo à confiança nas instituições de segurança pública; um algoritmo de concessão de crédito que perpetua vieses raciais ou de gênero causa dano patrimonial aos indivíduos discriminados e dano difuso ao princípio constitucional de igualdade; um chatbot médico que fornece informações clinicamente incorretas a um paciente em situação de vulnerabilidade pode resultar em danos à saúde de consequências graves e, por vezes, irreversíveis.

O nexo de causalidade, por sua vez, estabelece o liame entre a conduta antijurídica e o dano sofrido pela vítima. Sem essa relação de causa e efeito demonstrada, torna-se inviável atribuir responsabilidade a determinado agente, já que a conduta em questão pode não ter contribuído de maneira relevante para o resultado danoso. Nesse ponto, as três teorias clássicas disponíveis na doutrina oferecem instrumentos distintos para o trabalho de identificação causal. A teoria da equivalência das condições — segundo a qual toda condição que contribuiu para o resultado é considerada causa —, embora abrangente, pode levar a conclusões excessivamente dilatadas quando aplicada a sistemas de IA treinados por centenas de agentes ao longo de anos. A teoria da causalidade adequada — que elege como causa aquela que, segundo um juízo de probabilidade, era a mais apta a produzir o resultado —, apresenta maior utilidade prática, mas exige conhecimento técnico especializado para determinar, entre os múltiplos fatores envolvidos, qual deles era o mais adequado a produzir o dano ocorrido.

A teoria do dano direto e imediato, adotada pelo Código Civil brasileiro como critério geral no art. 403, exige que o dano seja consequência direta e imediata da inexecução do dever jurídico. No contexto da IA, essa teoria pode apresentar limitações quando o dano é produto de uma cadeia de decisões autônomas encadeadas pelo próprio sistema ao longo do tempo, sem que nenhum ato humano individual seja identificável como causa próxima do resultado. Verificou-se, por isso, que a doutrina contemporânea tem desenvolvido abordagens complementares, como a causalidade probabilística e a responsabilização proporcional ao grau de contribuição de cada agente, capazes de lidar com a natureza distribuída e difusa da causação de danos em sistemas complexos.

No contexto dos sistemas de IA, a relevância do nexo de causalidade se intensifica porque a identificação de qual componente — ou qual agente humano — efetivamente deu causa ao dano é dificultada por modelos algorítmicos complexos e pela atuação conjunta de múltiplos atores: desenvolvedores do modelo base, fornecedores de dados de treinamento, integradores que adaptaram o sistema a casos de uso específicos, proprietários da infraestrutura de computação e operadores finais. Cada um desses agentes exerce influência sobre o comportamento do sistema, mas nenhum deles controla inteiramente seus resultados. Essa realidade desafia a ideia de que o nexo causal pode ser reconstruído com o mesmo grau de linearidade que se exige em situações de dano causado diretamente por uma pessoa física.

Parece-nos que a investigação sobre os danos causados por IA recairá, de forma crescente, sobre a conduta humana que permeia todas as etapas do ciclo de vida desses sistemas. À primeira vista, poderia parecer sedutora a atribuição de personalidade jurídica aos sistemas autônomos e a sua responsabilização direta. Contudo, a tradição jurídica e o exame cuidadoso da literatura especializada demonstram que não faz sentido imputar culpa ou consciência ética a uma máquina. A inteligência artificial, destituída de vontade e de sensibilidade ética, não pode ser tida como imputável — trata-se, em última instância, de código e software. As normas de responsabilidade civil pressupõem a existência de uma pessoa a quem se possa imputar a obrigação de indenizar, razão pela qual a responsabilidade por danos causados por IA estará, em princípio, limitada aos casos em que a causa subjacente à ação ou omissão do sistema pode ser atribuída a um agente humano específico.

Essa posição foi, de certa forma, antecipada pela Resolução do Parlamento Europeu de 16 de fevereiro de 2017 sobre disposições de Direito Civil referentes à robótica, que admite a responsabilização humana pela IA nos casos em que o agente "podia ter previsto e evitado o comportamento lesivo". O AI Act (Regulamento UE 2024/1689), que entrou em vigor em 2024, avança nessa lógica ao impor deveres específicos de prevenção de riscos a cada categoria de agente da cadeia de IA, criando as bases normativas para a identificação das omissões antijurídicas relevantes para fins de responsabilidade civil.

As páginas seguintes desta obra analisam, com esse enquadramento em mente, os elementos estruturantes da responsabilidade civil, começando pela conduta humana e seus desdobramentos no universo da IA. A convicção subjacente a toda a análise é a de que os instrumentos jurídicos disponíveis, adequadamente reinterpretados, são capazes de oferecer respostas satisfatórias à maior parte dos casos que já se apresentam aos tribunais e aos que certamente se multiplicarão nos próximos anos.


Este artigo integra o Capítulo 2 da obra sobre Responsabilidade Civil e Inteligência Artificial, de Alessandro Lavorante.

Responsabilidade CivilElementosIA

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.