Voltar ao Blog
Responsabilidade CivilCapítulo 2

A Conduta Humana Ilícita ou Antijurídica: Análise Aprofundada

Análise aprofundada da ilicitude e antijuridicidade da conduta humana na responsabilidade civil por danos causados por sistemas de inteligência artificial.

Alessandro Lavorante 29 de julho de 2024 5 min de leitura

No âmbito da responsabilidade civil, o dever de indenizar emerge, em geral, do descumprimento de um dever jurídico preexistente. Ainda assim, há situações em que esse dever pode provir de atos formalmente lícitos, como se observa no art. 929 do Código Civil (Lei nº 10.406/2002), que prevê indenização mesmo quando a lesão decorre de estado de necessidade — situação em que o lesante age licitamente para remover perigo iminente, mas nem por isso perde a vítima inocente o direito à reparação. Essas exceções, previstas taxativamente em lei, confirmam a regra geral de que a ilicitude da conduta é o fundamento ordinário do dever de reparar.

Nesse contexto, conforme o magistério de Fernando Noronha, a ilicitude e a antijuridicidade coexistem como eixos interpretativos de funções distintas: enquanto a ilicitude, em sentido estrito, se liga à violação de uma norma proibitiva específica do ordenamento positivo, a antijuridicidade pode abranger atos que, sem serem formalmente ilícitos, ofendem princípios fundamentais do Direito e da convivência social. A antijuridicidade constitui, portanto, categoria mais ampla: inclui comportamentos que transgridem valores essenciais do ordenamento mesmo que não infrinjam diretamente uma regra positivada, ao passo que a ilicitude stricto sensu depende de infração explícita a norma proibitiva.

Essa distinção tem implicações práticas relevantes no campo da inteligência artificial. A teoria contemporânea da responsabilidade civil concebe tanto o descumprimento de deveres expressamente previstos quanto a ofensa a valores essenciais como motivos suficientes para o surgimento do dever de indenizar. Tal ampliação justifica, por exemplo, as situações em que o desenvolvedor de IA age de acordo com os padrões técnicos mínimos vigentes mas, ainda assim, gera prejuízos expressivos por falhar na adoção de práticas éticas ou de diligência superior àquela que o estado da arte permitiria. Em todos os cenários, entretanto, mantém-se o foco na conduta de um ser humano: é deste que se pode exigir a compreensão de princípios e o ajuste de suas ações a valores como boa-fé e bons costumes.

Verifica-se que os bons costumes também podem ser violados por abuso de direito, conforme dispõe o art. 187 do Código Civil, segundo o qual "também comete ato ilícito o titular de um direito que, ao exercê-lo, excede manifestamente os limites impostos pelo seu fim econômico ou social, pela boa-fé ou pelos bons costumes". O abuso de direito, assim como as demais cláusulas gerais de responsabilidade objetiva inscritas no Código Civil de 2002 — principalmente o risco da atividade do art. 927 e o risco do empreendimento do art. 931 — será abordado no capítulo seguinte deste trabalho, em conjunto com as teorias do risco.

No contexto específico da inteligência artificial, a conduta humana permanece o ponto central da responsabilidade civil, ainda que os efeitos do funcionamento dos algoritmos e dispositivos automatizados ganhem relevância crescente. Reafirma-se a premissa metodológica de que a IA deve ser tratada exclusivamente como categoria de software, de modo que as implicações de responsabilidade civil emergem não a partir de uma suposta agência autônoma da máquina, mas dos atos humanos de programação, disponibilização comercial ou pública, treinamento e uso do sistema.

Poder-se-ia objetar que essa premissa ignoraria a real autonomia dos sistemas modernos de aprendizado profundo, cujos comportamentos em produção podem diferir substancialmente das intenções dos programadores originais. Essa objeção é tecnicamente pertinente, mas juridicamente insuficiente para justificar a criação de uma categoria de sujeito de direito para a IA. A solução para a distância entre a programação inicial e o comportamento em produção não é a personificação do sistema, mas a identificação dos deveres humanos — de monitoramento, atualização, desativação ou substituição — cujo descumprimento configura a omissão antijurídica relevante. A pergunta correta não é "o que a máquina decidiu?", mas "qual ser humano tinha o dever de evitar esse resultado e não agiu?".

Cabe ressaltar que essa abordagem é coerente com o enquadramento adotado pelo Parlamento Europeu na Resolução de 2017 sobre robótica, que situou a responsabilidade no agente humano capaz de "prever e evitar o comportamento lesivo" do sistema. O AI Act (Regulamento UE 2024/1689) avança nessa direção ao impor deveres específicos e progressivos de supervisão humana conforme o nível de risco classificado para cada sistema, estabelecendo assim os parâmetros objetivos a partir dos quais se pode identificar a omissão do agente.

No âmbito do Projeto de Lei nº 2.338/23, em tramitação no Brasil após aprovação no Senado Federal, é possível identificar essa mesma lógica. O projeto impõe aos agentes responsáveis por sistemas de IA deveres de transparência, gestão de riscos e proteção de dados desde a concepção, cuja violação configurará, no plano civil, a conduta antijurídica apta a fundamentar o dever de reparar. Verifica-se, assim, que tanto a perspectiva europeia quanto a brasileira convergem para um modelo em que a conduta humana — e especialmente a omissão humana — é o verdadeiro eixo de imputação da responsabilidade civil no campo da IA.

A análise da ilicitude e da antijuridicidade da conduta no campo da IA exige, portanto, que o jurista mantenha o foco nas escolhas humanas que permeiam todas as etapas do ciclo de vida de um sistema autônomo: a escolha de quais dados utilizar no treinamento, a decisão de colocar o sistema em operação sem testes suficientes, a omissão no monitoramento dos resultados em produção, a relutância em corrigir falhas identificadas por usuários ou por auditorias externas. Em cada uma dessas etapas, há uma conduta humana — ativa ou omissiva — que pode, à luz das circunstâncias, caracterizar ilicitude ou antijuridicidade suficiente para fundamentar o dever de reparar os danos causados.


Este artigo integra o Capítulo 2 da obra sobre Responsabilidade Civil e Inteligência Artificial, de Alessandro Lavorante.

Conduta IlícitaAntijuridicidadeCulpa

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.