Voltar ao Blog
Responsabilidade CivilCapítulo 2

A Conduta Humana Ilícita ou Antijurídica: Conceitos Fundamentais

Conceitos fundamentais da conduta humana ilícita e antijurídica na responsabilidade civil, com análise do papel de programadores, operadores e usuários de IA.

Alessandro Lavorante 27 de julho de 2024 5 min de leitura

A responsabilidade civil, enquanto princípio de reparação de danos, estrutura-se fundamentalmente na voluntariedade da conduta humana e na capacidade de imputar efeitos jurídicos aos atos praticados. A distinção entre fatos naturais e fatos voluntários delimita o alcance do Direito, que incide apenas sobre eventos resultantes de condutas controladas — ao menos potencialmente — pela vontade do agente. Sérgio Cavalieri Filho ressalta que o Direito opera apenas quando os eventos correspondem a hipóteses normativas, sendo irrelevantes para o ordenamento aqueles que não envolvem uma ação ou omissão humana significativa. Nessa perspectiva, os fatos jurídicos podem ser naturais — fenômenos alheios à intervenção humana — ou voluntários, os quais se classificam em lícitos ou ilícitos conforme sua conformidade ou desconformidade com as normas do ordenamento.

Nesse sentido, a conduta pode surgir de diferentes fundamentos jurídicos: a prática de ato ilícito stricto sensu, a violação de deveres específicos de segurança ou garantia impostos por lei a quem desempenha atividades de risco, a assunção contratual de responsabilidade reparatória ou a violação de deveres especiais derivados de determinadas relações jurídicas — como a responsabilidade indireta atribuída aos pais pelos atos de seus filhos menores. O ordenamento jurídico brasileiro reconhece, além da responsabilidade por ato próprio, a responsabilidade indireta por atos de terceiros, animais ou coisas, conforme preveem os arts. 932, 936, 937 e 938 do Código Civil (Lei nº 10.406/2002). Cabe ressaltar que, mesmo nas hipóteses de responsabilidade indireta, sempre existe uma conduta humana na gênese do evento danoso, seja pela omissão direta ou por falha nos deveres de guarda e vigilância.

A investigação sobre como e em que medida programadores, usuários, empresas ou profissionais liberais que interagem com sistemas de IA podem ser responsabilizados — seja por falha no projeto, omissão na supervisão ou uso indevido — pressupõe, portanto, a compreensão de que a conduta humana permanece o elemento central da responsabilidade civil, ainda que os efeitos do funcionamento de algoritmos e dispositivos automatizados ganhem relevância crescente. A premissa metodológica que se adota é a de que a IA constitui exclusivamente uma categoria de software: suas implicações de responsabilidade emergem não de uma agência autônoma da máquina, mas dos atos humanos de programação, disponibilização comercial, treinamento e uso.

Essa delimitação evita especulações infrutíferas e facilita a análise objetiva dos fatos, tratando de elementos nos quais o envolvimento humano é o agente essencial na configuração de possíveis danos a terceiros. Em casos envolvendo robôs ou veículos autônomos, a causação do dano decorre sempre da programação, do uso ou das falhas de supervisão por parte de seres humanos. Eduardo Tomasevicius Filho lembra, com precisão, que responsabilizar a própria máquina seria tão absurdo quanto os históricos julgamentos de animais em séculos passados, quando eram tomados como "réus" em processos formais. A inteligência artificial, destituída de vontade ou sensibilidade ética, não pode ser tida como imputável; não há, sequer, espaço para o elemento subjetivo da culpa em relação à própria máquina, pois esta não possui condições de compreender a extensão ou a ilicitude de seus atos.

A questão que genuinamente desafia a doutrina não é a da personalidade jurídica da IA — cuja negativa parece-nos incontroversa diante do atual estado do Direito e da técnica —, mas a de como distribuir, entre os múltiplos agentes humanos envolvidos no ciclo de vida de um sistema autônomo, a responsabilidade pelos danos que esse sistema venha a causar. A resposta a essa questão começa, necessariamente, pela identificação e pela qualificação jurídica das condutas — ativas ou omissivas — que cada um desses agentes praticou ou deixou de praticar em relação ao sistema.

Nesse quadro, a responsabilidade indireta assume relevância particular. Os pais respondem pelos filhos menores não porque tenham praticado diretamente o ato lesivo, mas porque tinham o dever de guarda e vigilância e falharam no seu cumprimento. De forma análoga, o operador de um sistema de IA que causa danos a terceiros pode responder não pelo resultado do sistema em si, mas pela omissão no cumprimento dos deveres de monitoramento, atualização e controle que lhe incumbiam. Parece-nos que essa analogia, embora imperfeita, é mais produtiva do que a tentativa de construir uma categoria jurídica inteiramente nova para a IA, ao menos enquanto o ordenamento não disciplinar especificamente a matéria.

A entrada em vigor do AI Act (Regulamento UE 2024/1689) e o avanço do Projeto de Lei nº 2.338/23 no Brasil sinalizam que a tendência regulatória é justamente a de especificar e distribuir deveres ao longo da cadeia de desenvolvimento e operação dos sistemas de IA, criando parâmetros objetivos para a identificação das omissões antijurídicas relevantes. Até que esse marco normativo específico se consolide no ordenamento brasileiro, os instrumentos gerais da responsabilidade civil — a conduta antijurídica, o dano, o nexo causal e o nexo de imputação — continuam sendo o principal recurso à disposição do jurista para enfrentar os casos concretos que se apresentam.

Cabe ressaltar, por fim, que a responsabilidade indireta é um ponto de grande e rico debate envolvendo os danos causados por decisões autônomas de sistemas de IA, comportando diferentes teorias que defendem maior ou menor flexibilização da responsabilidade objetiva no tema. Esse debate será retomado e aprofundado no capítulo seguinte, à luz das diversas teorias do risco que podem fundamentar a responsabilização dos agentes envolvidos.


Este artigo integra o Capítulo 2 da obra sobre Responsabilidade Civil e Inteligência Artificial, de Alessandro Lavorante.

Conduta IlícitaAntijuridicidadeCulpa

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.