Voltar ao Blog
Responsabilidade CivilCapítulo 2

A Conduta Humana Ilícita ou Antijurídica: Conceitos Fundamentais

Conceitos fundamentais da antijuridicidade aplicados à IA: anormalidade do fato, padrão objetivo de conduta, responsabilidade por algoritmos de trading e violação de dados sob o Código Civil.

Alessandro Lavorante 1 de setembro de 2024 6 min de leitura

O Padrão Objetivo de Conduta como Fundamento da Antijuridicidade

A compreensão dos conceitos fundamentais da antijuridicidade no campo da inteligência artificial exige, preliminarmente, a superação de um equívoco frequente: o de que a ausência de consciência e de vontade nos sistemas de IA tornaria inaplicáveis as categorias tradicionais da responsabilidade civil. Verificou-se, ao contrário, que o direito dispõe de instrumentos conceituais suficientes para lidar com os danos produzidos por sistemas autônomos, desde que esses instrumentos sejam aplicados a partir de padrões objetivos de conduta — e não a partir da investigação da intenção subjetiva da máquina, que seria logicamente impossível.

O conceito central que emerge da doutrina comparada para enfrentar esse desafio é o da "anormalidade do fato" (l'anormalité du fait de l'IA): a responsabilidade é atribuída quando os resultados produzidos pela IA divergem do comportamento que seria razoavelmente esperado de dispositivos semelhantes. Não se avalia a IA em comparação ao ser humano, mas sim em relação ao padrão de uma IA de mesma natureza e funcionalidade. Esse critério apresenta nítida afinidade com o conceito de defeito de produto e serviço previsto no Código de Defesa do Consumidor: nos termos do art. 12, § 1º, o produto é defeituoso quando não oferece a segurança que dele legitimamente se espera, levando em conta, entre outros fatores, o uso e os riscos que razoavelmente dele se esperam.

Anormalidade, Trading Algorítmico e Violação de Dados

Para tornar esse conceito mais concreto, a doutrina francesa utiliza o exemplo dos sistemas de trading financeiro. Um algoritmo que exceda os limites normativos estabelecidos — seja pelos reguladores do mercado de capitais, seja pelos parâmetros internos de risco da instituição financeira — apresenta um comportamento anormal que enseja responsabilidade dos atores humanos que o conceberam e operam. A anormalidade, aqui, não é aferida em comparação ao que um operador humano teria feito, mas em relação ao que se espera de um sistema de trading automatizado bem projetado e devidamente supervisionado.

Sugere-se também uma perspectiva mais ambiciosa, segundo a qual a anormalidade se verificaria diretamente a partir do dano sofrido pela vítima: a IA geraria responsabilidade quando fosse anormal que a vítima suportasse o prejuízo. Para tais situações, cláusulas gerais poderiam prever que qualquer ato de IA que, se praticado por um ser humano, seria considerado culposo, deve igualmente gerar responsabilização. Isso se aplicaria, por exemplo, à emissão de informações enganosas por um algoritmo de recomendação de conteúdo ou à violação de dados pessoais por um sistema de análise de comportamento. Essa perspectiva dialoga diretamente com o art. 187 do Código Civil brasileiro, que considera ato ilícito o exercício de direito que excede manifestamente os limites impostos pela boa-fé, pelos bons costumes ou pela função social do direito.

Antijuridicidade e Violação de Deveres Legais Específicos

Cabe ressaltar que a antijuridicidade da conduta em contextos de IA não se esgota na violação de um padrão abstrato de normalidade. Em muitos casos, ela se manifesta de forma mais direta e objetiva: como violação de deveres legais específicos impostos pelo ordenamento jurídico a determinados atores da cadeia de desenvolvimento e operação de sistemas autônomos. A LGPD, por exemplo, impõe ao controlador de dados pessoais deveres concretos de segurança, transparência, minimização de dados e respeito à finalidade declarada para o tratamento. A violação de qualquer desses deveres constitui, por si só, conduta antijurídica apta a gerar o dever de indenizar, nos termos do art. 42 da LGPD, independentemente da demonstração de culpa subjetiva.

No mesmo sentido, o Marco Civil da Internet (Lei nº 12.965/2014) impõe deveres específicos aos provedores de aplicações de internet: dever de remoção de conteúdo mediante ordem judicial, dever de guarda de registros de acesso, dever de transparência nas políticas de moderação de conteúdo. A violação dessas obrigações legais constitui conduta antijurídica no sentido mais estrito do termo — não porque o comportamento seja moralmente reprovável, mas porque contraria expressamente uma norma jurídica que o proibiu. O Código Civil, em seu art. 186, consagra exatamente essa modalidade de ilicitude: "aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito".

A Responsabilidade Objetiva e o Conceito de Atividade de Risco

Além da responsabilidade subjetiva fundada na violação de dever legal específico, o ordenamento jurídico brasileiro prevê, na cláusula geral do parágrafo único do art. 927 do Código Civil, uma forma de responsabilidade objetiva fundada no conceito de "atividade normalmente desenvolvida" que "implica, por sua natureza, risco para os direitos de outrem". A questão que a doutrina tem debatido, com crescente intensidade, é se o desenvolvimento e a operação de sistemas de inteligência artificial de alto risco se enquadram nessa categoria de atividades perigosas que justificam a responsabilização objetiva.

Parece-nos que a resposta afirmativa é a mais coerente com a racionalidade subjacente à cláusula geral de risco. O desenvolvimento de um sistema de reconhecimento facial usado para controle de acesso a locais públicos, de um algoritmo de triagem de candidatos para emprego ou de uma IA de diagnóstico médico são atividades que, por sua natureza e pelo potencial de impacto sobre direitos fundamentais das pessoas afetadas, criam riscos que justificam a responsabilização objetiva dos agentes que as desenvolvem e operam. Essa perspectiva é consistente com a abordagem do AI Act europeu, que classifica exatamente essas categorias de sistemas como de alto risco e impõe a elas obrigações reforçadas de conformidade.

Conceitos Fundamentais na Intersecção entre Direito e Tecnologia

A análise dos conceitos fundamentais da antijuridicidade aplicados à inteligência artificial revela, portanto, uma estrutura analítica de três camadas. Na primeira, encontra-se a antijuridicidade formal: a violação de norma legal específica — seja do Código Civil, seja da LGPD, seja do Marco Civil da Internet, seja do futuro marco regulatório da IA. Na segunda, a antijuridicidade material: o desvio do padrão objetivo de conduta esperado para sistemas de IA semelhantes, operando nas mesmas condições e voltados às mesmas finalidades. Na terceira, a antijuridicidade pelo risco: a responsabilidade objetiva que decorre não da violação de norma específica, mas da natureza perigosa da atividade desenvolvida.

Verificou-se que essas três camadas não se excluem: um mesmo caso de dano causado por sistema de IA pode envolver simultaneamente a violação de norma legal específica, o desvio do padrão de normalidade esperado e o exercício de atividade de alto risco. A construção de um sistema de responsabilidade civil adequado para a era da inteligência artificial passa, necessariamente, pela compreensão clara dessas três dimensões e pela habilidade de identificar, em cada caso concreto, qual ou quais delas estão presentes. Essa tarefa, que compete primordialmente ao Poder Judiciário e às autoridades regulatórias, exige formação técnica multidisciplinar e disposição para adaptar os conceitos jurídicos tradicionais às especificidades de um ambiente tecnológico em permanente transformação.

Conduta IlícitaAntijuridicidadeCulpa

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.