Voltar ao Blog
Responsabilidade CivilCapítulo 2

A Conduta Humana Ilícita ou Antijurídica: Dimensões Contemporâneas

Dimensões contemporâneas da antijuridicidade em IA: viés algorítmico, excludentes de ilicitude e art. 188 do Código Civil sob perspectiva doutrinária e regulatória.

Alessandro Lavorante 18 de agosto de 2024 5 min de leitura

O desenvolvimento de sistemas de inteligência artificial levanta questões que desafiam os contornos tradicionais da antijuridicidade — categoria jurídica que, em sua formulação clássica, pressupõe uma conduta humana individual, identificável e temporalmente localizada. As dimensões contemporâneas do fenômeno revelam que a antijuridicidade nos sistemas de IA pode ser difusa, gradual e distribuída entre múltiplos agentes, exigindo da doutrina e do legislador uma capacidade de adaptação que vai além da mera aplicação analógica das categorias existentes.

Tome-se o caso dos sistemas de apoio à decisão em saúde. Uma rede neural treinada para detectar patologias em imagens de ressonância magnética pode apresentar desempenho diferenciado conforme a origem étnica do paciente, caso os dados de treinamento não sejam suficientemente representativos da diversidade populacional. O desenvolvedor que lança esse sistema sem conduzir os testes de equidade necessários incorre em conduta antijurídica — não porque tenha agido com dolo, mas porque a ausência de uma conduta adequada no dever de prevenir consequências lesivas constitui, por si mesma, omissão juridicamente reprovável. Desenvolver um sistema isento de viés não é apenas uma aspiração técnica: é uma conduta ativa exigível do desenvolvedor. Se o sistema falha nesse aspecto, manifestando discriminação, o problema não se reduz a um simples erro técnico — reflete a ausência de uma conduta adequada do agente humano.

Da mesma forma, em sistemas de apoio ao diagnóstico médico baseados em redes neurais que interpretam exames de imagem, o desenvolvedor assume o dever de assegurar que o sistema opere dentro de padrões técnicos precisos e eticamente apropriados. Aqui, a responsabilidade não se limita à configuração inicial, mas abrange a adaptação contínua e a supervisão das funcionalidades críticas — como a capacidade do sistema de reconhecer quando um diagnóstico ultrapassa os limites de precisão programados, sinalizando ao médico a necessidade de revisão independente. Nesse contexto, a conduta do desenvolvedor não é meramente acessória: é uma manifestação deliberada de expertise técnica e ética que, ao se materializar no comportamento do sistema, cria a possibilidade de responsabilização pelos danos que dele decorrem.

A escolha ativa de padrões técnicos e limites do sistema, de forma consciente e intencional, é o que diferencia a conduta humana do desenvolvedor de um fato natural. Essa diferença é crucial: enquanto um terremoto não gera responsabilidade civil por ser evento da natureza, a decisão algorítmica que nega um crédito indevidamente é o resultado de escolhas humanas — sobre quais dados usar, que pesos atribuir a cada variável, quais objetivos otimizar — e, portanto, inscreve-se na esfera dos atos passíveis de responsabilidade civil. O AI Act europeu (Regulamento UE 2024/1689) reconhece explicitamente essa lógica ao exigir, para sistemas de IA de alto risco, documentação detalhada das escolhas de design e dos conjuntos de dados utilizados no treinamento — o que, no plano da responsabilidade civil, equivale a tornar rastreável a conduta do desenvolvedor.

Verificou-se que estabelecer o perfil dogmático do ato ilícito implica reconhecer também que, embora a regra geral do ordenamento seja não permitir a causação de danos, existem circunstâncias específicas em que determinado fato, mesmo violando direito e gerando prejuízo, pode mostrar-se justificável. Nesses casos, afasta-se a qualificação do ato como ilícito porque, nas palavras de Bruno Miragem, "trata-se de evento que torna permitida a causação de um dano, excepcionando o sentido do ordenamento jurídico que tem como regra geral não permitir danos" (Responsabilidade Civil, 2020, p. 87).

Assim, logo após a verificação de ilicitude ou antijuridicidade em determinada conduta, surge a possibilidade, pelo agente tido como causador do dano, de oposição de justificativas — as chamadas causas de justificação ou excludentes de ilicitude. Em matéria de responsabilidade civil, o sistema brasileiro prevê, no art. 188 do Código Civil, algumas hipóteses: a legítima defesa, o exercício regular de um direito reconhecido e o estado de necessidade. Poder-se-ia questionar se essas categorias têm aplicabilidade no contexto de sistemas de IA — e a resposta, embora não imediata, é positiva.

Imagine-se um sistema de IA de segurança cibernética que, ao detectar um ataque iminente, bloqueia automaticamente conexões de rede, incluindo algumas legítimas, para conter a ameaça. Há aqui uma situação análoga ao estado de necessidade: o dano a interesses legítimos (conexões bloqueadas) é causado para evitar mal maior (comprometimento do sistema). O art. 188, II, do Código Civil prevê que não constitui ato ilícito "a deterioração ou destruição da coisa alheia, ou a lesão a pessoa, a fim de remover perigo iminente". A aplicação dessa excludente a sistemas autônomos exige, contudo, que se demonstre que a "decisão" do sistema refletia uma escolha de design previamente autorizada pelos seus responsáveis — o que retorna, uma vez mais, ao agente humano como ponto de imputação.

Cabe ressaltar que a discussão sobre excludentes de ilicitude no contexto da IA não é meramente teórica. O PL 2.338/2023, em seu art. 4º, prevê que os sistemas de IA devem ser desenvolvidos e utilizados com respeito a direitos fundamentais, incluindo a proibição de discriminação. Esse mandato implica que a conduta do desenvolvedor que não adota medidas razoáveis de mitigação de viés não pode ser justificada por mero argumento de complexidade técnica ou custo econômico — limitações que, em outros contextos, poderiam atenuar a reprovabilidade da conduta, mas que, diante da magnitude dos danos potenciais e da assimetria de poder entre desenvolvedor e usuário, perdem força justificativa.

As dimensões contemporâneas da antijuridicidade nos sistemas de IA revelam, em síntese, que o direito deve operar com uma concepção dinâmica e distribuída de conduta: não mais localizada em um único agente, em um único momento, mas distribuída ao longo de toda a cadeia de desenvolvimento e uso do sistema, identificável por seus efeitos e avaliável pelo critério da conduta esperada de um agente diligente, técnica e eticamente responsável. Esse é o horizonte normativo para o qual apontam tanto a doutrina brasileira mais atualizada quanto as iniciativas regulatórias europeia e nacional.

Conduta IlícitaAntijuridicidadeCulpa

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.