Voltar ao Blog
Responsabilidade CivilCapítulo 2

A Conduta Humana Ilícita ou Antijurídica: Questões Emergentes

Análise das causas de exclusão da ilicitude — legítima defesa, estado de necessidade e exercício regular de direito — aplicadas a sistemas de inteligência artificial sob o Código Civil.

Alessandro Lavorante 20 de agosto de 2024 7 min de leitura

As Causas de Justificação e o Problema da Ilicitude

Entre as questões mais instigantes da responsabilidade civil contemporânea encontra-se a delimitação das chamadas causas de justificação — aquelas circunstâncias que, verificadas no caso concreto, afastam a qualificação da conduta como ilícita e, em determinadas hipóteses, o próprio dever de indenizar. O Código Civil brasileiro de 2002 prevê, em seu art. 188, três hipóteses expressas: a legítima defesa, o exercício regular de um direito reconhecido e o estado de necessidade (denominado pelo legislador civil como "remoção de perigo iminente"). Cabe ressaltar que essas categorias, embora tradicionais, suscitam questões emergentes de grande complexidade quando transpostas para cenários envolvendo inteligência artificial.

Verificou-se que as causas de justificação se dividem, quanto aos seus efeitos, em dois grupos distintos. De um lado, há aquelas que excluem, de forma absoluta, tanto a ilicitude quanto o dever de indenizar — como ocorre com a legítima defesa e com o exercício regular de um direito reconhecido. De outro, há aquelas cuja incidência, embora afaste a ilicitude, não elimina necessariamente o dever de reparar: é o que ocorre com a remoção de perigo iminente, em que subsiste a obrigação de indenizar por parte de quem deu causa ao perigo (art. 929 do Código Civil). Essa distinção, aparentemente técnica, tem reflexos práticos consideráveis, especialmente em contextos tecnológicos em que os danos colaterais podem ser de grande magnitude.

Legítima Defesa: Requisitos e Limites

A legítima defesa, prevista no art. 188, I, primeira parte, do Código Civil — e correspondente ao art. 23, II, e ao art. 25 do Código Penal —, constitui causa de exclusão da ilicitude fundada na necessidade de repelir agressão injusta, atual ou iminente. A doutrina, com base em Bruno Miragem, aponta quatro requisitos para que a defesa seja considerada legítima: a agressão deve ser injusta; não pode ter sido voluntariamente provocada pelo agente que se defende; a reação deve ser exercida contra agressão atual ou iminente; e a atuação deve observar critérios de necessidade e proporcionalidade. O chamado excesso doloso ou culposo, previsto no parágrafo único do art. 23 do Código Penal, revela-se punível na esfera penal e, na esfera civil, descaracteriza a justificação, restituindo ao ato sua natureza ilícita e gerando responsabilidade civil.

Que questões emergem quando a legítima defesa é exercida, ou supostamente exercida, por um sistema autônomo de segurança? Imagine-se uma residência equipada com um dispositivo de inteligência artificial treinado para neutralizar invasores que tentem entrar sem autorização. Se o sistema, ao perceber um intruso armado, aciona mecanismos de autoproteção e provoca lesões no invasor para impedir a agressão, surge imediatamente a discussão sobre a legitimidade desse dano. Desde que o invasor se encontre em situação de injusta agressão — por exemplo, tentando atacar fisicamente o morador —, a conduta do sistema poderia ser enquadrada como legítima defesa, excluindo o dever de indenizar. No entanto, se o sistema emprega força excessiva, indo além do estritamente necessário para conter a ameaça, configura-se o excesso, que reativa a ilicitude e o dever de reparar.

O Problema da Imputação no Exercício Autônomo da Defesa

A questão que verdadeiramente complexifica o tema é a da imputação: quem responde pelo excesso cometido pelo sistema autônomo? Parece-nos que a resposta não pode ser dissociada da análise dos atos humanos que precederam o evento danoso. O desenvolvedor que programou o sistema com parâmetros de força desproporcional, o fabricante que o comercializou sem os devidos testes de segurança, o proprietário que o instalou sem a devida calibração — todos esses atores participaram, em alguma medida, da cadeia causal que conduziu ao dano. O AI Act europeu (Regulamento UE 2024/1689), ao classificar certos sistemas de segurança autônomos como de alto risco e exigir avaliações de conformidade rigorosas antes de sua colocação no mercado, aponta para essa lógica de responsabilização preventiva.

Cabe ressaltar que a discussão sobre o excesso nos sistemas autônomos não é meramente acadêmica. Casos envolvendo drones armados, sistemas de vigilância que tomam decisões de contenção física e veículos autônomos que priorizam a segurança de ocupantes em detrimento de terceiros já compõem a pauta de organismos regulatórios internacionais. No Brasil, o PL 2.338/2023 ainda não resolve de forma satisfatória a questão do excesso nos sistemas de segurança autônomos, lacuna que a regulamentação complementar deverá preencher.

Estado de Necessidade e Remoção de Perigo Iminente

O estado de necessidade, acolhido pelo art. 188, II, do Código Civil, autoriza o sacrifício de bem ou direito alheio quando tal medida seja indispensável para remover perigo iminente. Diferentemente da legítima defesa, essa causa de justificação não afasta completamente o dever de indenizar: nos termos do art. 929, a vítima do dano — que não provocou a situação de perigo — poderá exigir reparação daquele que causou o estado perigoso, ainda que a conduta do agente que atuou em necessidade seja considerada lícita.

No campo da IA, esse instituto ganha contornos especialmente relevantes em sistemas de gestão de infraestrutura crítica. Considere-se um software de gerenciamento inteligente de uma usina elétrica que, ao detectar risco real de superaquecimento em equipamentos, promove desligamentos emergenciais de setores industriais vizinhos, interrompendo o fornecimento de energia de modo drástico. Essa ação pode gerar prejuízos imediatos e significativos a empresas e equipamentos, mas evitaria uma catástrofe de proporções muito maiores. Desde que se comprove a efetiva iminência de um desastre, a medida extremada se legitimaria sob o art. 188, II. Contudo, se o sistema for acionado por um falso positivo — decorrente de sensores defeituosos ou de erros no modelo preditivo —, e causar colapso econômico sem que houvesse de fato perigo iminente, o prejuízo resultante deixaria de encontrar justificação, reabrindo integralmente a possibilidade de responsabilização.

Proporcionalidade, Falsas Ameaças e Deveres de Supervisão

Verificou-se que o requisito da proporcionalidade entre o perigo e o sacrifício imposto adquire especial importância nos sistemas autônomos de IA, precisamente porque esses sistemas podem agir em velocidades e escalas impossíveis para a supervisão humana em tempo real. O chamado "parágrafo único" do art. 188, que exige que as circunstâncias tornem a medida "absolutamente necessária" e que não se exceda "os limites do indispensável para a remoção do perigo", impõe ao desenvolvedor e ao operador um dever proativo de calibração dos parâmetros de resposta do sistema. Não basta que a ação autônoma seja tecnicamente possível; é necessário que seja juridicamente proporcional.

A distinção entre estado de necessidade objetivo — em que o perigo efetivamente existe — e estado de necessidade subjetivo — em que o agente apenas acredita na existência do perigo, mas se equivoca — é de enorme relevância prática. No plano civil, a mera crença equivocada no perigo não justifica o sacrifício de bem ou direito alheio. Isso significa que sistemas de IA cujos modelos de detecção de risco sejam imprecisos ou tendenciosos podem gerar danos injustificáveis sob o manto de uma aparente atuação em estado de necessidade. A exigência de robustez técnica nos sistemas de IA de alto risco, presente tanto no PL 2.338/2023 quanto no AI Act europeu, encontra aqui seu fundamento jurídico mais sólido: não se trata de mero tecnicismo regulatório, mas de condição para que a atividade autônoma possa, eventualmente, invocar as causas de justificação previstas no ordenamento civil.

Perspectivas para a Regulação das Causas de Justificação na IA

Em síntese, as causas de justificação tradicionais do direito civil são, em princípio, aplicáveis a cenários envolvendo inteligência artificial, mas sua transposição exige adaptações conceituais relevantes. A principal delas diz respeito à impossibilidade de se atribuir ao sistema autônomo, em si mesmo, a titularidade das justificativas: a legítima defesa, o estado de necessidade e o exercício regular de um direito são sempre analisados em função da conduta humana subjacente — dos desenvolvedores, operadores e proprietários que conceberam, implantaram e supervisionaram o sistema. Parece-nos que essa perspectiva é não apenas juridicamente consistente, mas também a mais adequada para preservar os incentivos corretos à prevenção de danos no desenvolvimento de tecnologias autônomas.

Conduta IlícitaAntijuridicidadeCulpa

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.