O Exercício Regular de Direito e Seus Limites
Entre as causas de exclusão da ilicitude previstas no Código Civil brasileiro, o exercício regular de um direito ocupa posição de particular relevo no contexto das tecnologias digitais e da inteligência artificial. O fundamento dessa causa de justificação é intuitivo: o ordenamento jurídico não pode, de modo coerente, considerar ilícita a conduta de quem exerce aquilo que a lei lhe confere como possibilidade legítima. Nos termos da doutrina, "quem exerce regularmente direito de que é titular não incorre em responsabilidade, não sendo passível de imputação do dever de indenizar". Pressupõe-se, contudo, a ausência de desvio de finalidade e a inexistência de atitude do agente meramente voltada a prejudicar terceiros.
Cabe ressaltar que o exercício regular de um direito tem limites bem definidos no ordenamento pátrio. Qualquer ato que extrapole a função normal do direito ou que atue de modo contrário à boa-fé objetiva e aos bons costumes retira do agente a proteção jurídica, reativando a ilicitude da conduta. Essa é a essência do conceito de abuso de direito, consagrado no art. 187 do Código Civil: "também comete ato ilícito o titular de um direito que, ao exercê-lo, excede manifestamente os limites impostos pelo seu fim econômico ou social, pela boa-fé ou pelos bons costumes". Trata-se de norma de enorme alcance prático, especialmente em um contexto em que plataformas digitais e sistemas algorítmicos exercem direitos legalmente reconhecidos — de propriedade intelectual, de controle de conteúdo, de gestão de dados — de formas que podem produzir impactos desproporcionais sobre usuários e terceiros.
Plataformas Digitais e o Risco do Abuso Algorítmico
Para ilustrar a tensão entre o exercício legítimo de um direito e o abuso que reativa a ilicitude, considere-se uma plataforma alimentada por inteligência artificial que rastreia violações de direitos autorais em grandes bibliotecas digitais. Ela pode, de modo automatizado, aplicar travas e suspensões a usuários que compartilhem conteúdo protegido, amparada nas legislações que asseguram a proteção da propriedade intelectual — entre elas a Lei nº 9.610/1998. Isso é, em princípio, plenamente legítimo, pois a detentora da plataforma apenas resguarda o direito de autor de seus titulares.
No entanto, se esse sistema passar a deletar pesquisas inteiras ou materiais devidamente licenciados, sem oferecer alternativa de contestação e sem distinguir conteúdo protegido de conteúdo de domínio público ou licenciado sob regimes como o Creative Commons, estar-se-á diante de uma extrapolação manifesta dos limites do direito exercido. Verificou-se, em casos concretos de aplicação de sistemas automatizados de detecção de plágio e violação de direitos autorais — como o Content ID do YouTube —, que a ausência de mecanismos eficazes de contestação e revisão humana transforma o exercício legítimo de um direito em abuso com impactos econômicos e reputacionais significativos para os prejudicados. O dever de indenizar, nessas circunstâncias, não decorre da ausência de direito, mas de seu exercício abusivo.
Estado de Necessidade: Da Teoria à Prática Algorítmica
O estado de necessidade — ou remoção de perigo iminente, na terminologia do Código Civil — constitui outra causa de justificação de grande relevância prática no domínio das tecnologias autônomas. A doutrina o concebe como "causa de justificação para colisão entre interesses, na qual o ordenamento jurídico autoriza a defesa de interesse próprio ou alheio mediante lesão a direito de terceiros". O art. 188, II, do Código Civil exclui a ilicitude da conduta de quem deteriora ou destrói coisa alheia, ou causa lesão à pessoa, a fim de remover perigo iminente, desde que as circunstâncias tornem a medida absolutamente necessária e que não se exceda os limites do indispensável para a remoção do perigo.
O art. 24 do Código Penal complementa essa disciplina, exigindo que o agente não tenha provocado o perigo por sua vontade e que não haja outro meio de evitar o dano. Parece-nos que esse conjunto de requisitos — iminência real do perigo, necessidade da medida, ausência de alternativa menos lesiva e não provocação do risco pelo próprio agente — traduz-se, no campo dos sistemas autônomos de IA, em exigências técnicas concretas: mecanismos confiáveis de detecção de risco, algoritmos de priorização de respostas proporcionais e registros auditáveis das decisões tomadas pelo sistema.
Impactos da Falsa Necessidade e da Superautomação
Um dos impactos mais graves da atuação algorítmica sob suposto estado de necessidade é o que se poderia denominar "falsa necessidade": situações em que o sistema autônomo age de modo drástico com base em avaliações equivocadas de risco. A distinção doutrinária entre estado de necessidade objetivo — em que o perigo efetivamente existe — e estado de necessidade subjetivo — em que o agente apenas acredita na existência do risco, mas se equivoca — tem enorme relevância prática nesse contexto. No plano civil, a mera crença equivocada não justifica o sacrifício de bem ou direito alheio; a medida deve ser realmente indispensável e adequada.
Considere-se, a título de exemplo, um sistema de gestão de risco financeiro automatizado que, ao detectar sinais de volatilidade no mercado de ações, aciona mecanicamente um programa de venda em massa de ativos, desencadeando um colapso de liquidez que prejudica milhares de investidores. Se a análise posterior demonstrar que os sinais detectados eram insuficientes para justificar a resposta desproporcional do sistema, o operador não poderá invocar o estado de necessidade como causa de exclusão da ilicitude. As consequências jurídicas desse tipo de evento — que a literatura financeira denomina "flash crash" — ilustram com precisão os impactos potencialmente catastróficos da superautomação irresponsável.
Consequências Jurídicas e o Dever de Reparar
Ainda que uma causa de justificação seja reconhecida, o ordenamento pode determinar que subsiste o dever de indenizar. No caso do estado de necessidade, o art. 929 do Código Civil é explícito: "se a pessoa lesada, ou o dono da coisa, no caso do inciso II do art. 188, não forem culpados do perigo, assistir-lhes-á o direito à indenização do prejuízo que sofreram". Isso significa que a vítima inocente do estado de necessidade pode buscar reparação, ainda que o ato do agente seja considerado lícito — podendo esse, por sua vez, regressar contra quem causou a situação perigosa (art. 930).
Essa estrutura normativa revela uma preocupação central do legislador: a de que as causas de justificação não sirvam como escudo para a externalização irresponsável de riscos. Quem cria sistemas perigosos que atuam em estado de necessidade ativado por falsos positivos deve suportar os custos dos danos colaterais que esses sistemas causam a terceiros inocentes. Parece-nos que essa lógica, já presente no Código Civil de 2002, é perfeitamente adequada à regulação dos impactos de sistemas de IA em infraestrutura crítica, saúde, mobilidade urbana e finanças — setores em que a velocidade das decisões algorítmicas torna impossível a intervenção humana a tempo de prevenir os danos.
Considerações Finais sobre os Impactos Sistêmicos
Em síntese, as consequências jurídicas da conduta ilícita ou antijurídica no domínio da inteligência artificial transcendem o plano individual das relações entre lesante e lesado. Os impactos sistêmicos de algoritmos que atuam em escala — determinando crédito, emprego, saúde, segurança e acesso a serviços — exigem uma abordagem regulatória que combine os instrumentos clássicos da responsabilidade civil com mecanismos inovadores de supervisão, auditoria e prestação de contas. O PL 2.338/2023 e o AI Act europeu representam passos importantes nessa direção, mas a efetividade de sua aplicação dependerá da capacidade do Poder Judiciário e das autoridades regulatórias de compreender e interpretar os contornos técnicos e jurídicos dessas novas formas de conduta antijurídica.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".