A reflexão sobre a conduta humana antijurídica no contexto da inteligência artificial impõe, em sua etapa conclusiva, o confronto com os desafios que persistem mesmo após a adoção de uma perspectiva analítica rigorosa. Três dimensões merecem exame particular: o conceito de expectativa legítima como critério de aferição da antijuridicidade, a noção de responsabilidade estrutural como resposta à reiteração de falhas sistêmicas, e a indagação mais profunda sobre se a regra da conduta humana voluntária pode, de fato, ser mantida diante dos sistemas de IA mais avançados.
A expectativa legítima constitui, antes de tudo, um padrão normativo de avaliação da conduta. Quando um consumidor adquire um assistente virtual doméstico ou utiliza um aplicativo de análise de crédito movido a algoritmos, forma expectativas razoáveis sobre o funcionamento desses sistemas — expectativas que decorrem não apenas das especificações técnicas divulgadas, mas da confiança geral que a disponibilização comercial do produto inspira. O desenvolvedor e o operador que colocam em circulação um sistema de IA assumem, implicitamente, o dever de que ele funcione segundo padrões razoáveis de segurança e eficiência, não extrapolando os limites técnicos e éticos esperados. A violação dessa expectativa — seja por uma falha de programação previsível, seja por uma omissão na atualização do sistema — configura conduta antijurídica passível de responsabilização.
Esse conceito dialoga diretamente com a teoria da confiança (Vertrauenshaftung) desenvolvida pela doutrina alemã e incorporada, em sua versão brasileira, ao princípio da boa-fé objetiva do art. 422 do Código Civil. A boa-fé objetiva, como já consolidado pela jurisprudência do Superior Tribunal de Justiça, impõe deveres anexos de informação, cooperação e lealdade — todos aplicáveis à relação entre fornecedor de IA e usuário. O descumprimento desses deveres, mesmo na ausência de dolo ou culpa estrita, pode ensejar responsabilidade pela violação da confiança legítima depositada no sistema.
No tema da responsabilidade estrutural, a análise se volta para um fenômeno que transcende o caso individual: a reiterada ocorrência de falhas em um mesmo sistema ou categoria de sistemas expõe a omissão ou a imperícia dos criadores, transferindo-lhes a responsabilidade pelos danos que decorrem do projeto e da manutenção deficientes. Conforme apontado por Bonnet (2015, pp. 40-42), sistemas que apresentam padrões de falha recorrentes revelam não um incidente isolado, mas uma deficiência estrutural no processo de desenvolvimento — o que agrava a reprovabilidade da conduta e justifica uma resposta jurídica mais severa.
Verificou-se que essa perspectiva estrutural encontra amparo no art. 12 do Código de Defesa do Consumidor, que responsabiliza objetivamente o fabricante pelo fato do produto quando este não oferece a segurança que dele se pode esperar. O padrão de "segurança legitimamente esperável" é, precisamente, um critério normativo que avalia a conduta do fabricante não caso a caso, mas sistemicamente — levando em conta o conjunto de escolhas de design, os testes realizados e as informações disponibilizadas aos usuários. Quando um sistema de IA causa danos em série — como ocorreu com algoritmos de precificação que praticaram discriminação sistêmica em seguros de saúde nos Estados Unidos —, a caracterização do fato do produto deficiente torna-se mais acessível, pois a própria repetição dos danos é evidência da falha estrutural.
Poder-se-ia argumentar que a responsabilidade estrutural implica uma forma de responsabilidade coletiva que diluiria excessivamente as obrigações individuais, tornando ineficaz a atribuição de responsabilidade. Esse argumento, embora não desprezível, pode ser respondido por meio de mecanismos de solidariedade diferenciada: o art. 942 do Código Civil prevê a responsabilidade solidária de todos os que participaram do ato ilícito, sem prejuízo das ações de regresso entre os codevedores. No contexto de sistemas de IA desenvolvidos por múltiplos agentes — uma empresa de software base, uma empresa que treinou o modelo, uma empresa que o integrou em produto final —, a solidariedade passiva protege a vítima e permite que, internamente, os responsáveis discutam a repartição proporcional do ônus.
A indagação mais profunda que emerge ao final dessa análise é: a regra da conduta humana voluntária pode ser mantida integralmente diante dos sistemas de IA mais avançados? A breve incursão teórica conduzida nos capítulos anteriores abre caminho para compreender que, ainda no campo da inteligência artificial, essa regra não se rompe. O robô não é, por si, um "ator" civilmente responsável; o ponto nevrálgico reside em saber se, e em que medida, o projetista, o fornecedor ou o usuário do software — entre outros possíveis envolvidos — infringiram deveres de cautela ou violaram padrões técnicos e jurídicos.
A análise da responsabilidade não termina, portanto, na verificação de culpa subjetiva: ela pode estender-se a estruturas objetivas de imputação, mas sempre retornando à atuação de seres humanos que deram causa, direta ou indireta, ao dano. A distinção entre ato ilícito e comportamento antijurídico também se mantém atual: embora a culpa seja o aspecto clássico na configuração da responsabilidade subjetiva, as hipóteses de responsabilidade objetiva e a admissão de atos formalmente lícitos, mas contrários à boa-fé e aos valores do ordenamento, revelam que a obrigação de indenizar pode nascer mesmo na ausência de um ato culposo em sentido estrito. O PL 2.338/2023 e o AI Act europeu convergem nesse diagnóstico ao estabelecer regimes de responsabilidade que combinam elementos subjetivos e objetivos, proporcionalidade ao risco e distribuição da obrigação entre os agentes da cadeia tecnológica.
Do mesmo modo, o ordenamento brasileiro — ao exigir a presença de um ato ou omissão voluntários, ainda que seja uma omissão na guarda ou na vigilância — fortalece a visão de que somente as pessoas, físicas ou jurídicas, podem ser responsáveis pelos danos causados por decisões autônomas de sistemas de inteligência artificial. Essa perspectiva, longe de ser uma limitação técnica do direito, constitui sua força normativa essencial: a responsabilidade civil é, em última instância, um instrumento de atribuição de deveres a agentes capazes de compreendê-los, cumpri-los e responder por sua violação — o que, por definição, exclui os sistemas de IA e reconduz a análise ao ser humano que os criou, configurou e autorizou a operar.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".