Do ponto de vista prático, a análise da conduta humana ilícita no contexto da inteligência artificial exige que o operador do Direito identifique, em cada caso concreto, quais atores humanos estavam em posição de influenciar o funcionamento do sistema e quais deveres jurídicos lhes eram aplicáveis. A cadeia de desenvolvimento e operação de um sistema de IA envolve, tipicamente, desenvolvedores do modelo base, fornecedores de dados de treinamento, integradores que adaptam o sistema a casos de uso específicos, empresas que o disponibilizam comercialmente e usuários finais que o empregam em suas atividades. Em cada um desses elos, a conduta — ativa ou omissiva — pode configurar ilicitude ou antijuridicidade apta a fundamentar o dever de reparar.
A premissa metodológica que posiciona a IA exclusivamente como categoria de software é essencial para essa análise. As implicações de responsabilidade civil emergem não de uma agência autônoma da máquina, mas dos atos humanos de programação, disponibilização comercial ou pública do software, bem como do seu treinamento e uso por pessoas físicas ou jurídicas. Essa delimitação facilita a análise objetiva dos fatos, evitando especulações sobre a consciência ou a intencionalidade do sistema e concentrando a investigação nos elementos nos quais o envolvimento humano é o agente essencial na configuração de possíveis danos a terceiros.
Em casos envolvendo robôs ou veículos autônomos, a causação do dano decorre sempre da programação, do uso ou das falhas de supervisão por parte de seres humanos. Responsabilizar a própria máquina seria, como já se afirmou, tão absurdo quanto os históricos julgamentos de animais em séculos passados. A inteligência artificial, destituída de vontade ou sensibilidade ética, não pode ser tida como imputável: não há espaço para o elemento subjetivo da culpa em relação à própria máquina, pois esta não possui condições de compreender a extensão ou a ilicitude de seus atos. Assim, a possibilidade de conferir personalidade jurídica aos sistemas de IA é, para a maioria dos especialistas, algo pouco razoável no atual estágio do Direito e da técnica.
No plano prático, os casos mais frequentes de conduta antijurídica relacionada à IA envolvem omissões: o desenvolvedor que não implementa mecanismos adequados de controle de vieses antes de colocar o sistema em produção; o operador que não monitora os resultados do sistema em escala suficiente para identificar anomalias; o fornecedor que não atualiza o sistema diante de falhas conhecidas; o usuário profissional — médico, advogado, engenheiro — que deposita confiança irrestrita nos outputs do sistema sem exercer o juízo crítico que sua qualificação e seu dever profissional exigem. Em cada uma dessas situações, a omissão humana é o elo que conecta o funcionamento do sistema ao dano sofrido pelo lesado.
O entendimento jurídico sobre a relevância da omissão na configuração da responsabilidade civil decorre, em grande medida, de contribuições do Direito Penal, onde se consolidou a ideia de que a omissão só assume relevância jurídica quando há um dever jurídico pré-existente de impedir o resultado. O Código Penal brasileiro, em seu art. 13, § 2º, estabelece os parâmetros para essa relevância: a omissão é penalmente significativa quando o agente "devia e podia agir para evitar o resultado", e esse dever de agir emerge de três situações: a obrigação imposta por lei, a posição de garantidor e a atividade anterior que criou um risco potencial. Esses parâmetros, embora desenvolvidos no âmbito penal, oferecem referências valiosas para a identificação das omissões civilmente relevantes no campo da IA.
Na primeira hipótese — a obrigação imposta por lei —, o dever de agir decorre diretamente de preceitos legais. No campo da IA, esse dever encontra fundamento, por exemplo, nos dispositivos do Projeto de Lei nº 2.338/23 que obrigam os agentes responsáveis por sistemas de IA a implementar estruturas de transparência (art. 19, I e II), gestão de dados para mitigar vieses discriminatórios (art. 19, III), proteção de dados pessoais desde a concepção (art. 19, IV) e separação adequada de dados para treinamento (art. 19, V). A violação dessas obrigações legais específicas configura, no plano civil, a omissão antijurídica relevante para fins de responsabilidade.
Na segunda hipótese — a posição de garantidor —, o dever de agir decorre da assunção voluntária de uma responsabilidade específica. O operador de um sistema de IA em setores críticos — saúde, segurança pública, infraestrutura — que assume contratualmente a obrigação de monitorar e corrigir o funcionamento do sistema torna-se garantidor dos interesses das pessoas potencialmente afetadas. Sua omissão diante de falhas conhecidas ou cognoscíveis não é juridicamente neutra: ela pode configurar a conduta antijurídica que fundamenta o dever de reparar os danos causados pelo sistema.
Na terceira hipótese — a atividade anterior que criou um risco —, o dever de agir decorre do próprio fato de o agente ter colocado o sistema em funcionamento. Quem lança um produto no mercado — ou disponibiliza um sistema de IA ao público — assume, por esse ato, o dever de monitorar seus efeitos e de mitigar os riscos que venha a criar. Essa ideia, presente na teoria do risco do empreendimento (art. 931 do Código Civil), constitui um dos fundamentos mais sólidos da responsabilidade objetiva do fornecedor de sistemas de IA no ordenamento brasileiro atual, enquanto não se consolida a regulamentação específica trazida pelo PL 2.338/23.
No plano das relações de consumo, a ausência de informações claras e acessíveis sobre o funcionamento de sistemas de IA compromete o consentimento informado do consumidor e caracteriza omissão relevante para fins de responsabilidade civil. O Código de Defesa do Consumidor (Lei nº 8.078/1990) é inequívoco ao impor ao fornecedor o dever de informação como condição de validade do ato de consumo. A opacidade algorítmica — que impede o consumidor de compreender como o sistema chegou a determinado resultado que o afetou — pode ser ela própria uma forma de omissão antijurídica, especialmente quando o fornecedor dispõe de meios técnicos para tornar o processo decisório mais transparente e deliberadamente opta por não fazê-lo.
Este artigo integra o Capítulo 2 da obra sobre Responsabilidade Civil e Inteligência Artificial, de Alessandro Lavorante.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".