A responsabilidade civil pressupõe, em sua estrutura elementar, a existência de uma conduta humana — ativa ou omissiva — que se vincule ao dano experimentado pela vítima. Esse pressuposto, aparentemente simples, torna-se extraordinariamente complexo quando o agente imediato do dano não é uma pessoa, mas um sistema de inteligência artificial dotado de capacidade decisória autônoma. A pergunta que se impõe é: a responsabilidade recai sobre quem?
A resposta, conquanto não intuitiva diante da aparente independência dos sistemas modernos de IA, não afasta a centralidade do agente humano. Como observa Eduardo Tomasevicius Filho, ao analisar a relação entre IA e direitos da personalidade na Revista da Faculdade de Direito da USP (v. 113, 2018), a responsabilidade recai sobre aqueles que deram causa ao funcionamento da IA, segundo um título relacional que vincula o agente humano ao dano — seja por falha no desenvolvimento, omissão na supervisão ou uso anormal do dispositivo. Torna-se, assim, essencial investigar sob quais critérios se imputa a responsabilidade ao projetista do algoritmo, ao usuário, ao proprietário do dispositivo ou àqueles que incorporam o software em produtos e sistemas inteligentes. A premissa é clara: se a IA opera de forma autônoma, essa autonomia foi concedida por decisão e permissão humanas.
Cabe ressaltar que a conduta juridicamente relevante abrange tanto ações quanto omissões. A ação positiva manifesta-se, por exemplo, no dano causado por alguém que, em estado de embriaguez, colide com a propriedade de outrem — hipótese clássica, mas transponível para o desenvolvedor que, conscientemente, lança um sistema de IA sem os testes de segurança adequados. Já a omissão configura-se quando há inobservância de um dever específico de agir: a enfermeira que por desídia deixa de ministrar medicamentos ao paciente viola, por inação, o dever de evitar o resultado. Conforme ressalta Sérgio Cavalieri Filho, a inércia apenas se torna juridicamente reprovável se o agente "devia e podia agir" — fórmula que, transportada ao universo tecnológico, interroga se o desenvolvedor ou operador tinha conhecimento do risco e capacidade técnica de neutralizá-lo.
A omissão, portanto, não é um "nada" jurídico, mas um comportamento que, no plano normativo, impõe um dever de indenizar. Esse entendimento, consolidado na doutrina de Bruno Miragem (Responsabilidade Civil, 2020), ganha relevância especial no domínio da IA: a conduta omissiva do agente não resulta em um ato causador direto, mas caracteriza-se pela ausência de ação quando havia o dever de impedir o evento — configurando a antijuridicidade pela violação desse dever de agir. A culpabilidade decorre, por sua vez, de um juízo de reprovação jurídica à conduta, com fundamento na identificação de elementos como voluntariedade, negligência ou imprudência.
Em sistemas de IA, torna-se complexo identificar se houve omissão do desenvolvedor (por não corrigir um bug conhecido), do operador (por manipular o dispositivo de modo inadequado) ou do usuário final (por fornecer dados incorretos ou por ignorar advertências do sistema). Essa multiplicidade de agentes potencialmente responsáveis não encontra resposta automática nas categorias tradicionais da responsabilidade civil. O art. 927 do Código Civil, ao prever a responsabilidade objetiva para atividades que impliquem risco por sua natureza, oferece um ponto de ancoragem, mas não responde à questão distributiva: entre os diversos agentes da cadeia de desenvolvimento e uso, quem responde e em qual proporção?
O Projeto de Lei 2.338/2023 — ainda em tramitação no Senado Federal — endereça parcialmente essa lacuna ao estabelecer obrigações diferenciadas para desenvolvedores, operadores e usuários de sistemas de IA de alto risco, aproximando-se da lógica do AI Act europeu (Regulamento UE 2024/1689). Neste último, a responsabilidade pelo cumprimento dos requisitos de conformidade recai primariamente sobre o "fornecedor" (desenvolvedor), mas pode ser estendida ao "implantador" (operador) quando este modifica o sistema ou o utiliza em contexto diverso do originalmente previsto. Essa arquitetura regula tória, embora ainda não incorporada ao direito brasileiro positivo, oferece orientação interpretativa relevante.
Poder-se-ia argumentar que tal abordagem excessivamente centrada na conduta humana subestima a efetiva autonomia de sistemas de IA avançados, que tomam decisões a partir de parâmetros que seus próprios criadores não conseguem prever com precisão. Há vozes na doutrina europeia — como as de Ugo Pagallo e Mireille Hildebrandt — que defendem a atribuição de personalidade jurídica limitada a sistemas de IA, o que permitiria imputar-lhes diretamente certas obrigações. O Parlamento Europeu chegou a debater essa possibilidade em 2017, sem, contudo, avançar no sentido de uma alteração legislativa.
Parece-nos, todavia, que a atribuição de personalidade jurídica à IA, embora intelectualmente instigante, introduziria riscos sistêmicos consideráveis. Qual seria o patrimônio responsável pelos danos? Quem controlaria os atos da "pessoa" artificial? A resposta a essas perguntas reconduz, invariavelmente, ao ser humano ou à pessoa jurídica que controla o sistema — evidenciando que a questão da responsabilidade não escapa ao eixo da conduta humana. A autonomia da IA é, em última análise, uma autonomia delegada e, portanto, juridicamente atribuível àqueles que a concederam.
A análise da conduta humana no contexto da IA deve, assim, contemplar três dimensões: a conduta no momento do desenvolvimento (escolha de arquitetura, curadoria de dados de treinamento, definição de objetivos e métricas); a conduta no momento da implantação (configuração do ambiente, definição de parâmetros operacionais, escolha dos usuários habilitados); e a conduta durante o uso (monitoramento, manutenção, resposta a incidentes). Em cada uma dessas dimensões, a antijuridicidade pode se manifestar tanto por ação quanto por omissão, e o regime de responsabilidade aplicável — subjetivo ou objetivo — dependerá da natureza da atividade e do grau de risco envolvido. Essa perspectiva multidimensional é o ponto de partida indispensável para qualquer análise rigorosa da responsabilidade civil por danos causados por sistemas de inteligência artificial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".