O panorama atual da responsabilidade civil por danos causados por sistemas de inteligência artificial é marcado por uma tensão estrutural: de um lado, a sofisticação técnica dos sistemas de IA, que tomam decisões de forma emergente e muitas vezes imprevisível; de outro, a exigência jurídica de que o dano seja atribuível a um agente humano identificável, capaz de responder pela reparação. Compreender como essa tensão se manifesta no plano da conduta — e, em especial, da omissão — é indispensável para qualquer análise rigorosa do estado da arte doutrinário e legislativo.
Quando o desenvolvedor de um sistema de reconhecimento facial lança sua tecnologia em ambiente de segurança pública sem prever mecanismos adequados de controle de vieses, a conduta que enseja responsabilidade não é necessariamente uma ação positiva — é, antes, uma omissão qualificada: a ausência de medidas que deveriam ter sido tomadas. Essa omissão assume dimensão crítica porque a própria ação anterior — o desenvolvimento e a disponibilização do sistema sem salvaguardas adequadas — desencadeia um dever jurídico de impedir que o sistema cause danos. O prejuízo indevido causado a um cidadão, nesse contexto, não é um evento fortuito desvinculado do comportamento do desenvolvedor: é a concretização de um risco que ele mesmo criou e para cuja mitigação estava obrigado.
No âmbito da responsabilidade civil em relações de consumo, o dever de informar também ocupa posição central, especialmente com a disseminação de produtos e serviços que envolvem IA. Conforme anota Cavalieri Filho, a omissão em fornecer informações claras e completas sobre o funcionamento de produtos e serviços limita a capacidade do consumidor de fazer escolhas informadas e conscientes. Imagine-se uma empresa que comercializa dispositivos de IA doméstica — assistentes virtuais — sem esclarecer as potenciais limitações de privacidade e segurança: ao deixar de informar adequadamente o consumidor, a empresa compromete sua autonomia e coloca em risco expectativas legítimas de privacidade. Essa omissão representa violação direta do art. 6º, III, do Código de Defesa do Consumidor, que consagra o direito à informação adequada e clara como garantia fundamental do consumidor.
A Lei Geral de Proteção de Dados (Lei 13.709/2018) reforça esse quadro ao impor, em seu art. 20, o direito do titular de dados a solicitar revisão humana de decisões automatizadas que o afetem. Trata-se de disposição que reconhece implicitamente que a opacidade dos sistemas de IA — a chamada "caixa-preta" — pode comprometer a possibilidade de consentimento efetivamente informado, e que há um agente humano responsável por garantir que o processo decisório seja compreensível e contestável. A omissão em cumprir esse dever configura, por si mesma, conduta antijurídica passível de gerar responsabilidade civil.
Muitos estudiosos, tradicionalmente, associam a conduta apenas aos casos de responsabilidade subjetiva — ação ou omissão voluntárias —, excluindo dessa análise as hipóteses de responsabilidade objetiva, centradas no risco. Bruno Miragem aponta, contudo, que tal exclusão negligencia o fato de que sempre existe uma ação ou omissão vinculada ao fato jurídico gerador do dano (Responsabilidade Civil, 2020, p. 242). A divergência, portanto, não está na presença ou ausência da conduta, mas nos limites de investigação do seu conteúdo e na extensão de sua associação com o dano indenizável. No modelo subjetivo, a responsabilidade civil exige uma conduta que configure ilicitude e culpa — implicando um juízo de voluntariedade capaz de ensejar reprovação jurídica. Já na responsabilidade objetiva, mantém-se no fundo uma conduta humana, mas a análise de sua antijuridicidade prescinde da aferição de culpa.
Cabe ressaltar que essa distinção tem consequências práticas relevantes. No caso dos sistemas de IA de alto risco — como os utilizados em saúde, crédito e reconhecimento biométrico —, há razões substanciais para afastar a exigência de culpa e adotar o regime objetivo. O art. 927, parágrafo único, do Código Civil, ao prever responsabilidade independentemente de culpa para "atividade normalmente desenvolvida pelo autor do dano que, por sua natureza, implica risco para os direitos de outrem", oferece fundamento normativo para essa conclusão. A operação de sistemas de IA em contextos de alto risco é, por definição, uma atividade que implica risco relevante — o que justifica a imputação objetiva ao desenvolvedor e ao operador.
O AI Act europeu (Regulamento UE 2024/1689) consolida essa perspectiva ao estabelecer, para os sistemas de alto risco, obrigações detalhadas de conformidade, rastreabilidade e supervisão humana — cujo descumprimento constitui, per se, evidência de conduta antijurídica. O regulamento exige que os fornecedores documentem o processo de desenvolvimento, incluindo os conjuntos de dados utilizados no treinamento, os testes realizados e as medidas adotadas para mitigar riscos. Essa exigência de documentação tem dupla função: preventiva, ao obrigar a reflexão sistemática sobre os riscos antes da implantação; e probatória, ao fornecer elementos que permitam, no caso de dano, reconstruir a conduta do desenvolvedor e verificar se foi ou não adequada.
Poder-se-ia questionar se a adoção generalizada da responsabilidade objetiva para sistemas de IA não inibiria a inovação, ao impor encargos excessivos a desenvolvedores. Essa preocupação é legítima, mas parece-nos que pode ser endereçada por meio de mecanismos como a limitação proporcional da responsabilidade, o estabelecimento de tetos indenizatórios para hipóteses de risco moderado e a criação de seguros obrigatórios — instrumentos previstos, aliás, na proposta europeia de Diretiva de Responsabilidade em IA de 2022, ainda em discussão no Parlamento Europeu.
O panorama atual revela, em síntese, que a conduta humana — em suas dimensões ativa e omissiva, dolosa e culposa, direta e mediata — permanece como eixo estruturante da responsabilidade civil por danos de IA. O que muda, em relação às categorias tradicionais, é a necessidade de analisar essa conduta ao longo de toda a cadeia de desenvolvimento e uso do sistema, identificando em cada etapa os deveres específicos que foram ou não cumpridos. Esse mapeamento preciso é o ponto de partida incontornável para a correta atribuição de responsabilidade no cenário tecnológico contemporâneo.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".