Introdução
A análise aprofundada dos critérios de imputação de responsabilidade civil pela inteligência artificial exige um exame minucioso das distinções entre responsabilidade contratual e extracontratual, dos regimes de culpa e risco, e das especificidades que emergem da natureza dos sistemas de IA. O objetivo do presente artigo é aprofundar a compreensão dessas distinções e demonstrar sua relevância prática para a definição de quem responde pelos danos causados por sistemas inteligentes no ordenamento jurídico brasileiro. Parece-nos que essa análise é condição prévia para a construção de respostas jurídicas coerentes aos desafios tecnológicos contemporâneos.
Responsabilidade Extracontratual: O Regime do Código Civil
O Código Civil Brasileiro (Lei nº 10.406/2002), por meio dos arts. 186, 187, 927, 932 e correlatos, disciplina a responsabilidade extracontratual — aquela que não decorre de um contrato, mas de um dever legal preexistente, consistente na obrigação geral de não lesar outrem. A violação desse dever, quando acompanhada de culpa, dolo e dano, faz nascer a obrigação de reparar.
Nos casos de responsabilidade derivada de contrato, exige-se que as partes sejam capazes para a formação de um negócio jurídico válido — condição que não se repete com a mesma força na responsabilidade decorrente de ato ilícito, pois mesmo o menor de idade, ao praticar um ato danoso, pode atrair consequências para si e para seu responsável. No contexto da IA, essa distinção tem relevância quando se trata de menores que utilizam sistemas de IA de forma autônoma: a responsabilidade pelos danos causados pelo uso recairá, em princípio, sobre os responsáveis legais do menor, sem prejuízo da responsabilidade do fornecedor pelos defeitos do sistema.
A Exceção do Adimplemento e a Revisão Contratual
Na esfera contratual, aplicam-se a exceptio non adimpleti contractus (art. 476 do Código Civil) — que permite à parte recusar o cumprimento de sua obrigação quando a outra não cumpriu a sua — e a possibilidade de revisão contratual por onerosidade excessiva (art. 478) quando, em contratos de execução continuada, sobrevierem eventos extraordinários e imprevisíveis que tornem a prestação excessivamente onerosa para uma das partes.
Esses instrumentos têm aplicação concreta em contratos de fornecimento de sistemas de IA. Se um fornecedor de software de IA contratado para prestar serviço de análise de crédito deixa de atualizar o modelo com os dados necessários, configurando inadimplemento, a empresa contratante pode invocar a exceptio para suspender o pagamento até a regularização. Do mesmo modo, alterações radicais no ambiente regulatório — como a aprovação do PL 2338/23 com requisitos imprevistos no momento da contratação — podem fundar pedido de revisão contratual por onerosidade excessiva.
A Responsabilidade Pré-Contratual e a IA
No âmbito pré-contratual, a culpa in contrahendo — instituto reconhecido pelo art. 422 do Código Civil — impõe às partes o dever de observar a boa-fé objetiva nas tratativas preliminares. A ruptura injustificada das negociações, quando a outra parte já realizou investimentos na legítima expectativa de contratação, gera o dever de reparar os danos decorrentes — compreendendo, em regra, os danos emergentes (despesas efetivamente realizadas) e, em casos mais graves, o interesse positivo da contratação frustrada.
No contexto da IA, essa responsabilidade pré-contratual pode emergir de situações como: (i) a retirada abrupta de uma proposta de fornecimento de sistema de IA após o cliente ter iniciado processo de adequação de infraestrutura; (ii) a divulgação, nas tratativas, de especificações técnicas que posteriormente se revelam falsas ou exageradas; e (iii) a condução de negociações simuladas com o único propósito de obter informações estratégicas do potencial contratante. Nesses casos, a boa-fé objetiva funciona como critério de imputação que prescreve o dever de indenizar independentemente da existência de culpa em sentido estrito.
O Regime de Responsabilidade Objetiva no CDC
O Código de Defesa do Consumidor (CDC, Lei nº 8.078/1990) adota o regime de responsabilidade objetiva para o fornecedor de produtos e serviços com defeito. O art. 12 estabelece que o fabricante, o produtor, o construtor e o importador respondem, independentemente de culpa, pela reparação dos danos causados aos consumidores por defeitos decorrentes de projeto, fabricação, construção, montagem, fórmulas, manipulação, apresentação ou acondicionamento de seus produtos.
A aplicação desse regime ao fornecimento de sistemas de IA é direta: o desenvolvedor de um modelo de IA que apresente defeito de projeto — como um algoritmo de reconhecimento facial que discrimina sistematicamente determinados grupos raciais — responde objetivamente pelos danos causados aos consumidores, independentemente de culpa. O mesmo vale para defeitos de execução (erros de implementação) e de informação (ausência de alertas adequados sobre os riscos e limitações do sistema).
A Relação entre CDC e PL 2338/23
O PL 2338/23 não revoga nem substitui o CDC no que se refere à responsabilidade do fornecedor de sistemas de IA. Ao contrário, os dois diplomas coexistem e se complementam: o CDC fornece o regime geral de responsabilidade objetiva nas relações de consumo, enquanto o PL 2338/23 estabelece obrigações específicas de governança, transparência e segurança que, quando descumpridas, reforçam o nexo de imputação do fornecedor.
Verifica-se, assim, que o descumprimento das obrigações do PL 2338/23 — como a realização de avaliações de impacto para sistemas de alto risco (art. 19) ou a adoção de medidas de supervisão humana (art. 22) — pode ser utilizado como prova do defeito do serviço nos termos do art. 14 do CDC. A norma regulatória funciona, nesse contexto, como parâmetro de conformidade: o fornecedor que a cumpre tem elementos para demonstrar a ausência de defeito; o que a descumpre cria presunção em seu desfavor.
A Aplicação ao Fato do Serviço e ao Fato do Produto
O CDC distingue entre o "fato do produto" — disciplinado no art. 12 — e o "fato do serviço" — disciplinado no art. 14. Ambos implicam responsabilidade objetiva do fornecedor, mas diferem quanto ao objeto da prestação defeituosa. No contexto da IA, essa distinção importa para a identificação do regime aplicável: quando a IA é fornecida como produto (software licenciado), aplica-se o art. 12; quando é fornecida como serviço (software como serviço, ou SaaS), aplica-se o art. 14.
A distinção tem relevância prática porque o art. 12, § 3º, prevê causas de exclusão da responsabilidade que diferem, em parte, das do art. 14, § 3º. No caso dos serviços, a excludente do "fato exclusivo de terceiro" é especialmente relevante para os fornecedores de plataformas de IA que são utilizadas por desenvolvedores para a criação de aplicações: se o dano decorre de uso indevido do sistema pelo desenvolvedor-integrador, o fornecedor da plataforma pode invocar essa excludente.
Considerações Finais
A análise aprofundada dos critérios de imputação revela que o ordenamento jurídico brasileiro oferece um conjunto normativo robusto e articulado para a responsabilização pelos danos causados por sistemas de IA. A combinação do Código Civil, do CDC e do PL 2338/23 cria um regime de responsabilidade que cobre as principais situações de risco — da falha de produto ao inadimplemento contratual, da violação pré-contratual ao defeito de serviço. Parece-nos que o principal desafio, nesse contexto, não é normativo, mas interpretativo: adaptar as categorias jurídicas existentes à especificidade dos sistemas inteligentes, sem perder de vista os objetivos fundamentais da responsabilidade civil — prevenção de danos, reparação do lesado e incentivo à inovação responsável.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".