Impactos e Consequências do Risco do Desenvolvimento: Fortuito Interno, Autoaprendizado e a Expectativa Legítima do Consumidor
A análise dos impactos e das consequências do risco do desenvolvimento sobre a responsabilidade civil exige que se examine, com rigor, a articulação entre três planos distintos: o plano técnico — relativo às características dos sistemas de IA que tornam os defeitos incognoscíveis; o plano normativo — relativo ao regime jurídico aplicável e às suas interpretações possíveis; e o plano das políticas — relativo às consequências econômicas e sociais das diferentes soluções de imputação. Parece-nos que apenas a integração desses três planos permite uma avaliação adequada dos impactos do risco do desenvolvimento no contexto da inteligência artificial.
A Incognoscibilidade Objetiva e a Expectativa Legítima de Segurança
O primeiro impacto de relevo diz respeito à relação entre a incognoscibilidade objetiva do defeito e a expectativa legítima de segurança do consumidor. Guilherme Reinig (2013, pp. 110-113) e Tula Wesendonck (2015) argumentam, de modo convergente, que a mera incognoscibilidade objetiva do defeito não significa, por si só, ausência de responsabilidade: o consumidor tem legítima expectativa de segurança, tutelada pelo art. 12, § 1º, do CDC, independentemente de qualquer avaliação sobre a cognoscibilidade do defeito ao tempo da produção.
Essa expectativa é objetiva — refere-se ao que um consumidor médio razoavelmente espera de um produto daquela categoria —, e não subjetiva. O consumidor que adquire um sistema de IA para fins médicos espera que ele não produza diagnósticos incorretos que ponham em risco sua vida; o consumidor que utiliza um veículo autônomo espera que ele não tome decisões que aumentem o risco de acidentes. Essa expectativa subsiste independentemente de o fornecedor ter ou não condições de antecipar, no momento da produção, que o sistema poderia produzir esses resultados nocivos.
Verificou-se que tal raciocínio se coaduna com a lógica do art. 931 do Código Civil, que, apoiado na teoria do risco do empreendimento, atribui ao empresário o dever de suportar, inclusive, prejuízos não detectáveis pela ciência e pela técnica no momento da produção. Segundo Wesendonck (2015), esse dispositivo aproxima o direito brasileiro de uma posição ainda mais protetiva às vítimas do que o regime europeu, ao presumir a responsabilidade do empresário sem exigir a prova de um defeito específico.
Fortuito Interno e Fortuito Externo: A Centralidade da Distinção
O reforço dogmático a essa posição vem da distinção, consagrada na doutrina e na jurisprudência brasileiras, entre fortuito interno e fortuito externo. O fortuito interno — circunstância imprevisível ligada ao próprio produto ou à sua atividade produtiva — não exclui a responsabilidade objetiva do fornecedor, pois constitui um risco inerente ao exercício da atividade empresarial. O fortuito externo — evento completamente alheio à atividade do fornecedor, que rompe o nexo causal — pode, em tese, elidir a responsabilidade (Cavalieri Filho, 2023, p. 260).
A exclusão de responsabilidade demandaria, portanto, a presença de uma circunstância completamente estranha ao produto — algo que interrompesse o nexo causal de modo integral. A doutrina se inclina no sentido de que os riscos de desenvolvimento devem ser tratados como fortuito interno — um risco inerente à atividade do fornecedor —, que não o exime de responsabilidade. Nessa ótica, Reinig (2013, pp. 113-114) destaca que nem mesmo as falhas inevitáveis de fabricação escapam à regra de responsabilidade, pois não há rompimento de causalidade se o dano deriva de um defeito intimamente ligado ao próprio processo industrial.
Seria fortuito externo — e, portanto, potencialmente excludente de responsabilidade — o fato absolutamente alheio ao defeito do produto: como a queda de um avião sobre o consumidor, o ato de um terceiro completamente desvinculado da cadeia de fornecimento, ou a força maior em sentido estrito. Não se confunde com a mera imprevisibilidade ou inevitabilidade do surgimento de uma periculosidade intrínseca ao produto (Reinig, 2013, pp. 120-121).
O Autoaprendizado e a Expansão Contínua do Risco
O caso dos sistemas de inteligência artificial com capacidade de autoaprendizado não é simples, pois o risco do desenvolvimento não se esgota no momento da colocação do produto no mercado. Marta Mollicone (2023, p. 2121) ressalta que uma inteligência artificial com capacidade de autoaprendizado expande diariamente seu "acervo cultural" — modificando continuamente seus parâmetros de decisão com base nos dados com que interage. Por isso, parte da doutrina sugere que o risco de desenvolvimento pode constituir não uma excludente em si, mas um indício de periculosidade — exigindo do responsável a demonstração de diligência e prudência máximas na fase de design, treinamento e monitoramento pós-implantação.
Nesse cenário, sustenta-se que, no exame do grau de responsabilidade concorrente, serão determinantes "a precisão na definição dos objetivos a serem alcançados com o uso do algoritmo, a pureza dos dados inseridos e a consideração de uma abordagem ética no desenvolvimento dos sistemas de inteligência artificial pelos programadores" (Mollicone, 2023, p. 2122). O AI Act (Regulamento UE 2024/1689) operacionaliza parcialmente esses critérios ao exigir, para sistemas de alto risco, documentação técnica detalhada sobre os objetivos do sistema, os conjuntos de dados de treinamento, as métricas de desempenho e os procedimentos de teste e validação (arts. 11 e 12 do AI Act).
O PL 2.338/2023, em seus arts. 28 e 29, adota lógica semelhante ao impor obrigações de monitoramento contínuo e de comunicação de incidentes, reconhecendo que o risco de um sistema de IA não é estático, mas evolui ao longo de toda a sua vida útil. Parece-nos que essa abordagem — de responsabilidade continuada, que persiste durante todo o ciclo operacional do sistema — é a mais adequada para lidar com as especificidades dos sistemas de IA com autoaprendizado.
A Responsabilidade Concorrente e a Distribuição dos Custos
O exame do grau de responsabilidade concorrente entre os diferentes agentes da cadeia de desenvolvimento e implantação de sistemas de IA é particularmente relevante nos casos de risco do desenvolvimento. Em situações em que o dano decorre não de um defeito de design ou de fabricação identificável, mas do comportamento emergente de um sistema em operação, torna-se necessário avaliar a contribuição causal de cada agente: o desenvolvedor do modelo base, o operador que o adaptou para um uso específico, o integrador que o incorporou a um produto final e o usuário que o implementou em um determinado contexto.
Verificou-se, nessa perspectiva, que o PL 2.338/2023 distingue, em seus arts. 3º e 4º, entre "agentes de IA" em sentido amplo e categorias específicas como "fornecedores" e "operadores", estabelecendo obrigações diferenciadas para cada um. Essa diferenciação é essencial para a adequada distribuição dos custos indenizatórios: o fornecedor do modelo base responde pelos defeitos de design e de treinamento; o operador responde pelas consequências da implementação em contextos para os quais o sistema não foi projetado; o integrador responde pelos defeitos de integração.
A aplicação coordenada do regime de solidariedade do CDC com as disposições do PL 2.338/2023 e do AI Act poderia produzir um sistema coerente de imputação que: (i) garante ao consumidor lesado o direito de acionar qualquer integrante da cadeia; (ii) preserva o direito de regresso entre os agentes, segundo a contribuição causal de cada um; e (iii) cria incentivos adequados para que todos os agentes adotem as precauções necessárias para minimizar os riscos do desenvolvimento.
Consequências Sistêmicas: Inovação, Seguro e Regulação
As consequências sistêmicas da responsabilidade pelo risco do desenvolvimento em sistemas de IA são significativas. No plano econômico, a responsabilidade objetiva sem excludente para riscos de desenvolvimento pode elevar o custo de entrada no mercado, especialmente para pequenas empresas de tecnologia. No entanto, esse efeito pode ser mitigado por mecanismos de seguro específicos para IA — um mercado ainda incipiente, mas em rápida expansão, que os considerandos do AI Act buscam promover.
No plano regulatório, a exigência de avaliações de impacto, monitoramento contínuo e comunicação de incidentes — prevista tanto no AI Act quanto no PL 2.338/2023 — cria uma infraestrutura de informação que, com o tempo, permitirá a precificação mais precisa dos riscos de desenvolvimento. À medida que os dados sobre os padrões de falha dos sistemas de IA se acumulam, torna-se possível construir modelos atuariais que distribuam os custos de forma mais equitativa entre os agentes e os consumidores.
Parece-nos, portanto, que os impactos do risco do desenvolvimento na responsabilidade civil por sistemas de IA são, fundamentalmente, impactos de transição: a insegurança jurídica atual — decorrente da ausência de regulamentação específica e da aplicação incerta das categorias tradicionais — tende a diminuir à medida que a prática jurídica, a regulação setorial e os mercados de seguro se adaptam às especificidades tecnológicas dos sistemas inteligentes.
Referências
- CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
- MOLLICONE, Marta. Intelligenza Artificiale e Responsabilità. Rivista di Diritto Civile, 2023.
- REINIG, Guilherme Henrique Lima. Responsabilidade Civil pelo Fato do Produto pelo Risco do Desenvolvimento. São Paulo: Atlas, 2013.
- WESENDONCK, Tula. O Risco do Desenvolvimento na Responsabilidade Civil pelos Fatos do Produto. Revista de Direito do Consumidor, 2015.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".