Dimensões Contemporâneas do Risco do Desenvolvimento: Atribuição do Ônus, Direito Comparado e Inteligência Artificial
A controvérsia em torno da atribuição dos riscos do desenvolvimento é, talvez, o debate mais vivo e politicamente carregado no campo da responsabilidade civil por produtos tecnológicos. Ela se situa na interseção entre dois vetores normativos de igual legitimidade: a proteção do consumidor vulnerável e o fomento à inovação tecnológica. Parece-nos que a solução não reside em privilegiar um polo em detrimento do outro, mas em construir mecanismos que permitam a distribuição equitativa dos custos segundo a capacidade de cada agente de prever, controlar e absorver os riscos envolvidos.
O Dilema da Imputação: Fornecedor ou Consumidor?
Argumenta-se, de um lado, que imputar ao fornecedor a responsabilidade pelos riscos do desenvolvimento pode inviabilizar economicamente a pesquisa e o progresso científico-tecnológico, dificultando a inovação e o lançamento de novos produtos. Sem conhecer esses riscos à época do desenvolvimento, o fornecedor não tem como precificá-los adequadamente, impedindo que os custos sejam repassados aos consumidores de forma transparente. Assim, a exigência de responsabilização nesses casos poderia tornar-se excessivamente onerosa para o setor produtivo, especialmente para startups e pequenas empresas de tecnologia (Cavalieri Filho, 2023, p. 260).
Por outro lado, impor aos consumidores o ônus de arcar com esses riscos seria igualmente injusto — e, a nosso ver, incompatível com os princípios fundamentais do CDC e com a função social do contrato consagrada no art. 421 do Código Civil. Isso contradiria o princípio da socialização do risco, fundamento da responsabilidade objetiva, que busca repartir os prejuízos entre todos os beneficiários do progresso tecnológico. Nesse sentido, entende-se que o setor produtivo possui meios para mitigar tais riscos, utilizando-se de mecanismos como seguros, provisões contábeis e ajustes de preços, enquanto o consumidor individual não dispõe das mesmas ferramentas (Cavalieri Filho, 2023, p. 260). Mesmo que isso implique um aumento no custo final do produto, justifica-se pela necessidade de promover um equilíbrio justo na distribuição dos riscos associados à inovação.
Verificou-se que essa tensão dialética não é resolvível em abstrato: ela depende, em larga medida, das escolhas de política legislativa de cada ordenamento, das características específicas do produto ou serviço em questão e do grau de sofisticação do mercado em que é comercializado.
O Direito Comparado: Portugal, Itália e França
A análise comparativa revela soluções diversas para o mesmo problema. Em Portugal, o Decreto-Lei nº 383/89, que transpôs a Diretiva 85/374/CEE para o ordenamento interno, afasta expressamente a obrigação de indenizar quando, no momento da colocação do produto em circulação, o estado da ciência e da técnica não permitia conhecer o defeito (art. 5º, alínea "e", do DL 383/89). Tratando-se de entes dotados de inteligência artificial, o problema se agrava porque o software pode alterar sua funcionalidade ao interagir com o meio, produzindo efeitos imprevisíveis e dificultando a detecção de defeitos a tempo de evitar danos — e o dever de vigilância do fornecedor subsiste mesmo depois da introdução do produto no mercado (Barbosa, 2021).
Na Itália, a transposição da Diretiva 85/374/CEE admite igualmente a exoneração em situação de incognoscibilidade. Não obstante, a jurisprudência italiana recorre ao art. 2050 do Codice Civile para enquadrar como "atividade perigosa" a introdução de produtos cujos riscos se manifestam a posteriori, exigindo do fornecedor a demonstração de "todas as medidas adequadas" para evitar o dano (D'alfonso, 2022b, p. 40). Essa solução tem o mérito de manter a excludente do risco do desenvolvimento para casos genuinamente incognoscíveis, enquanto impõe ao fornecedor um dever reforçado de diligência para os demais.
A França adotou caminho diverso. Embora tenha incorporado tardiamente a Diretiva 85/374/CEE ao direito interno, a jurisprudência francesa restringiu significativamente a aplicação da excludente, especialmente em matéria de saúde pública. Os precedentes envolvendo o vírus da hepatite C em transfusões sanguíneas e os casos de amianto demonstraram a disposição dos tribunais franceses de responsabilizar fornecedores mesmo em hipóteses de incognoscibilidade técnica, com fundamento na proteção da saúde pública e na posição privilegiada do fornecedor na cadeia causal (Wesendonck, 2015).
Particularidades dos Sistemas de IA com Autoaprendizado
O contexto específico dos sistemas de inteligência artificial agrava as dificuldades já existentes no direito dos produtos defeituosos, porque o risco do desenvolvimento não se esgota no momento da colocação do produto no mercado. Marta Mollicone ressalta que uma inteligência artificial com capacidade de autoaprendizado expande diariamente seu "acervo cultural" — isto é, modifica continuamente seus parâmetros de decisão com base nos dados com que interage (Mollicone, 2023, p. 2121). Por isso, parte da doutrina sugere que o risco de desenvolvimento pode constituir não uma excludente em si, mas um indício de periculosidade — exigindo do responsável a demonstração de diligência e prudência máximas na fase de design, treinamento e monitoramento pós-implantação.
O AI Act (Regulamento UE 2024/1689) endereça parcialmente esse problema ao exigir, para sistemas de IA de alto risco, a implementação de sistemas de monitoramento pós-mercado (post-market monitoring) que permitam a detecção precoce de riscos emergentes (art. 72 do AI Act). O PL 2.338/2023, em seu art. 28, adota lógica semelhante ao impor obrigações de monitoramento contínuo e de comunicação de incidentes às autoridades competentes.
Parece-nos que essa abordagem — de responsabilidade continuada, que persiste ao longo de todo o ciclo de vida do sistema — é a mais adequada para lidar com as especificidades dos sistemas de IA com autoaprendizado. Ela não elimina a distinção entre risco do desenvolvimento e defeito cognoscível, mas transforma o dever de vigilância do fornecedor em uma obrigação de resultado: a de manter o sistema dentro dos parâmetros de segurança legitimamente esperados pelo consumidor durante toda a sua vida útil.
Implicações para a Precificação e a Distribuição dos Riscos
Um aspecto frequentemente negligenciado no debate sobre o risco do desenvolvimento é o impacto da responsabilidade sobre a estrutura de precificação dos produtos tecnológicos. Se o fornecedor é responsabilizado por danos causados por defeitos incognoscíveis, ele não tem, em princípio, como precificar esse risco no momento da comercialização — o que poderia resultar em subprecificação e, consequentemente, em uma oferta de cobertura indenizatória insuficiente.
Verificou-se, entretanto, que essa objeção tem alcance limitado no contexto atual da IA: os fornecedores de sistemas de alto risco — como plataformas de diagnóstico médico, sistemas de crédito automatizados e ferramentas de seleção de pessoal — podem e devem contratar seguros de responsabilidade civil que cubram riscos emergentes, ajustando os prêmios com base em avaliações atuariais de cenários de dano. O AI Act prevê, em seus considerandos, que os Estados-Membros devem promover o desenvolvimento de mercados de seguros para sistemas de IA de alto risco — reconhecendo implicitamente que a precificação do risco é possível e socialmente desejável.
No Brasil, a ausência de regulamentação específica sobre seguros de responsabilidade civil para sistemas de IA representa uma lacuna que o PL 2.338/2023 não endereça adequadamente. A criação de um fundo setorial de compensação — financiado por contribuições dos agentes da cadeia produtiva de IA, proporcionais ao nível de risco dos sistemas desenvolvidos — seria uma alternativa concreta ao modelo de responsabilidade individual, permitindo a socialização dos custos sem inviabilizar a inovação.
Referências
- BARBOSA, Mafalda Miranda. Inteligência Artificial, E-persons e Responsabilidade Civil. Coimbra: Gestlegal, 2021.
- CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
- D'ALFONSO, Gennaro. Intelligenza Artificiale e Responsabilità Civile. Nápoles: ESI, 2022b.
- MOLLICONE, Marta. Intelligenza Artificiale e Responsabilità. Rivista di Diritto Civile, 2023.
- WESENDONCK, Tula. O Risco do Desenvolvimento na Responsabilidade Civil pelos Fatos do Produto. Revista de Direito do Consumidor, 2015.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".