Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco do Empreendimento e o Risco do Desenvolvimento: Dimensões Contemporâneas

Dimensões contemporâneas do risco do desenvolvimento: debate sobre a atribuição do ônus aos fornecedores ou consumidores, direito comparado e sistemas de IA com autoaprendizado.

Alessandro Lavorante 14 de junho de 2025 7 min de leitura

Dimensões Contemporâneas do Risco do Desenvolvimento: Atribuição do Ônus, Direito Comparado e Inteligência Artificial

A controvérsia em torno da atribuição dos riscos do desenvolvimento é, talvez, o debate mais vivo e politicamente carregado no campo da responsabilidade civil por produtos tecnológicos. Ela se situa na interseção entre dois vetores normativos de igual legitimidade: a proteção do consumidor vulnerável e o fomento à inovação tecnológica. Parece-nos que a solução não reside em privilegiar um polo em detrimento do outro, mas em construir mecanismos que permitam a distribuição equitativa dos custos segundo a capacidade de cada agente de prever, controlar e absorver os riscos envolvidos.

O Dilema da Imputação: Fornecedor ou Consumidor?

Argumenta-se, de um lado, que imputar ao fornecedor a responsabilidade pelos riscos do desenvolvimento pode inviabilizar economicamente a pesquisa e o progresso científico-tecnológico, dificultando a inovação e o lançamento de novos produtos. Sem conhecer esses riscos à época do desenvolvimento, o fornecedor não tem como precificá-los adequadamente, impedindo que os custos sejam repassados aos consumidores de forma transparente. Assim, a exigência de responsabilização nesses casos poderia tornar-se excessivamente onerosa para o setor produtivo, especialmente para startups e pequenas empresas de tecnologia (Cavalieri Filho, 2023, p. 260).

Por outro lado, impor aos consumidores o ônus de arcar com esses riscos seria igualmente injusto — e, a nosso ver, incompatível com os princípios fundamentais do CDC e com a função social do contrato consagrada no art. 421 do Código Civil. Isso contradiria o princípio da socialização do risco, fundamento da responsabilidade objetiva, que busca repartir os prejuízos entre todos os beneficiários do progresso tecnológico. Nesse sentido, entende-se que o setor produtivo possui meios para mitigar tais riscos, utilizando-se de mecanismos como seguros, provisões contábeis e ajustes de preços, enquanto o consumidor individual não dispõe das mesmas ferramentas (Cavalieri Filho, 2023, p. 260). Mesmo que isso implique um aumento no custo final do produto, justifica-se pela necessidade de promover um equilíbrio justo na distribuição dos riscos associados à inovação.

Verificou-se que essa tensão dialética não é resolvível em abstrato: ela depende, em larga medida, das escolhas de política legislativa de cada ordenamento, das características específicas do produto ou serviço em questão e do grau de sofisticação do mercado em que é comercializado.

O Direito Comparado: Portugal, Itália e França

A análise comparativa revela soluções diversas para o mesmo problema. Em Portugal, o Decreto-Lei nº 383/89, que transpôs a Diretiva 85/374/CEE para o ordenamento interno, afasta expressamente a obrigação de indenizar quando, no momento da colocação do produto em circulação, o estado da ciência e da técnica não permitia conhecer o defeito (art. 5º, alínea "e", do DL 383/89). Tratando-se de entes dotados de inteligência artificial, o problema se agrava porque o software pode alterar sua funcionalidade ao interagir com o meio, produzindo efeitos imprevisíveis e dificultando a detecção de defeitos a tempo de evitar danos — e o dever de vigilância do fornecedor subsiste mesmo depois da introdução do produto no mercado (Barbosa, 2021).

Na Itália, a transposição da Diretiva 85/374/CEE admite igualmente a exoneração em situação de incognoscibilidade. Não obstante, a jurisprudência italiana recorre ao art. 2050 do Codice Civile para enquadrar como "atividade perigosa" a introdução de produtos cujos riscos se manifestam a posteriori, exigindo do fornecedor a demonstração de "todas as medidas adequadas" para evitar o dano (D'alfonso, 2022b, p. 40). Essa solução tem o mérito de manter a excludente do risco do desenvolvimento para casos genuinamente incognoscíveis, enquanto impõe ao fornecedor um dever reforçado de diligência para os demais.

A França adotou caminho diverso. Embora tenha incorporado tardiamente a Diretiva 85/374/CEE ao direito interno, a jurisprudência francesa restringiu significativamente a aplicação da excludente, especialmente em matéria de saúde pública. Os precedentes envolvendo o vírus da hepatite C em transfusões sanguíneas e os casos de amianto demonstraram a disposição dos tribunais franceses de responsabilizar fornecedores mesmo em hipóteses de incognoscibilidade técnica, com fundamento na proteção da saúde pública e na posição privilegiada do fornecedor na cadeia causal (Wesendonck, 2015).

Particularidades dos Sistemas de IA com Autoaprendizado

O contexto específico dos sistemas de inteligência artificial agrava as dificuldades já existentes no direito dos produtos defeituosos, porque o risco do desenvolvimento não se esgota no momento da colocação do produto no mercado. Marta Mollicone ressalta que uma inteligência artificial com capacidade de autoaprendizado expande diariamente seu "acervo cultural" — isto é, modifica continuamente seus parâmetros de decisão com base nos dados com que interage (Mollicone, 2023, p. 2121). Por isso, parte da doutrina sugere que o risco de desenvolvimento pode constituir não uma excludente em si, mas um indício de periculosidade — exigindo do responsável a demonstração de diligência e prudência máximas na fase de design, treinamento e monitoramento pós-implantação.

O AI Act (Regulamento UE 2024/1689) endereça parcialmente esse problema ao exigir, para sistemas de IA de alto risco, a implementação de sistemas de monitoramento pós-mercado (post-market monitoring) que permitam a detecção precoce de riscos emergentes (art. 72 do AI Act). O PL 2.338/2023, em seu art. 28, adota lógica semelhante ao impor obrigações de monitoramento contínuo e de comunicação de incidentes às autoridades competentes.

Parece-nos que essa abordagem — de responsabilidade continuada, que persiste ao longo de todo o ciclo de vida do sistema — é a mais adequada para lidar com as especificidades dos sistemas de IA com autoaprendizado. Ela não elimina a distinção entre risco do desenvolvimento e defeito cognoscível, mas transforma o dever de vigilância do fornecedor em uma obrigação de resultado: a de manter o sistema dentro dos parâmetros de segurança legitimamente esperados pelo consumidor durante toda a sua vida útil.

Implicações para a Precificação e a Distribuição dos Riscos

Um aspecto frequentemente negligenciado no debate sobre o risco do desenvolvimento é o impacto da responsabilidade sobre a estrutura de precificação dos produtos tecnológicos. Se o fornecedor é responsabilizado por danos causados por defeitos incognoscíveis, ele não tem, em princípio, como precificar esse risco no momento da comercialização — o que poderia resultar em subprecificação e, consequentemente, em uma oferta de cobertura indenizatória insuficiente.

Verificou-se, entretanto, que essa objeção tem alcance limitado no contexto atual da IA: os fornecedores de sistemas de alto risco — como plataformas de diagnóstico médico, sistemas de crédito automatizados e ferramentas de seleção de pessoal — podem e devem contratar seguros de responsabilidade civil que cubram riscos emergentes, ajustando os prêmios com base em avaliações atuariais de cenários de dano. O AI Act prevê, em seus considerandos, que os Estados-Membros devem promover o desenvolvimento de mercados de seguros para sistemas de IA de alto risco — reconhecendo implicitamente que a precificação do risco é possível e socialmente desejável.

No Brasil, a ausência de regulamentação específica sobre seguros de responsabilidade civil para sistemas de IA representa uma lacuna que o PL 2.338/2023 não endereça adequadamente. A criação de um fundo setorial de compensação — financiado por contribuições dos agentes da cadeia produtiva de IA, proporcionais ao nível de risco dos sistemas desenvolvidos — seria uma alternativa concreta ao modelo de responsabilidade individual, permitindo a socialização dos custos sem inviabilizar a inovação.


Referências

  • BARBOSA, Mafalda Miranda. Inteligência Artificial, E-persons e Responsabilidade Civil. Coimbra: Gestlegal, 2021.
  • CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
  • D'ALFONSO, Gennaro. Intelligenza Artificiale e Responsabilità Civile. Nápoles: ESI, 2022b.
  • MOLLICONE, Marta. Intelligenza Artificiale e Responsabilità. Rivista di Diritto Civile, 2023.
  • WESENDONCK, Tula. O Risco do Desenvolvimento na Responsabilidade Civil pelos Fatos do Produto. Revista de Direito do Consumidor, 2015.
Fato do ProdutoRisco do DesenvolvimentoCDC

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.