O Risco do Desenvolvimento: Conceito e Fundamento
O risco do desenvolvimento ocupa posição peculiar no sistema de responsabilidade civil pelo fato do produto: trata-se da hipótese em que o defeito do produto não poderia ser descoberto nem pelo mais avançado estado da ciência e da técnica existente no momento em que o produto foi colocado no mercado. Em outras palavras, o fornecedor não tinha — e objetivamente não poderia ter — conhecimento do risco que seu produto apresentava, pois o instrumental científico disponível à época era insuficiente para revelar o defeito.
No ordenamento jurídico brasileiro, o CDC acolheu o risco do desenvolvimento como excludente de responsabilidade no art. 10, inciso III: o fornecedor não será responsável quando provar que o defeito inexistia no momento em que colocou o produto no mercado. Essa redação, porém, gerou intenso debate doutrinário sobre se ela efetivamente abrange o risco do desenvolvimento — pois se o defeito existe, mas não é cognoscível, poder-se-ia argumentar que ele existia desde o momento da colocação no mercado, ainda que invisível ao conhecimento científico disponível.
A Diretiva europeia 85/374/CEE, por sua vez, foi explícita ao admitir o risco do desenvolvimento como excludente no art. 7º, alínea "e", ao estabelecer que o produtor não é responsável se provar que, no momento em que pôs o produto em circulação, o estado dos conhecimentos científicos e técnicos não permitia descobrir a existência do defeito. Essa clareza foi deliberada: o legislador europeu optou conscientemente por equilibrar a proteção do consumidor com o estímulo à inovação, reconhecendo que a responsabilidade absoluta pelo risco do desenvolvimento poderia paralisar setores inteiros da pesquisa científica e tecnológica.
A Tensão entre Proteção da Vítima e Estímulo à Inovação
A admissão do risco do desenvolvimento como excludente de responsabilidade é, em si mesma, uma escolha política que revela uma tensão fundamental: de um lado, o imperativo de proteger as vítimas de danos causados por produtos defeituosos; de outro, o interesse coletivo no avanço científico e tecnológico, que só é possível se os agentes inovadores não estiverem sujeitos a responsabilidade ilimitada por riscos que, por definição, não podiam prever.
Defensores da excludente argumentam que, sem essa proteção, empresas farmacêuticas, fabricantes de equipamentos médicos e desenvolvedores de novas tecnologias simplesmente deixariam de inovar — ou transfeririam suas atividades para jurisdições com regimes de responsabilidade mais favoráveis. O resultado seria um paradoxo: a norma destinada a proteger consumidores acabaria, indiretamente, reduzindo o acesso a produtos inovadores que poderiam beneficiá-los.
Críticos, por outro lado, sustentam que a excludente cria um incentivo perverso: se o fornecedor sabe que não responderá por danos decorrentes de riscos desconhecidos no momento do lançamento, ele terá menos estímulo para investir em pesquisa de segurança e em sistemas de monitoramento pós-mercado. A lógica econômica da responsabilidade civil — que funciona como mecanismo de internalização dos custos dos danos — fica comprometida quando a excludente do risco do desenvolvimento é interpretada de forma ampla.
O Panorama Atual no Direito Brasileiro
No panorama atual do direito brasileiro, a jurisprudência sobre o risco do desenvolvimento ainda é relativamente escassa, especialmente no que concerne a tecnologias emergentes como a inteligência artificial. O Superior Tribunal de Justiça tem se debruçado sobre o tema principalmente no contexto de produtos farmacêuticos e equipamentos médicos, reconhecendo, em alguns casos, que o risco do desenvolvimento pode afastar a responsabilidade do fornecedor quando comprovado que o defeito era cientificamente indetectável ao tempo da comercialização.
Em relação à inteligência artificial, a questão é ainda mais complexa. Os sistemas de IA baseados em aprendizado de máquina são, por natureza, parcialmente opacos: mesmo seus desenvolvedores não têm pleno conhecimento sobre como o modelo chega a determinadas conclusões — fenômeno conhecido como "caixa-preta" (black box). Essa opacidade intrínseca suscita uma questão delicada: pode o desenvolvedor de um sistema de IA alegar risco do desenvolvimento quando o dano decorre de um comportamento emergente do modelo que não era previsível a partir do código original?
A resposta não é simples. Por um lado, a opacidade dos sistemas de aprendizado profundo é uma característica conhecida dos desenvolvedores — o que tornaria difícil sustentar que o risco era genuinamente desconhecido. Por outro, a complexidade dos comportamentos emergentes em sistemas de IA pode, em certas circunstâncias, superar genuinamente a capacidade preditiva dos desenvolvedores, mesmo daqueles mais qualificados e diligentes.
O PL 2.338/23 e o Tratamento do Risco do Desenvolvimento
O Projeto de Lei 2.338/23 aborda parcialmente essa questão ao impor obrigações de documentação, testes e supervisão humana para sistemas de alto risco. Ao estabelecer padrões mínimos de diligência que os fornecedores devem observar, o PL reduz o espaço para a invocação da excludente do risco do desenvolvimento: se o fornecedor não cumpriu os requisitos mínimos de governança previstos na lei, dificilmente poderá alegar que o defeito era cientificamente indetectável — pois a própria omissão nas cautelas obrigatórias impede que se afirme ter sido realizado um esforço genuíno para identificar os riscos.
Além disso, o PL 2.338/23 prevê obrigações de monitoramento pós-implantação e de notificação de incidentes, que criam um dever contínuo de vigilância sobre o comportamento dos sistemas de IA após o lançamento no mercado. Esse dever de monitoramento é incompatível com uma interpretação ampla da excludente do risco do desenvolvimento: se o fornecedor tem a obrigação legal de monitorar o comportamento do sistema e de identificar defeitos emergentes, a alegação de desconhecimento científico fica substancialmente enfraquecida.
A Posição dos Agentes Econômicos e o Princípio da Solidariedade
Cabe retomar aqui a questão levantada anteriormente: como evitar que determinados agentes econômicos — programadores, investidores e proprietários de sistemas de IA — se eximam de responsabilidade, alegando que não teriam pleno conhecimento sobre os processos decisórios e de aprendizado da IA? A resposta, conforme argumenta a doutrina mais recente, reside no princípio da solidariedade social e na premissa de que nenhuma pessoa deve ficar irressarcida se sofreu um dano injusto.
O risco do desenvolvimento, portanto, não pode ser interpretado como um salvo-conduto geral para agentes econômicos que lucram com a implantação de sistemas de IA. Sua aplicação deve ser restrita às hipóteses em que o defeito era genuinamente indetectável ao tempo do lançamento — e não àquelas em que a falta de investigação, de testes adequados ou de monitoramento pós-mercado simplesmente deixou o defeito sem identificação.
Nesse sentido, o panorama atual sugere uma tendência de estreitamento da excludente do risco do desenvolvimento no campo da inteligência artificial: à medida que os padrões de governança e de due diligence tecnológica se consolidam — seja por força de regulação específica, como o PL 2.338/23 e o AI Act europeu, seja pela evolução das boas práticas da indústria —, torna-se cada vez mais difícil para o fornecedor demonstrar que o defeito era genuinamente imprevisível. O avanço da regulação, paradoxalmente, reforça a responsabilidade ao elevar os padrões de cuidado exigíveis.
Conclusão: Um Panorama em Transformação
O panorama atual do risco do empreendimento e do risco do desenvolvimento é, portanto, de intensa transformação normativa e doutrinária. As categorias tradicionais do CDC e do Código Civil oferecem bases sólidas para a imputação de responsabilidade, mas precisam ser interpretadas à luz das características específicas dos sistemas de inteligência artificial — sua opacidade, sua autonomia adaptativa, a multiplicidade de agentes envolvidos e a continuidade do processo de aprendizado após o lançamento no mercado. O direito, como sempre, caminha alguns passos atrás da tecnologia — mas esse atraso não precisa significar omissão, desde que o intérprete esteja disposto a realizar o necessário trabalho de atualização hermenêutica.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".