Reflexões e Propostas sobre o Risco do Desenvolvimento: Da Solidariedade Social à Regulação da Inteligência Artificial
Entre as teorias que maior debate suscitam no campo da responsabilidade objetiva aplicada à inteligência artificial, destaca-se a do risco do desenvolvimento — concepção que questiona, em sua raiz, quem deve suportar os custos de danos causados por produtos cujos defeitos eram, ao tempo de sua colocação no mercado, incognoscíveis pelo mais avançado estado da ciência e da técnica. Parece-nos que o enfrentamento adequado dessa questão é condição sine qua non para a construção de um regime jurídico coerente e equitativo para a IA no Brasil.
O Guardião Econômico e os Princípios da Solidariedade Social
Antes de avançar na análise técnica da teoria, importa retomar a questão do sujeito responsável, abordada na seção anterior. A proposta do "guardião econômico" — aquele agente que se encontra na posição mais favorável para assumir os custos decorrentes do prejuízo, seja pela sua capacidade de distribuir riscos via seguros, seja pela sua posição privilegiada na cadeia produtiva — encontra respaldo nos princípios da solidariedade social e do risco inerente à atividade empresarial, ambos pilares do sistema de responsabilidade objetiva brasileiro (Mulholland, 2019, p. 15.4).
Esse princípio dialoga diretamente com a teoria do risco do empreendimento, consagrada no art. 931 do Código Civil de 2002, segundo a qual os empresários respondem pelos danos causados pelos produtos que colocam em circulação, independentemente de culpa. A lógica subjacente é a de que quem lucra com a exploração de uma atividade deve igualmente suportar os riscos que dela decorrem — inclusive aqueles que, por limitação do estado da ciência, não podiam ser detectados no momento da produção.
O Conceito de Risco do Desenvolvimento
A teoria do risco do desenvolvimento surgiu originalmente no contexto da responsabilidade por produtos farmacêuticos e químicos, em que defeitos latentes — como efeitos colaterais graves de medicamentos — somente se manifestavam anos ou décadas após a comercialização. O conceito foi progressivamente incorporado ao direito continental europeu por meio da Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à responsabilidade decorrente dos produtos defeituosos.
A Diretiva europeia define como defeituoso o produto que "não oferece a segurança que legitimamente se espera", mas admite, em seu art. 7º, alínea "e", uma excludente específica: o produtor não será responsabilizado se provar que "o estado dos conhecimentos científicos e técnicos, no momento em que pôs o produto em circulação, não permitia detectar a existência do defeito" (Diretiva 85/374/CEE). Tal excludente é precisamente o "risco do desenvolvimento" — ou, como melhor definido pela doutrina brasileira, o "defeito que, em face do estado da Ciência e da Técnica à época da colocação do produto ou serviço em circulação, era desconhecido e imprevisível" (Benjamin, 1991, p. 67, apud Cavalieri Filho, 2023, p. 260) e que "só vem a ser descoberto após um período de uso do produto, em decorrência do avanço dos estudos científicos" (Calixto, 2004, p. 75, apud Queiroz, 2020, p. 27.4).
Verificou-se que essa excludente deixa espaço para tensões normativas significativas, na medida em que a transposição da Diretiva para o direito interno de cada Estado-Membro admite variações consideráveis — algumas transpondo integralmente a excludente, outras a restringindo ou mesmo suprimindo.
A Tese do Risco do Desenvolvimento como Fundamento de Responsabilização
Em contraposição à lógica da excludente europeia, a teoria do risco do desenvolvimento pode ser compreendida, em seu sentido mais amplo, também como fundamento de responsabilização do empreendedor: nessa perspectiva, o fornecedor deve ser responsabilizado pelos danos causados por defeitos que eram incognoscíveis ao tempo da colocação do produto no mercado, precisamente porque assumiu, ao introduzir o produto na cadeia de consumo, o risco de que tais defeitos existissem e viessem a se manifestar.
Essa é a premissa central: apenas com o decorrer do tempo, e por meio do avanço dos estudos científicos, é possível que tais riscos sejam desvelados. O empresário, ao explorar economicamente a inovação tecnológica, antecipa os benefícios antes mesmo de que os riscos se tornem conhecidos — e é justamente por isso que, segundo essa corrente, não pode eximir-se dos custos que o dano vier a impor. Essa lógica é plenamente compatível com o princípio da repartição equitativa dos ônus e vantagens, que permeia o ordenamento jurídico brasileiro e encontra expressão no art. 421 do Código Civil, que consagra a função social do contrato, e no art. 4º, III, do CDC, que impõe a harmonização entre os interesses dos consumidores e a viabilidade econômica da cadeia produtiva.
A Diretiva Europeia, o CDC e o Código Civil: Contrastes e Convergências
A comparação entre o regime europeu e o brasileiro revela contrastes relevantes. Na Europa, a Diretiva 85/374/CEE admite a excludente do risco do desenvolvimento, embora os Estados-Membros tenham liberdade para suprimi-la em setores específicos — a França, por exemplo, tem restringido sua aplicação em matéria de saúde pública, e a Itália recorre ao art. 2050 do Codice Civile para responsabilizar fornecedores de produtos de alto risco a posteriori (D'alfonso, 2022b, p. 40).
No Brasil, o art. 12, § 3º, do CDC elenca taxativamente as hipóteses que excluem a responsabilidade do fornecedor — e o risco do desenvolvimento não figura entre elas. Há quem sustente que, por não figurar expressamente no rol do art. 12, § 3º, o risco de desenvolvimento não excluiria a responsabilidade do fornecedor no direito brasileiro. Essa interpretação é reforçada pelo Enunciado nº 43 da I Jornada de Direito Civil do Conselho da Justiça Federal (2002), que dispõe expressamente: "A responsabilidade civil pelo fato do produto, prevista no Art. 931 do CC/02, também inclui os riscos do desenvolvimento".
A mesma controvérsia se manifesta no exame do art. 931 do Código Civil brasileiro: parte da doutrina entende que o legislador não afastou a responsabilidade objetiva do produtor sequer nessas hipóteses, alinhando o direito brasileiro a uma posição mais protetiva às vítimas do que o regime europeu (Reinig, 2013, pp. 123-124; Wesendonck, 2015).
Implicações para os Sistemas de Inteligência Artificial
No contexto específico da IA, a teoria do risco do desenvolvimento adquire contornos ainda mais complexos. O art. 2º do AI Act (Regulamento UE 2024/1689) categoriza os sistemas de IA de acordo com o nível de risco que apresentam — distinguindo sistemas proibidos, de alto risco, de risco limitado e de risco mínimo —, e impõe obrigações diferenciadas de transparência, conformidade e monitoramento pós-implantação. O PL 2.338/2023, em seus arts. 28 e 29, adota lógica semelhante ao exigir avaliações de impacto e monitoramento contínuo para sistemas de IA classificados como de alto risco.
Verificou-se que, em sistemas de machine learning, o risco do desenvolvimento não se esgota no momento da colocação do produto no mercado. A capacidade de autoaprendizado — que permite ao sistema modificar seus próprios parâmetros de decisão ao longo do tempo — pode introduzir defeitos novos que não existiam no momento do lançamento, tornando ainda mais porosa a distinção entre o defeito original e o "risco do desenvolvimento" superveniente. Isso impõe ao fornecedor um dever de vigilância e de atualização que persiste durante toda a vida útil do sistema — obrigação que o AI Act reconhece ao exigir monitoramento pós-mercado (post-market monitoring) para sistemas de alto risco.
Propostas para o Ordenamento Brasileiro
Parece-nos que o ordenamento jurídico brasileiro precisa de uma tomada de posição legislativa clara sobre o risco do desenvolvimento aplicado à IA. As opções principais são: (i) manter a posição atual, que exclui o risco do desenvolvimento do rol de excludentes do CDC, atribuindo ao fornecedor responsabilidade mesmo por defeitos incognoscíveis — solução mais protetiva ao consumidor, mas potencialmente desincentivadora da inovação; (ii) introduzir uma excludente específica para o risco do desenvolvimento, à semelhança do modelo europeu, com salvaguardas para setores de alto risco; ou (iii) criar um fundo de compensação coletivo, financiado pelos agentes da cadeia produtiva de IA, para cobrir danos decorrentes de riscos de desenvolvimento não atribuíveis a falhas individuais — solução que melhor encarna o princípio da solidariedade social.
A terceira opção merece destaque por sua compatibilidade com os fundamentos do ordenamento brasileiro e por sua capacidade de equilibrar inovação e proteção. Modelos análogos existem em outros setores — como o Fundo Nacional de Saúde para danos por vacinas em alguns países europeus — e poderiam ser adaptados ao contexto da IA no Brasil, com financiamento proporcional ao nível de risco dos sistemas desenvolvidos.
Referências
- BENJAMIN, Antônio Herman de Vasconcelos. Comentários ao Código de Proteção do Consumidor. São Paulo: Saraiva, 1991.
- CALIXTO, Marcelo Junqueira. O art. 931 do Código Civil de 2002 e os Riscos do Desenvolvimento. Revista Trimestral de Direito Civil, vol. 20, Out./Dez. 2004.
- CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
- D'ALFONSO, Gennaro. Intelligenza Artificiale e Responsabilità Civile. Nápoles: ESI, 2022b.
- MULHOLLAND, Caitlin. Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de IA. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Coord.). Inteligência Artificial e Direito. São Paulo: Revista dos Tribunais, 2019.
- QUEIROZ, João Quinelato de. Imputação e Responsabilidade Civil na Inteligência Artificial. São Paulo: Quartier Latin, 2020.
- REINIG, Guilherme Henrique Lima. Responsabilidade Civil pelo Fato do Produto pelo Risco do Desenvolvimento. São Paulo: Atlas, 2013.
- WESENDONCK, Tula. O Risco do Desenvolvimento na Responsabilidade Civil pelos Fatos do Produto. Revista de Direito do Consumidor, 2015.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".