Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco do Empreendimento e o Risco do Desenvolvimento: Considerações Críticas

Considerações críticas sobre a tese da dupla irresponsabilidade na IA: autonomia algorítmica, imputabilidade e responsabilidade civil sob o CDC, Código Civil e direito comparado.

Alessandro Lavorante 6 de junho de 2025 7 min de leitura

Considerações Críticas sobre a Responsabilidade Civil em Sistemas de Inteligência Artificial: Autonomia, Imputabilidade e a Tese da Dupla Irresponsabilidade

O avanço dos sistemas de inteligência artificial dotados de capacidade decisória autônoma impõe à doutrina jurídica um conjunto de desafios que extrapolam as categorias tradicionais de imputação de responsabilidade. Parece-nos que a tensão fundamental reside na coexistência, em um mesmo sistema, de uma cadeia causal técnica — que remete às decisões de design, treinamento e implementação — e de uma autonomia funcional que pode, em casos extremos, produzir resultados não previstos nem desejados por nenhum dos agentes humanos envolvidos.

Defeitos de Informação em Sistemas Autônomos: Casos Concretos

Retomando o fio condutor da análise anterior, importa aprofundar a questão dos defeitos de informação em sistemas autônomos. Se o fabricante de um veículo autônomo não comunicar adequadamente que o algoritmo de otimização de colisão nem sempre priorizará a integridade física do ocupante — podendo adotar soluções de minimização de danos que prejudiquem o usuário individual em favor de terceiros —, o consumidor pode sofrer lesões em circunstâncias que o algoritmo não foi capaz de antecipar (Gurney, 2016, p. 234, apud Castells I Marques, 2017b, p. 120).

Além disso, verificou-se que a falta de alerta ao condutor para não intervir manualmente enquanto o veículo executa tarefas de condução autônoma — salvo quando expressamente solicitado pelo sistema — constitui outra modalidade recorrente de defeito de informação. A lógica subjacente é que, nesse estágio de operação, o sistema dispõe de informações provenientes de múltiplos sensores que o condutor humano não consegue processar em tempo real, de modo que a interferência manual pode agravar, e não mitigar, o risco de acidente. Outro exemplo relevante é a ausência de aviso sobre as limitações dos sensores na detecção de objetos em movimento, ciclistas e pedestres em condições de pouca luz ou forte reflexo solar (Castells I Marques, 2017b, p. 120).

Essas hipóteses configuram, nos termos do art. 12, § 1º, III, do CDC, defeito do produto por ausência de advertências adequadas quanto aos riscos que regularmente apresenta. A responsabilidade objetiva do fornecedor é, nesses casos, inafastável — e não pode ser elidida pela simples alegação de que o dano decorreu de uma decisão autônoma do sistema, inimputável a qualquer conduta humana direta.

A Tese da Dupla Irresponsabilidade: Exposição e Crítica

No cenário das tecnologias emergentes, Caitlin Mulholland (2019, p. 15.4) apresenta a denominada "tese da dupla irresponsabilidade", que reflete dois níveis distintos de exoneração: primeiramente, argumenta-se que a IA — mesmo na eventualidade de que lhe fosse atribuída alguma forma de personalidade jurídica, hipótese que o PL 2.338/2023 expressamente rejeita — não poderia ser responsabilizada como sujeito autônomo de obrigações; em segundo lugar, sustenta-se que os agentes humanos envolvidos em seu desenvolvimento também não poderiam ser responsabilizados, pois o dano teria origem em uma autonomia decisória imputável ao próprio sistema, e não a uma conduta humana identificável e previsível.

Parece-nos que essa tese, embora academicamente relevante para expor as lacunas do direito vigente, não se sustenta diante do ordenamento jurídico brasileiro. O art. 12 do CDC imputa responsabilidade objetiva ao fabricante pelo produto que coloca em circulação, independentemente da origem interna do defeito. O art. 931 do Código Civil estende essa lógica às atividades empresariais em geral, presumindo a responsabilidade do empresário pelos danos causados pelos produtos postos em circulação no mercado. A Resolução do Parlamento Europeu de 2017 (2015/2103(INL)) — primeiro instrumento normativo internacional a abordar diretamente a questão — afirmou expressamente que robôs e sistemas de IA não podem ser diretamente responsabilizados, atribuindo a responsabilidade pelos danos causados a agentes humanos: desde que seja possível estabelecer uma relação de previsibilidade e controle sobre o dano (Mulholland, 2019, p. 15.4).

O problema, naturalmente, reside justamente nessa condição: em situações em que o agente humano não dispõe de capacidade de previsão ou controle sobre as decisões do sistema, a atribuição de responsabilidade torna-se problemática. É exatamente nesse vácuo que a "dupla irresponsabilidade" encontra espaço. Entretanto, a solução não pode ser a irresponsabilidade generalizada, mas sim a construção de critérios normativos claros de imputação — tarefa que o PL 2.338/2023 apenas esboça e que o AI Act trata de modo mais sistemático, ao estabelecer presunções de causalidade em favor das vítimas de sistemas de IA classificados como de alto risco (art. 4º da proposta de AI Liability Directive).

O Guardião Econômico e a Socialização do Risco

Uma proposta alternativa, compatível com os fundamentos do ordenamento brasileiro, é a atribuição de responsabilidade ao agente que, economicamente, se encontra na posição mais favorável para assumir os custos decorrentes do prejuízo — denominado pela doutrina de "guardião econômico" da IA. Segundo Caitlin Mulholland (2019, p. 15.4), a viabilidade de tal concepção encontraria respaldo nos princípios da solidariedade social e do risco inerente à atividade, que permeiam tanto o CDC quanto o art. 931 do Código Civil.

Essa abordagem tem o mérito de identificar, no plano econômico, o agente que detém maior capacidade de internalizar os custos do risco — seja por meio de seguros, de provisões contábeis, de diversificação de portfólio ou de ajuste de preços —, evitando que o ônus seja transferido ao consumidor individual. A lógica é análoga à do princípio da socialização dos riscos que fundamenta a responsabilidade objetiva: não se trata de punir o fornecedor pela culpa, mas de alocar o custo do risco a quem melhor pode geri-lo e distribuí-lo socialmente.

Fortuito Interno e Fortuito Externo na Lógica da IA

Outro eixo crítico do debate diz respeito à distinção entre fortuito interno e fortuito externo, que a doutrina brasileira consolidou como critério de exclusão de responsabilidade objetiva. O fortuito interno — circunstância imprevisível ligada ao próprio produto ou à sua atividade produtiva — não exclui a responsabilidade do fornecedor, pois constitui um risco inerente ao exercício da atividade empresarial. O fortuito externo — evento completamente alheio à atividade do fornecedor, que rompe o nexo causal — pode, em tese, elidir a responsabilidade (Cavalieri Filho, 2023, p. 260).

Verificou-se que, no contexto dos sistemas de IA, a autonomia decisória do algoritmo tende a ser enquadrada, doutrinariamente, como fortuito interno. Isso porque o comportamento emergente do sistema — incluindo os danos que possa causar — decorre diretamente das escolhas de design, treinamento e implementação feitas pelo fornecedor. Não há, tecnicamente, ruptura do nexo causal entre a conduta do fornecedor e o dano: o sistema age como instrumento do fornecedor, ainda que de modo autônomo. A analogia com o fortuito interno nas atividades industriais — como a falha mecânica imprevisível em uma linha de montagem — é pertinente e encontra suporte na doutrina de Guilherme Reinig (2013, pp. 110-113) e Tula Wesendonck (2015).

Perspectiva Crítica: Limites e Potencialidades do Regime Vigente

Em síntese, as considerações críticas sobre a responsabilidade civil em sistemas de IA revelam que o regime jurídico brasileiro vigente — apoiado no CDC, no Código Civil e na LGPD — oferece instrumentos suficientes para enfrentar a maioria dos casos de dano por IA, desde que interpretado à luz dos princípios da solidariedade social, da proteção do consumidor e da socialização do risco. A tese da dupla irresponsabilidade deve ser rejeitada como solução de princípio, admitindo-se, quando muito, como ponto de partida para a identificação das lacunas normativas que o PL 2.338/2023 e futuras legislações precisam endereçar.

Parece-nos, ademais, que a consolidação de um regime especial para a IA no Brasil — que articule responsabilidade civil, proteção de dados, defesa do consumidor e regulação setorial — é não apenas desejável, mas necessária para garantir que a inovação tecnológica se desenvolva em um ambiente de segurança jurídica adequado tanto para os agentes econômicos quanto para os consumidores.


Referências

  • CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
  • CASTELLS I MARQUES, Miguel. Vehículos Autónomos y Semiautónomos. In: NAVARRO, Suzana Navas (Coord.). Inteligencia Artificial: Tecnologia, Derecho. Valência: Tirant lo Blach, 2017b.
  • GURNEY, Jeffrey. Crashing into the Unknown. Albany Law Review, vol. 79, núm. 1, 2016.
  • MULHOLLAND, Caitlin. Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de IA. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Coord.). Inteligência Artificial e Direito. São Paulo: Revista dos Tribunais, 2019.
  • REINIG, Guilherme Henrique Lima. Responsabilidade Civil pelo Fato do Produto pelo Risco do Desenvolvimento. São Paulo: Atlas, 2013.
  • WESENDONCK, Tula. O Risco do Desenvolvimento na Responsabilidade Civil pelos Fatos do Produto. Revista de Direito do Consumidor, 2015.
Fato do ProdutoRisco do DesenvolvimentoCDC

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.