Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco do Empreendimento e o Risco do Desenvolvimento: Perspectivas e Desafios

Perspectivas e desafios do risco do empreendimento no contexto da IA: teoria do Deep Pocket, defect theory, solidariedade social e os limites da responsabilidade objetiva.

Alessandro Lavorante 30 de maio de 2025 6 min de leitura

O Desafio da Responsabilidade por Danos Causados por IA Autônoma

Um dos problemas mais delicados que a inteligência artificial coloca para o direito da responsabilidade civil é o da responsabilização por danos causados por sistemas dotados de elevada autonomia decisória. Quando um sistema de IA toma decisões que escapam ao controle direto e imediato de qualquer agente humano identificável, como imputar a responsabilidade pelo dano resultante? Quem deve indenizar a vítima — o desenvolvedor do algoritmo, o operador que o implantou, o usuário que o acionou, ou nenhum deles?

Certos posicionamentos doutrinários sustentam que programadores, investidores e proprietários de sistemas de IA não teriam pleno conhecimento sobre os processos decisórios e de aprendizado da IA, o que os afastaria de qualquer responsabilidade — especialmente quando o dano decorre de comportamentos emergentes, não programados e imprevisíveis a partir do estado da técnica no momento do desenvolvimento. Defensores dessa tese argumentam que impor reparações nesses casos poderia inibir a inovação tecnológica, causando prejuízos ao progresso social e ao desenvolvimento econômico.

No entanto, para Caitlin Mulholland, essa hipótese é rapidamente descartada quando se fundamenta o dever de reparar o dano no princípio da solidariedade social e na premissa de que nenhuma pessoa deve ficar irressarcida se sofreu um dano injusto. O argumento da inovação, por mais relevante que seja em perspectiva de política econômica, não pode servir como escudo para tornar vítimas de danos tecnológicos em credores sem devedor.

O Determinismo Tecnológico e Suas Consequências Jurídicas

Diante desse cenário, Ana Frazão alertou para o risco do que denominou "determinismo tecnológico" — justificado pelo cômodo argumento de que os agentes que transferiram determinadas decisões para as máquinas não mais responderiam pelo que estas fizessem. Essa lógica, se aceita, criaria um vácuo de responsabilidade que beneficiaria exatamente aqueles que mais lucraram com a implantação de sistemas autônomos, em detrimento das vítimas que menos condições têm de suportar os danos.

Cabe ressaltar que o determinismo tecnológico não é apenas uma questão teórica: tem consequências práticas imediatas. Se consolidada a tese de que sistemas de IA autônomos são equiparáveis a eventos da natureza — imprevisíveis e irresistíveis —, toda pretensão indenizatória de vítimas de decisões algorítmicas estaria fadada ao insucesso, independentemente da gravidade do dano sofrido. Esse resultado seria incompatível com os princípios fundamentais do ordenamento jurídico brasileiro, em especial com o princípio da reparação integral dos danos (art. 944 do Código Civil) e com o princípio da solidariedade social inscrito no art. 3º, inciso I, da Constituição da República.

A Teoria do Deep Pocket como Alternativa

Para Caitlin Mulholland, a solução para os questionamentos levantados pode residir em teorias como o risco proveito e na teoria do "Deep Pocket" — expressão que, em tradução livre, poderia ser denominada "bolso profundo". Essa teoria prioriza a responsabilização de agentes com maior capacidade econômica, partindo da premissa de que indivíduos ou entidades envolvidos em atividades potencialmente perigosas que proporcionem algum tipo de benefício devem arcar com a responsabilidade pelos danos causados.

Na análise de Paulius Čerka, Jurgita Grigienė e Gintarė Sirbikytė, publicada no Computer Law & Security Review, a obrigação de indenizar recai sobre aquele que possui maior capacidade financeira para assegurar e gerir os riscos inerentes à atividade. Essa abordagem privilegia, frequentemente, a adoção de mecanismos como o seguro obrigatório contra danos, transferindo para o mercado segurador a tarefa de distribuir os custos dos danos tecnológicos entre os participantes da cadeia econômica.

A teoria do Deep Pocket tem apelo intuitivo: quem mais se beneficia de determinada atividade e quem mais tem condições de precaver-se contra os riscos a ela inerentes deveria ser o primeiro a responder pelos danos causados. No contexto da IA, isso apontaria para os grandes fornecedores de tecnologia — empresas que lucram com a implantação em escala de sistemas autônomos —, e não para os usuários individuais que simplesmente adquiriram e utilizaram os sistemas nos termos previstos pelo fornecedor.

A Defect Theory e a Proposta de David Vladeck

No contexto norte-americano, David Vladeck propõe uma abordagem que busca conciliar algumas das teorias anteriores, fundamentando-se em normas jurídicas já vigentes. Segundo o autor, a única maneira de responsabilizar por danos causados por IA autônoma é enquadrá-los como responsabilidade por meio da presunção de existência de um defeito no sistema — ainda que as evidências do caso específico apontem em outro sentido. A lógica subjacente é que o dano, por si só, evidencia a falha no sistema de IA: se o sistema funcionasse perfeitamente, o dano não teria ocorrido.

Essa abordagem aproxima-se da doutrina res ipsa loquitur — "a coisa fala por si mesma" —, que, na tradição do common law, permite presumir a negligência do réu quando o próprio fato danoso, pela sua natureza, é suficiente para indicar que algo deu errado. Transposta para o campo da responsabilidade objetiva, essa lógica significaria que o dano causado por um sistema de IA cria uma presunção de defeito — presunção que o fornecedor somente poderia ilidir demonstrando que o sistema funcionou exatamente como previsto e que o dano decorreu de fato externo inteiramente alheio ao produto.

No direito brasileiro, esse mecanismo encontra suporte no art. 12, § 3º, do CDC, que admite a exclusão de responsabilidade do fornecedor apenas quando demonstrar que não colocou o produto no mercado, que o defeito inexiste ou que a culpa é exclusiva do consumidor ou de terceiro. A inversão do ônus da prova, nessa estrutura, já opera de forma implícita: é o fornecedor quem deve demonstrar a ausência de defeito — e não a vítima quem deve demonstrar sua existência.

O PL 2.338/23 e a Resposta Brasileira

O Projeto de Lei 2.338/23, em tramitação no Senado Federal, procura dar uma resposta estruturada a esses desafios. Ao distinguir entre "fornecedores" e "operadores" de sistemas de IA, o PL distribui responsabilidades ao longo da cadeia de agentes: os fornecedores respondem pelos defeitos de concepção e desenvolvimento do sistema; os operadores respondem pelo modo como o sistema é implantado e utilizado. Essa distinção tem respaldo na lógica do risco do empreendimento: cada agente responde pelos riscos que sua atividade específica cria.

Ademais, o PL prevê, para sistemas de alto risco, obrigações de documentação, testes de confiabilidade, mitigação de vieses e supervisão humana — obrigações cujo descumprimento, em caso de dano, reforça significativamente a imputabilidade do agente responsável. Nesse sentido, o PL 2.338/23 adota uma lógica próxima à da presunção de defeito: se o fornecedor ou operador não cumpriu as obrigações de governança previstas na lei, presume-se que o sistema apresentava defeito relevante — cabendo ao agente o ônus de demonstrar o contrário.

Verifica-se, portanto, que as perspectivas e os desafios do risco do empreendimento no campo da inteligência artificial não são intransponíveis: as categorias tradicionais da responsabilidade civil — complementadas por mecanismos como a presunção de defeito, a inversão do ônus da prova e a teoria do Deep Pocket — oferecem instrumentos suficientes para garantir a reparação das vítimas, desde que o intérprete esteja disposto a realizar a necessária releitura das normas vigentes à luz das particularidades tecnológicas do século XXI.

Fato do ProdutoRisco do DesenvolvimentoCDC

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.