Introdução
A aplicação prática da teoria do risco-proveito suscita uma série de questões que vão além de sua formulação teórica. Verificou-se, tanto na doutrina quanto na jurisprudência, que a operacionalização do conceito de "proveito" como fator de imputação objetiva gera incertezas e controvérsias que podem comprometer a efetividade do sistema protetivo. Ao mesmo tempo, o tratamento do risco-proveito em projetos legislativos voltados à regulação da inteligência artificial — especialmente o Projeto de Lei n.º 2.338/2023 — revela novas perspectivas e desafios para a aplicação dessa teoria no contexto tecnológico contemporâneo.
A Responsabilidade do Fornecedor por Atos de Prepostos e Representantes Autônomos
Um dos aspectos práticos mais relevantes do risco-proveito no direito brasileiro diz respeito à responsabilidade solidária do fornecedor por atos de seus prepostos e representantes autônomos, prevista no art. 34 do CDC. Esse dispositivo, ao estender a responsabilidade do fornecedor para além dos seus próprios atos e dos atos de seus empregados diretos, consolida a lógica do risco-proveito: quem se beneficia de uma rede de distribuição e representação — obtendo proveito econômico por meio de agentes que atuam em seu nome — deve suportar também os danos que esses agentes causem a terceiros, sem necessidade de demonstrar culpa in eligendo ou in vigilando.
Parece-nos que essa extensão da responsabilidade é coerente com a premissa fundamental da teoria: o benefício econômico auferido pelo principal pela estrutura de prepostos e representantes justifica a imputação objetiva dos riscos que essa estrutura gera. A distinção entre o art. 34 do CDC — fundado no proveito da atividade empresarial — e os arts. 932 e 933 do Código Civil — fundados na responsabilidade indireta por culpa presumida — é metodologicamente importante e revela a coexistência de diferentes fundamentos para a responsabilidade por atos de terceiros no ordenamento brasileiro.
As Críticas ao Conceito de "Proveito" como Fator de Imputação
A principal objeção prática à teoria do risco-proveito consiste na dificuldade de delimitar e demonstrar o "proveito" do agente causador do dano. Há quem observe, com pertinência, que o ganho, em sentido amplo, é inerente a toda e qualquer atividade humana: mesmo atividades aparentemente desinteressadas, como o voluntariado ou o exercício de direitos políticos, geram, para quem as pratica, alguma forma de benefício — seja ele material, social, reputacional ou afetivo.
Nesse raciocínio, condicionar a reparação civil à prova de vantagem não apenas reduziria o alcance protetivo da responsabilidade objetiva, como também faria ressurgir, pela porta dos fundos, um juízo subjetivo que o legislador tentou afastar: a vítima teria de demonstrar a motivação de lucro do agente, o que se aproximaria perigosamente da prova do elemento volitivo da culpa. Caio Mário da Silva Pereira alertou, com precisão, que, se tal requisito não for deixado de lado, "é envolver, em última análise, uma influência subjetiva na conceituação da responsabilidade civil" (Responsabilidade Civil, 2. ed., Rio de Janeiro: Forense, 1999, p. 287).
Na seara do art. 927, parágrafo único, do Código Civil, João Quinelato de Queiroz (2024) aponta que a incorporação literal da teoria do risco-proveito poderia aproximar a noção de responsabilidade de fundamentos moralistas — menos voltados à tutela efetiva da vítima e mais preocupados com a censura à conduta do agente —, podendo inviabilizar a objetividade pretendida pela cláusula geral de risco. Essa crítica é relevante: o parágrafo único do art. 927 foi concebido como uma cláusula aberta, capaz de abranger situações novas e imprevistas, e sua interpretação restritiva fundada no proveito econômico poderia engessar sua aplicação.
A Adoção do Risco-Proveito no PL 2.338/2023
Em que pesem as críticas doutrinárias, a redação atual do Projeto de Lei n.º 2.338/2023 — que dispõe sobre o uso da inteligência artificial no Brasil e se encontra em tramitação no Senado Federal — parece adotar, ao menos parcialmente, a lógica do risco-proveito em duas situações normativas distintas.
A primeira diz respeito à definição de "operador de sistema de inteligência artificial", contida no art. 4.º, inciso III, do projeto: considera-se operador a "pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional". A referência ao "benefício próprio" como critério de qualificação do operador revela a influência da lógica do risco-proveito: é precisamente porque o operador aufere vantagem do sistema de IA que sobre ele recai a condição de agente responsável.
A segunda situação normativa em que o risco-proveito se manifesta no PL 2.338/2023 é a excludente de responsabilidade prevista no art. 28, inciso I: os agentes de inteligência artificial não serão responsabilizados quando "comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial". A construção negativa é reveladora: a responsabilidade existe precisamente porque houve "proveito" do sistema de IA; afastado o proveito, afasta-se também a imputação. Essa estrutura lógica — responsabilidade fundada no proveito, afastada pela ausência de proveito — é a expressão mais direta da teoria do risco-proveito na regulação da IA.
Responsabilidade Solidária e Cadeia de Agentes de IA
Um dos desafios práticos mais complexos na aplicação do risco-proveito ao campo da inteligência artificial é a identificação dos agentes que auferem proveito ao longo da cadeia de desenvolvimento, distribuição e operação dos sistemas. O art. 4.º, inciso IV, do PL 2.338/2023 define "agentes de inteligência artificial" como os fornecedores e operadores de sistemas de IA — uma categoria ampla que abrange desde os grandes desenvolvedores de modelos fundacionais até os usuários corporativos que integram esses modelos em seus produtos e serviços.
Parece-nos que a responsabilidade solidária entre fornecedores e operadores, quando todos auferem proveito do sistema de IA, é a solução mais coerente com a teoria do risco-proveito e com os princípios gerais do direito do consumidor. Nessa estrutura, cada agente que extrai benefício do sistema deve suportar, na proporção de seu ganho e de sua capacidade de controle do risco, os danos que o sistema cause a terceiros.
O Papel do Art. 927, Parágrafo Único, do Código Civil na Ausência de Regulação Específica
Enquanto o PL 2.338/2023 não é aprovado e não entra em vigor, a responsabilidade civil por danos causados por sistemas de IA deve ser apreciada à luz do ordenamento vigente. Nesse contexto, o art. 927, parágrafo único, do Código Civil — que impõe responsabilidade objetiva quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem — constitui o principal fundamento normativo disponível.
A aplicação desse dispositivo ao desenvolvimento e à operação de sistemas de IA de alto risco é sustentada por parte significativa da doutrina, que entende que essas atividades, pela sua natureza, criam riscos acima do tolerável para terceiros — o que seria suficiente para a incidência da cláusula geral de risco, independentemente da demonstração de culpa. O proveito econômico auferido pelos agentes de IA reforça, nesse contexto, a pertinência da aplicação da teoria do risco-proveito como fundamento complementar da responsabilidade objetiva.
Considerações Finais
Os aspectos práticos da teoria do risco-proveito revelam tanto suas potencialidades quanto suas limitações como instrumento de imputação objetiva. Verificou-se que a delimitação do conceito de "proveito" permanece um desafio dogmático central, e que a tendência legislativa — expressa no PL 2.338/2023 — é a de incorporar a lógica do risco-proveito na regulação da inteligência artificial, ainda que de forma implícita e fragmentada. As perspectivas e os desafios dessa incorporação serão examinados na seção seguinte, com atenção especial às experiências do direito comparado europeu.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".