Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco-Proveito: Perspectivas e Desafios

Perspectivas e desafios do risco-proveito diante da IA: AI Act europeu, Resolução do Parlamento Europeu, PL 2338/23, operador de IA e limites do modelo distributivo.

Alessandro Lavorante 15 de abril de 2025 7 min de leitura

Introdução

A teoria do risco-proveito, ao encontrar novos campos de aplicação no contexto das tecnologias de inteligência artificial, defronta-se com perspectivas promissoras e com desafios de ordem dogmática e prática que desafiam seus fundamentos tradicionais. Verificou-se, tanto no direito europeu quanto no debate doutrinário brasileiro e internacional, que a questão central é a de identificar, com precisão, quem controla e quem se beneficia do risco associado aos sistemas de IA — e se é possível, ou mesmo desejável, fundar um regime de responsabilidade inteiramente na noção de proveito quando o uso da tecnologia é massivo e difuso.

A Perspectiva Europeia: Parlamento, Expert Group e AI Act

No âmbito europeu, a construção de um regime de responsabilidade para a inteligência artificial tem se dado de forma progressiva e articulada. Mafalda Miranda Barbosa (2021) destaca que aquele que obtém benefício do uso do software ou do robô deve suportar os riscos específicos da inteligência artificial, colocando em discussão se tal ônus recairia sobre o utilizador, o proprietário ou o guardião do sistema. Essa distinção é fundamental: em sistemas de IA complexos, o beneficiário do sistema pode não coincidir com quem o controla operacionalmente, o que exige um refinamento da teoria do risco-proveito clássico.

A Resolução do Parlamento Europeu de 20 de outubro de 2020 (2020/2014(INL)), que contém recomendações à Comissão Europeia sobre o regime de responsabilidade civil aplicável à inteligência artificial, adota expressamente a lógica do risco-proveito. O art. 3.º, alínea 'e', define o "operador de frontend" como "qualquer pessoa singular ou coletiva que exerça um grau de controlo sobre um risco relacionado com a operação e o funcionamento do sistema de IA e que beneficie da sua operação". O art. 4.º, por sua vez, propõe a adoção de um regime de responsabilidade estrita para sistemas de IA de alto risco, enfatizando que quem controla e aufere vantagem econômica desses sistemas deve suportar os riscos.

O Expert Group on Liability and New Technologies, em seu relatório de 2019 (Liability for Artificial Intelligence and Other Emerging Digital Technologies), propõe a figura do "operador" como a pessoa que controla o risco associado à utilização da tecnologia e, ao mesmo tempo, extrai vantagem dessa utilização. O relatório afirma, de forma clara, que "a responsabilidade estrita deve recair sobre aquele que se encontra em posição de controle do risco conectado à operação de tecnologias digitais emergentes e que se beneficia de tal operação" (p. 39). Essa formulação é a tradução mais direta da teoria do risco-proveito no contexto das tecnologias emergentes.

O AI Act e a Classificação por Níveis de Risco

O Regulamento Europeu sobre Inteligência Artificial (AI Act), aprovado em 2024, adota uma abordagem diferente, mas complementar à teoria do risco-proveito: em vez de fundar a responsabilidade no benefício econômico do operador, o AI Act classifica os sistemas de IA por níveis de risco — inaceitável, alto, limitado e mínimo — e impõe obrigações progressivamente mais rigorosas conforme o nível de risco. Essa abordagem é mais próxima da teoria do risco criado do que da teoria do risco-proveito em sentido estrito, embora a lógica do benefício econômico esteja implícita na justificativa para a imposição das obrigações.

Parece-nos que o AI Act e a teoria do risco-proveito são instrumentos complementares, não concorrentes: o AI Act define ex ante as obrigações de segurança e transparência que os agentes de IA devem cumprir, enquanto a teoria do risco-proveito opera ex post, fundamentando a responsabilidade civil pelos danos causados quando essas obrigações se mostrem insuficientes para evitar o dano. A combinação dos dois instrumentos — regulação preventiva e responsabilidade reparatória — constitui o modelo mais robusto de proteção das vítimas de danos causados por sistemas de IA.

O PL 2.338/2023 e a Classificação de Risco no Brasil

No Brasil, o Projeto de Lei n.º 2.338/2023 adota, de forma parcial, a lógica do AI Act. O projeto proíbe definitivamente a implementação e o uso dos considerados sistemas de "risco excessivo" — especificamente aqueles que utilizem técnicas subliminares para induzir comportamentos prejudiciais, que explorem vulnerabilidades de grupos específicos ou que sirvam ao ranqueamento social de forma ilegítima (art. 14, incisos I a III). Essa proibição absoluta é coerente com a teoria do risco-proveito: nenhum benefício econômico pode justificar a manutenção de sistemas que criam riscos inaceitáveis para direitos fundamentais.

O projeto também inclui um rol de sistemas de "alto risco" — em linhas gerais, aqueles utilizados em infraestrutura crítica, educação, recursos humanos, serviços essenciais, cumprimento da lei e administração da justiça — para os quais impõe obrigações específicas de transparência, auditabilidade e controle humano. A identificação biométrica à distância em espaços de acesso público só é admitida com lei federal específica e autorização judicial, para crimes graves, busca de vítimas e pessoas desaparecidas ou prisão em flagrante, assegurando controle judicial e revisão humana (art. 15, caput, incisos I a III, e parágrafo único).

Os Limites da Responsabilidade Distributiva por Proveito

Barbosa (2021) aponta, com perspicácia, que a responsabilidade objetiva de caráter distributivo, fundada no proveito, pode não ser adequada quando a IA é largamente utilizada em benefício comum, sem que haja um sujeito específico que a controle ou dela se beneficie de forma individualizada. O exemplo paradigmático são os algoritmos que mapeiam estradas para veículos autônomos: seu uso é tão disseminado que não há um único operador responsável pela introdução do produto no mercado ou pelo benefício auferido com sua utilização.

O Expert Group on Liability and New Technologies complementa essa análise, defendendo que a responsabilidade do operador, embora objetiva, seria mais apropriada nos usos de IA em ambientes não privados e ligados a bens dotados de considerável potencial ofensivo, como drones ou veículos autônomos. Mesmo no ambiente doméstico, porém, se a aplicação inteligente apresentar riscos crescentes e for controlada por um grupo restrito que dela aufere vantagens, a responsabilização objetiva do operador seria admissível e justificada.

A Superação do Risco-Proveito em Favor do Risco Criado

Do exposto, conclui-se que parte considerável da doutrina contemporânea defende a superação — ou ao menos a complementação — do risco-proveito em favor de uma concepção ancorada no risco criado ou no risco da atividade. Essa tendência é compreensível: a exigência de demonstração do proveito como condição da responsabilidade objetiva pode, em muitos casos, impor à vítima um ônus probatório incompatível com a tutela que o sistema jurídico pretende oferecer.

Não se pode, todavia, ignorar a relevância histórica e prática do risco-proveito. Sua aplicação reiterada nos casos de produção em massa, fornecimento de bens e serviços e operação de sistemas tecnológicos complexos demonstra que se trata de uma teoria ainda viva e produtiva, especialmente quando o benefício econômico do agente é claro e individualizado. Parece-nos que a solução mais adequada não é a substituição, mas a articulação entre as teorias: o risco-proveito como fundamento primário quando o benefício é identificável; o risco criado como fundamento subsidiário quando o benefício é difuso ou indemonstrável.

Considerações Finais

As perspectivas e os desafios do risco-proveito diante das novas tecnologias revelam que essa teoria, embora formulada num contexto histórico muito diferente do atual, conserva plena relevância para a compreensão e a resolução dos problemas de responsabilidade civil contemporâneos. Verificou-se que, tanto no direito europeu quanto no debate brasileiro, a lógica do risco-proveito está presente — explícita ou implicitamente — nas propostas de regulação da inteligência artificial, confirmando a vitalidade de seus fundamentos. Suas limitações, porém, impõem que seja complementada pela teoria do risco criado, cujos contornos serão examinados na seção seguinte.

Risco-ProveitoBenefícioResponsabilidade

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.