Voltar ao Blog
ImputaçãoCapítulo 3

Critérios de Imputação de Responsabilidade pela IA: Perspectivas e Desafios

Perspectivas e desafios dos critérios de imputação por IA: teorias do risco, responsabilidade objetiva do Estado, risco-proveito, art. 927 do Código Civil e PL 2338/23.

Alessandro Lavorante 2 de fevereiro de 2025 7 min de leitura

Introdução

As perspectivas e os desafios que se apresentam aos critérios de imputação de responsabilidade pela inteligência artificial são, em grande medida, o reflexo da evolução histórica das teorias do risco no direito privado e público. A crescente autonomia dos sistemas de IA e a dispersão de agentes na cadeia de desenvolvimento e operação dessas tecnologias colocam em xeque os pressupostos tradicionais de imputação, exigindo que o direito revise e adapte seus instrumentos. Parece-nos essencial, portanto, examinar as principais teorias do risco aplicáveis à IA, bem como os desafios específicos que se apresentam ao ordenamento jurídico brasileiro na atribuição de responsabilidade a agentes humanos por danos causados por sistemas autônomos.

A Responsabilidade Objetiva do Estado e a IA nos Serviços Públicos

A análise das perspectivas regulatórias sobre imputação de responsabilidade pela IA começa, naturalmente, pelas origens históricas da responsabilidade objetiva — que remontam, no direito continental, à teoria do risco administrativo. Por essa teoria, o Poder Público, ao criar riscos pela prestação de serviços ou pelo emprego de tecnologias, responde pelos danos gerados, independentemente de culpa. Esse arcabouço inspirou o desenvolvimento do direito privado e continua a influenciar a responsabilidade civil em geral, inclusive quando a IA é aplicada em serviços públicos.

Um exemplo relevante é o uso de algoritmos de reconhecimento facial pela polícia. Quando esses sistemas identificam erroneamente um indivíduo como suspeito, gerando prisão indevida, o Estado responde objetivamente pelos danos causados — com fundamento no art. 37, § 6º, da Constituição Federal. A IA, nesse contexto, é um instrumento de prestação do serviço público: os erros do sistema são, juridicamente, erros do Estado. Essa lógica impõe ao Poder Público obrigações rigorosas de validação, supervisão e auditoria dos sistemas de IA utilizados em funções de segurança pública, cujo descumprimento reforça o nexo de imputação.

O Risco Profissional e o Risco-Proveito

As teorias do risco profissional e do risco-proveito, historicamente ligadas às relações de trabalho, oferecem fundamentos relevantes para a imputação de responsabilidade no contexto da IA. A teoria do risco profissional sustenta que o empregador, ao introduzir tecnologias que ampliam os riscos no ambiente de trabalho, deve arcar com as consequências dos danos delas decorrentes. No contexto da IA, isso significa que a empresa que substitui trabalhadores por sistemas automatizados de tomada de decisão — em funções de avaliação, seleção ou supervisão — assume a responsabilidade pelos danos que esses sistemas causarem aos trabalhadores afetados.

A teoria do risco-proveito fundamenta-se na lógica de que quem aufere ganhos econômicos de determinada atividade também deve arcar com os ônus decorrentes de eventuais prejuízos. No CDC (Lei nº 8.078/1990), essa lógica está explicitamente incorporada: o fornecedor que obtém lucro com a comercialização de um produto ou serviço responde objetivamente pelos danos que ele causar, independentemente de culpa. Aplicada à IA, a teoria do risco-proveito justifica a responsabilidade objetiva do desenvolvedor e do operador de sistemas de IA pelos danos causados a terceiros, na medida em que são eles os principais beneficiários econômicos da tecnologia.

O Risco Criado e o Art. 927 do Código Civil

A teoria do risco criado — expressa, no Brasil, pelo art. 927, parágrafo único, do Código Civil (Lei nº 10.406/2002) — estabelece que aquele que, por sua atividade, cria risco de dano para terceiros, incorre em responsabilidade objetiva. O dispositivo é suficientemente aberto para abranger o desenvolvimento de sistemas de IA, especialmente aqueles com alto potencial danoso.

A questão que se coloca é se o mero desenvolvimento de softwares e componentes com inteligência artificial constitui, por si só, uma "atividade de risco elevado" nos termos do art. 927, parágrafo único. A resposta, parece-nos, deve ser diferenciada: o desenvolvimento de sistemas de IA de uso geral, com riscos difusos e controláveis, não necessariamente satisfaz o requisito de "risco especial para outrem"; já o desenvolvimento de sistemas de alto risco — como os listados no Anexo III do AI Act e nos arts. 15 e seguintes do PL 2338/23 —, que afetam direitos fundamentais de indivíduos identificáveis, pode e deve ser enquadrado como atividade de risco para fins do art. 927.

O Risco Excepcional e o Risco Integral

As derivações do risco criado — risco excepcional (ou anormal) e risco integral — apresentam aplicações específicas no contexto da IA. O risco excepcional aplica-se a atividades que, por sua natureza, envolvem perigos extraordinários que excedem os limites do risco ordinário da vida em sociedade. Sistemas de IA utilizados em infraestruturas críticas — redes elétricas, sistemas de controle de tráfego aéreo, monitoramento de reatores nucleares — parecem enquadrar-se nessa categoria, justificando um regime de responsabilidade mais rigoroso.

O risco integral, por sua vez, representa o grau máximo de responsabilidade objetiva: o agente responde pelos danos causados sem possibilidade de invocar excludentes de causalidade — nem o fato exclusivo da vítima, nem o de terceiro, nem o caso fortuito. Questiona-se, no âmbito da doutrina, até que ponto essa modalidade pode ser cogitada para determinadas soluções de IA de altíssimo potencial danoso ou capazes de gerar efeitos irreversíveis — como sistemas de armas autônomas ou modelos de IA utilizados em decisões médicas de vida ou morte. A resposta, no estado atual do ordenamento brasileiro, é negativa: a adoção do risco integral para atividades privadas exige previsão legal expressa, que ainda não existe para o setor de IA.

A Perspectiva do PL 2338/23 e do AI Act

O PL 2338/23 adota, implicitamente, uma abordagem baseada no risco criado ao impor obrigações diferenciadas a sistemas de IA de acordo com seu nível de risco. Os sistemas de "alto risco" — definidos em regulamentação específica com base em critérios como o impacto sobre direitos fundamentais e a irreversibilidade dos danos — estão sujeitos a obrigações de governança, avaliação de impacto e supervisão humana que, quando descumpridas, fundam a responsabilidade objetiva do agente.

O AI Act (Regulamento UE 2024/1689) vai além ao estabelecer, em seu art. 17, que os fornecedores de sistemas de IA de alto risco devem implementar sistemas de gestão de risco ao longo de todo o ciclo de vida do sistema. O descumprimento dessas obrigações cria, nos termos do art. 4.º da Proposta de Diretiva de Responsabilidade Civil para IA, uma presunção de culpa em favor do lesado — mecanismo que, embora situado no campo da responsabilidade subjetiva, tem efeito prático semelhante ao da responsabilidade objetiva ao inverter o ônus probatório.

O Desafio da Responsabilidade em Cadeias de Valor Complexas

Um dos principais desafios para os critérios de imputação no contexto da IA é a atribuição de responsabilidade em cadeias de valor complexas, nas quais o produto final resulta da integração de componentes desenvolvidos por múltiplos agentes independentes. Um modelo de linguagem de grande escala, por exemplo, pode ser desenvolvido por uma empresa, ajustado por outra, integrado em uma aplicação por uma terceira e distribuído ao usuário final por uma quarta. Quando um dano decorre do funcionamento desse sistema, identificar o agente responsável pela falha específica pode ser tecnicamente impossível para o lesado.

O PL 2338/23, em seu art. 28, enfrenta esse desafio ao estabelecer a responsabilidade solidária entre agentes de IA. O CDC, em seu art. 18, faz o mesmo para produtos de consumo. A solidariedade passiva, nesses contextos, é a solução mais adequada para garantir a reparação integral do lesado, reservando aos corresponsáveis o direito de regresso proporcional ao grau de contribuição de cada um para a criação do risco.

Considerações Finais

As perspectivas e os desafios dos critérios de imputação de responsabilidade pela IA revelam um campo em intensa e necessária elaboração jurídica. As teorias do risco — profissional, proveito, criado, excepcional e integral —, articuladas com os regimes do Código Civil, do CDC e do PL 2338/23, oferecem um conjunto de instrumentos normativos suficientemente robusto para enfrentar os problemas de responsabilidade civil suscitados pelos sistemas inteligentes. Parece-nos, contudo, que a efetividade desse quadro normativo depende, em larga medida, do desenvolvimento de uma jurisprudência coerente e tecnicamente informada, capaz de aplicar esses instrumentos às especificidades dos sistemas de IA sem perder de vista os valores fundamentais que a responsabilidade civil se propõe a proteger.

ImputaçãoResponsabilidadeCritérios

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.