Voltar ao Blog
ImputaçãoCapítulo 3

Critérios de Imputação de Responsabilidade pela IA: Conceitos Fundamentais

Conceitos fundamentais dos critérios de imputação de responsabilidade civil por IA: regimes subjetivo e objetivo, responsabilidade contratual, CDC, Código Civil e PL 2338/23.

Alessandro Lavorante 25 de janeiro de 2025 6 min de leitura

Introdução

A crescente utilização de ferramentas de inteligência artificial tem provocado transformações significativas em diversos setores da sociedade, ampliando a necessidade de revisão dos pressupostos tradicionais de responsabilidade civil. Se, por um lado, a dinâmica tecnológica impulsiona inovações e oportunidades de desenvolvimento, por outro, a complexidade dos sistemas de IA e a dispersão de agentes envolvidos no seu ciclo de criação, produção e uso apresentam novos desafios na definição de quem responde pelos danos causados. O presente artigo examina os conceitos fundamentais dos critérios de imputação de responsabilidade aplicáveis a situações em que a inteligência artificial figura como elemento central no surgimento de danos.

A Estrutura da Responsabilidade Civil Brasileira

A responsabilidade civil brasileira ancora-se no imperativo de reparação integral dos danos causados a terceiros. Esse dever de reparação surge a partir de diferentes fontes e se divide em regimes distintos. O regime de responsabilidade subjetiva é fundamentado na culpa — dolo ou culpa em sentido estrito; o objetivo, lastreado no risco. No modelo objetivo, prescinde-se da prova de culpa, mas são indispensáveis a ação ou omissão do agente, a relação de causalidade com o prejuízo e o dano em si, patrimonial ou extrapatrimonial.

O direito brasileiro também mantém a distinção entre responsabilidade contratual e extracontratual. Na primeira, há uma infração de deveres assumidos a partir de um vínculo formalizado entre as partes: se configurado o inadimplemento de uma obrigação, surge a necessidade de reparação pelos danos causados. Na extracontratual, a violação não decorre de um contrato, mas de um dever legal preexistente, consistente na obrigação geral de não lesar outrem — o clássico neminem laedere.

Responsabilidade Contratual e Extracontratual na Era da IA

O Código Civil Brasileiro (Lei nº 10.406/2002), por meio dos arts. 186, 187, 927, 932 e correlatos, disciplina a responsabilidade extracontratual, enquanto os dispositivos dos arts. 389 a 400 tratam de obrigações contratuais. Embora existam posturas defendendo uma "unidade" da responsabilidade, a tradição jurídica brasileira mantém essa distinção, especialmente para fins didáticos e processuais.

Em relações contratuais, basta a demonstração do descumprimento para que nasça o dever de indenizar; já no campo extracontratual, costuma-se exigir a prova da culpa, salvo nos casos de responsabilidade objetiva. Essa distinção reveste-se de especial relevância no contexto da IA: a relação entre o usuário de um sistema de IA e seu fornecedor é, em geral, de natureza contratual — regida pelos termos de serviço e pelas condições de uso do produto. Nesses casos, o inadimplemento das obrigações assumidas pelo fornecedor — incluindo as de qualidade, segurança e transparência — constitui fundamento suficiente para a responsabilização.

Há outras particularidades que emergem da natureza do vínculo entre as partes. Na esfera contratual, aplicam-se a exceptio non adimpleti contractus (art. 476 do Código Civil) e a possibilidade de revisão contratual por onerosidade excessiva (art. 478) — instrumentos específicos dessa modalidade. Por outro lado, na seara extracontratual, prevalece a regra da violação de um dever legal, consubstanciado na máxima neminem laedere.

A Culpa in Contrahendo e os Sistemas de IA

No âmbito pré-contratual, surge a figura da culpa in contrahendo. Esse instituto verifica-se quando alguém inicia negociações, induzindo a outra parte a se preparar efetivamente para o fechamento do contrato e, de forma injustificada, frustra a conclusão da avença. Mesmo sem vínculo contratual definitivo, podem ocorrer prejuízos por despesas ou compromissos assumidos na legítima expectativa de contratação.

No contexto da IA, a culpa in contrahendo pode emergir, por exemplo, quando um fornecedor de sistema induz um potencial cliente corporativo a realizar investimentos em infraestrutura e treinamento de pessoal na expectativa de contratação, para depois retirar unilateralmente a proposta sem justificativa plausível. Nesses casos, se comprovados dolo ou culpa e a existência de prejuízo, nasce a obrigação de reparar — fundamento que encontra respaldo no art. 422 do Código Civil, que impõe às partes o dever de observar a boa-fé nos momentos pré e pós-contratual.

O CDC e a Responsabilidade do Fornecedor de IA

O Código de Defesa do Consumidor (CDC, Lei nº 8.078/1990) constitui o principal marco regulatório das relações de consumo envolvendo sistemas de IA destinados ao usuário final. O CDC adota o regime de responsabilidade objetiva para o fornecedor de produtos (art. 12) e de serviços (art. 14), tornando desnecessária a prova de culpa para a responsabilização. Basta demonstrar o defeito do produto ou serviço, o dano sofrido pelo consumidor e o nexo causal entre ambos.

Parece-nos que a aplicação do CDC ao fornecimento de sistemas de IA é não apenas possível, mas necessária: o usuário final de um assistente de IA, de um sistema de recomendação ou de uma ferramenta de triagem automatizada é, via de regra, consumidor nos termos do art. 2º do CDC — destinatário final do produto ou serviço. A equiparação do sistema de IA a um produto ou serviço, por sua vez, não apresenta obstáculos dogmáticos relevantes, pois o CDC já abrange, em seu art. 3º, § 2º, qualquer atividade fornecida no mercado de consumo, inclusive as de natureza digital.

O PL 2338/23 e os Novos Critérios de Imputação

O PL 2338/23, aprovado no Senado, representa a mais importante iniciativa legislativa brasileira voltada especificamente à regulação da IA. Em seu texto, verificam-se disposições que criam novos critérios de imputação de responsabilidade, complementando e adaptando os regimes existentes no Código Civil e no CDC.

O art. 28 do PL 2338/23 estabelece a responsabilidade solidária entre agentes de IA pelos danos causados ao usuário, ressalvada a ação de regresso proporcional ao grau de contribuição de cada um. Essa disposição é de especial relevância em ecossistemas de IA distribuída — como os que envolvem modelos de base, integradores e operadores —, em que a identificação do agente individualmente responsável pela falha seria, na prática, impossível para o lesado.

O Desafio dos Sistemas Autônomos

O principal desafio dos critérios de imputação no contexto da IA é a questão da autonomia: sistemas de IA de alta sofisticação podem tomar decisões e realizar ações sem que qualquer humano esteja envolvido no processo decisório específico. Nesses casos, raramente é simples apontar o "responsável" em face de sistemas autônomos.

A solução que se afigura mais adequada, no estado atual do ordenamento brasileiro, é a de tratar o sistema de IA como uma "coisa" sob a guarda de seu operador, aplicando-lhe o regime de responsabilidade pelo fato da coisa previsto nos arts. 936 e seguintes do Código Civil. Essa solução, embora provisória, permite uma responsabilização imediata do operador pelos danos causados pelo sistema, reservando ao operador o direito de regresso contra o desenvolvedor quando o dano decorrer de defeito de projeto ou de fabricação.

Considerações Finais

Os conceitos fundamentais dos critérios de imputação de responsabilidade civil pela IA revelam que o ordenamento jurídico brasileiro já dispõe de instrumentos normativos suficientes para enfrentar os desafios mais urgentes suscitados pelos sistemas inteligentes. A articulação entre o Código Civil, o CDC e o PL 2338/23 oferece um quadro normativo coerente que, adequadamente interpretado e aplicado, permite a responsabilização efetiva dos agentes envolvidos no desenvolvimento, na operação e no uso de sistemas de IA. Parece-nos, contudo, que o aprofundamento desse quadro — por meio da jurisprudência, da doutrina e da regulação setorial — é uma tarefa inadiável para o direito brasileiro.

ImputaçãoResponsabilidadeCritérios

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.