Voltar ao Blog
Responsabilidade CivilCapítulo 2

O Dano: Panorama Atual

Panorama atual do dano por inteligência artificial: Resolução 2020/2014 do Parlamento Europeu, Diretiva de responsabilidade civil da IA, PL 2338/23 e responsabilidade objetiva no direito brasileiro.

Alessandro Lavorante 27 de setembro de 2024 7 min de leitura

O Panorama Regulatório Internacional sobre Danos Causados por IA

O panorama atual da regulação de danos causados por inteligência artificial é marcado por uma intensa atividade normativa em múltiplos níveis, com destaque para as iniciativas europeias e para o processo legislativo brasileiro. Parece-nos que estamos diante de um momento de transição em que os instrumentos clássicos da responsabilidade civil convivem com propostas regulatórias especializadas, cujas soluções ainda estão em processo de consolidação.

A Resolução (2020/2014(INL)) do Parlamento Europeu, de 20 de outubro de 2020, sugere um regime de responsabilidade estrita para aplicações de alto risco (art. 4º), bem como mecanismos para facilitar a prova do nexo causal em situações em que o dano resulta da autonomia decisória do sistema (arts. 8º e 10º). Essa Resolução ressalta, nos seus considerandos e artigos, a importância de equilibrar a proteção das vítimas com a promoção do desenvolvimento tecnológico, sublinhando a necessidade de um seguro obrigatório (considerando 'J' e considerações 23, 24 e 24) para cobrir danos gerados por IA de risco elevado.

A Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA

A Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA (COM(2022) 496 final), em discussão no âmbito da União Europeia, propõe instrumentos processuais que incluem a inversão ou a facilitação do ônus da prova em determinados cenários de opacidade algorítmica (art. 3º), de modo a proteger a vítima de um obstáculo probatório desproporcional. A iniciativa visa assegurar harmonização normativa em todos os Estados-Membros, garantindo, por exemplo, que as vítimas de danos causados por IA possam recorrer a instrumentos de presunção de causalidade quando a complexidade técnica inviabilizar a prova direta (art. 4º).

Verificou-se que a Proposta de Diretiva opera em complementaridade com o AI Act: enquanto este último estabelece obrigações regulatórias e administrativas para os operadores de sistemas de IA, aquela disciplina as consequências civis do descumprimento dessas obrigações e dos danos produzidos por sistemas conformes. A articulação entre os dois instrumentos é um dos aspectos mais relevantes do debate jurídico europeu atual.

Parece-nos que a principal contribuição da Proposta de Diretiva está na inversão do ônus da prova em situações de opacidade algorítmica: ao presumir, em determinadas hipóteses, a existência do nexo causal quando o operador não cumpriu com suas obrigações de transparência e documentação, a Diretiva supera o principal obstáculo prático à tutela das vítimas de danos por IA.

O PL 2338/23: Estrutura e Inovações

No ordenamento jurídico brasileiro, o PL 2338/23 prevê uma classificação de risco para sistemas de IA (Capítulo III, arts. 13 a 18) e delineia deveres de transparência e prestação de contas em seu art. 5º, bem como regras de responsabilização em seu Capítulo V (arts. 27 a 29). O art. 27 estabelece que o fornecedor ou operador de sistema de inteligência artificial que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema.

O § 1º do mesmo dispositivo estabelece responsabilidade objetiva para fornecedores e operadores de sistemas de alto risco ou risco excessivo, na medida de sua participação no dano. Trata-se de solução normativa que, ao adotar a responsabilidade objetiva para as aplicações de maior potencial lesivo, alinha o Projeto às melhores práticas internacionais e ao regime da Resolução do Parlamento Europeu. Parece-nos que a responsabilidade objetiva é, de fato, a resposta mais adequada para os sistemas de alto risco, dado que a prova da culpa nesses casos seria frequentemente inviável para a vítima.

O § 2º do art. 27 prevê que, quando não se tratar de sistema de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima. Essa presunção de culpa, menos rigorosa do que a responsabilidade objetiva, é também mais adequada para sistemas de menor potencial lesivo, pois permite ao operador afastar sua responsabilidade demonstrando que agiu com o cuidado razoável exigível.

As Excludentes de Responsabilidade no PL 2338/23

O art. 28 do PL 2338/23 estabelece que os agentes de inteligência artificial não serão responsabilizados quando: (I) comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; ou (II) comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo. Verificou-se que essas excludentes são consistentes com o regime geral de responsabilidade civil do Código Civil e do CDC, garantindo coerência sistêmica ao regime especial proposto.

A exclusão do caso fortuito interno — aquele decorrente da própria atividade desenvolvida — como excludente de responsabilidade é implícita na estrutura da responsabilidade objetiva: os riscos inerentes ao desenvolvimento e à operação de sistemas de IA são, por definição, internos à atividade e não podem ser invocados pelo operador para exonerar-se da obrigação de reparar.

Relação com o Código de Defesa do Consumidor

O art. 29 do PL 2338/23 preserva expressamente a aplicação das normas do Código de Defesa do Consumidor (Lei nº 8.078/1990) às hipóteses de responsabilização civil decorrentes de danos causados por sistemas de IA no âmbito das relações de consumo, sem prejuízo da aplicação das demais normas do Projeto. Parece-nos que essa previsão é tecnicamente correta, pois evita lacunas na tutela do consumidor e garante a aplicação do regime mais protetivo nas relações de consumo.

O CDC, como se sabe, estabelece responsabilidade objetiva do fornecedor pelo fato do produto ou do serviço (arts. 12 e 14), inversão do ônus da prova em favor do consumidor (art. 6º, VIII) e solidariedade entre todos os integrantes da cadeia de fornecimento. A manutenção dessas garantias nas relações de consumo que envolvem sistemas de IA é fundamental para assegurar a tutela efetiva de milhões de consumidores que interagem diariamente com esses sistemas sem plena consciência dos riscos envolvidos.

O Papel do Seguro Obrigatório na Gestão de Riscos

A Resolução do Parlamento Europeu sugere a criação de um sistema de seguro obrigatório para cobrir danos gerados por IA de risco elevado. Verificou-se que esse mecanismo tem precedentes em outros campos de atividade de risco — como o seguro obrigatório de veículos automotores e o seguro de responsabilidade civil em determinadas profissões — e representa uma solução interessante para o problema da insolvência do operador diante de danos de grande magnitude.

Parece-nos que a adoção de um sistema de seguro obrigatório para sistemas de IA de alto risco seria uma adição valiosa ao PL 2338/23 brasileiro, que, em sua redação atual, não contempla esse mecanismo. O seguro garantiria que as vítimas de danos por IA possam receber reparação efetiva mesmo em casos em que o operador do sistema não tenha patrimônio suficiente para suportar o pagamento da indenização, distribuindo socialmente os custos dos riscos tecnológicos.

Considerações Finais

O panorama atual da regulação de danos por inteligência artificial revela um campo em intensa transformação, no qual os instrumentos clássicos da responsabilidade civil — responsabilidade objetiva, inversão do ônus da prova, solidariedade — estão sendo combinados com soluções inovadoras — classificação de risco, obrigações de transparência, seguro obrigatório — para construir um regime de tutela adequado à complexidade e à escala dos riscos tecnológicos contemporâneos. O PL 2338/23 brasileiro insere-se nessa tendência global, representando uma resposta normativa relevante que, embora ainda em processo de aprovação, já orienta o debate doutrinário e jurisprudencial nacional.

DanoPrejuízoIndenização

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.