Voltar ao Blog
Responsabilidade CivilCapítulo 2

O Dano: Reflexões e Propostas

Reflexões e propostas sobre o dano causado por IA: reparação integral, PL 2338/23, nexo causal em algoritmos, transparência, explicabilidade e os desafios do aprendizado de máquina no direito brasileiro.

Alessandro Lavorante 30 de setembro de 2024 7 min de leitura

A Centralidade do Dano na Regulação da Inteligência Artificial

Em síntese, a centralidade do dano cresce diante da inteligência artificial, exigindo soluções jurídicas que conciliem inovação e proteção das vítimas. O ordenamento brasileiro, com seu princípio da reparação integral e a consideração dos danos morais, difusos e até sociais, demonstra uma abertura significativa para a proteção das vítimas de lesões tecnológicas. Parece-nos que essa abertura é uma das características mais valiosas do sistema jurídico brasileiro, pois permite que os institutos clássicos sejam interpretados e aplicados de modo a tutelar situações de dano que ainda não encontraram disciplina normativa específica.

O princípio da reparação integral, consagrado nos arts. 402 a 404 e 944 do Código Civil e reiterado no art. 27 do PL 2338/23, opera como vetor interpretativo central nesse contexto: a vítima de um dano causado por sistema de IA tem direito a ser colocada na posição em que estaria caso o dano não tivesse ocorrido, abrangendo tanto os danos emergentes quanto os lucros cessantes e os danos extrapatrimoniais. Essa formulação, de aparente simplicidade, enfrenta desafios consideráveis quando aplicada a danos cujas causas são opacas e cujos efeitos são difusos.

O PL 2338/23: Avanços e Limitações

Inspirado em parte pelo debate europeu, o PL 2338/23 dispõe sobre a necessidade de que fornecedores de IA observem boas práticas de segurança e apresentem documentação que permita rastrear decisões automatizadas, aproximando-se do escopo preventivo visto no AI Act. Entre as propostas, está a criação de padrões mínimos de explicabilidade para algoritmos de alto impacto social, contemplando responsabilidade objetiva em certos casos de danos graves.

O caput do art. 27 da atual redação do Projeto adota expressamente o princípio da reparação integral do dano, estabelecendo que o fornecedor ou operador é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema. Parece-nos que essa disposição é fundamental para afastar argumentos que poderiam ser utilizados para limitar a responsabilidade com base na pretensa autonomia do sistema: a autonomia do algoritmo não transfere à vítima o ônus de suportar o dano, mas permanece na esfera de risco do operador.

Contudo, persistem desafios ligados à definição do nexo causal e à responsabilização por danos imprevisíveis. O aperfeiçoamento contínuo dos algoritmos é um fator de imprevisibilidade e ampliação do espectro de riscos a que a sociedade está sujeita. Verificou-se que o PL 2338/23, embora avance na classificação de risco e nas medidas de transparência, ainda não oferece respostas completamente satisfatórias para o problema do nexo causal em sistemas que aprendem e se modificam continuamente.

A Questão da Imprevisibilidade e o Nexo Causal

A imprevisibilidade dos resultados de sistemas de aprendizado de máquina constitui um dos maiores desafios à responsabilização civil por danos de IA. Em sistemas tradicionais, o nexo causal pode ser estabelecido pela identificação da sequência de eventos que ligam a conduta do agente ao resultado danoso. Em sistemas de IA que operam por indução estatística — identificando padrões em grandes volumes de dados sem que seus desenvolvedores tenham definido regras explícitas —, essa sequência não existe de forma transparente.

Parece-nos que, nesse contexto, as teorias tradicionais do nexo causal — como a teoria da equivalência das condições, a teoria da causalidade adequada e a teoria do dano direto e imediato —, embora aplicáveis, precisam ser complementadas por presunções legais ou jurisprudenciais que redistribuam o encargo probatório. A exigência de que a vítima demonstre o nexo causal de forma plena e direta em casos de opacidade algorítmica constitui, na prática, a negação do direito à reparação.

Verificou-se que tanto a Proposta de Diretiva Europeia quanto o PL 2338/23 adotam, em diferentes medidas, soluções de facilitação probatória para esse problema: a inversão do ônus da prova, a presunção de causalidade e a responsabilidade objetiva são instrumentos que, aplicados combinadamente, podem superar o obstáculo da opacidade algorítmica.

Propostas para o Aprimoramento do Regime Jurídico

Com base na análise do panorama regulatório brasileiro e internacional, é possível formular algumas propostas para o aprimoramento do regime jurídico de tutela contra danos causados por IA. Em primeiro lugar, parece-nos que o PL 2338/23 deveria incluir uma disposição específica sobre seguro obrigatório para sistemas de IA classificados como de alto risco, seguindo a sugestão da Resolução do Parlamento Europeu. A garantia de que a reparação do dano não dependerá da solvência do operador é condição indispensável para a efetividade do regime de responsabilidade.

Em segundo lugar, os padrões de explicabilidade previstos no Projeto deveriam ser complementados por obrigações de documentação e auditabilidade que permitam às vítimas e aos tribunais reconstituir o processo decisório do sistema com o grau de detalhe necessário à prova do nexo causal. Sem esse suporte informacional, a inversão do ônus da prova prevista no § 2º do art. 27 pode se revelar insuficiente.

Em terceiro lugar, verificou-se que a criação de um Gabinete ou Autoridade Nacional de Inteligência Artificial — análogo ao Gabinete de IA previsto no AI Act europeu — seria fundamental para concentrar a expertise técnica necessária ao exercício da fiscalização regulatória e para fornecer suporte aos tribunais na análise de casos complexos. A ausência de uma autoridade especializada no texto atual do PL 2338/23 é uma lacuna relevante.

A Reparação Integral como Imperativo Constitucional

O princípio da reparação integral não é apenas uma disposição infraconstitucional: ele decorre diretamente do princípio constitucional da dignidade da pessoa humana (art. 1º, III, da CF/88) e do direito fundamental à indenização por dano material ou moral (art. 5º, X, da CF/88). Parece-nos que essa fundamentação constitucional é decisiva para afastar interpretações restritivas do dever de reparação no contexto dos danos por IA.

A dignidade da pessoa humana exige que o ordenamento jurídico não abandone as vítimas de danos tecnológicos à sua própria sorte, atribuindo-lhes o ônus de suportar as consequências de riscos que foram criados e explorados por terceiros. A responsabilidade civil, nesse sentido, não é apenas um mecanismo de alocação de custos; é, fundamentalmente, um instrumento de realização da justiça distributiva que impõe a quem criou o risco o dever de responder pelas suas consequências.

Os Modelos Europeus como Parâmetro de Referência

Os modelos europeus — o AI Act e a Proposta de Diretiva sobre Responsabilidade Civil da IA — servem de parâmetro de referência para o ordenamento brasileiro, não apenas pela sua sofisticação técnica, mas também pela experiência acumulada da União Europeia na construção de regimes regulatórios para mercados de alta tecnologia. Verificou-se que o PL 2338/23 já incorpora muitas das soluções desenvolvidas no âmbito europeu, mas ainda há espaço para aprimoramento, especialmente nas questões relacionadas ao nexo causal, ao seguro obrigatório e à criação de uma autoridade supervisora especializada.

Parece-nos que a aproximação entre os sistemas brasileiro e europeu é, ademais, conveniente do ponto de vista das empresas que operam em ambos os mercados, pois reduz os custos de conformidade e facilita a harmonização de práticas de governança de IA em escala global. O Brasil, com sua posição de destaque no cenário tecnológico latino-americano, tem a oportunidade de estabelecer um regime jurídico de referência para a região, beneficiando-se das lições aprendidas no processo regulatório europeu.

Considerações Finais

As reflexões e propostas apresentadas revelam que o "dano" aparece como um ponto central das diversas propostas regulatórias sobre inteligência artificial, refletindo uma preocupação geral de que as vítimas não suportem sozinhas o ônus de perdas ocasionadas por tecnologias imprevisíveis. O PL 2338/23 acerta ao dispor sobre classificação de risco e medidas de transparência, e o princípio da reparação integral oferece a base normativa para tutelar danos patrimoniais e extrapatrimoniais decorrentes de decisões autônomas de IA. O caminho à frente exige, contudo, o aperfeiçoamento dos instrumentos de prova, a criação de mecanismos de garantia da reparação e o fortalecimento institucional da fiscalização regulatória.

DanoPrejuízoIndenização

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.