A sistematização dos fundamentos jurídicos disponíveis para a responsabilização por danos causados por sistemas de IA não dispensa uma análise crítica de suas limitações. Ao contrário: é precisamente a identificação dessas limitações que permite compreender por que o debate sobre um regime específico para a IA não é academicamente supérfluo, mas juridicamente necessário. Os casos concretos examinados ao longo desta seção demonstraram, com nitidez, que as categorias tradicionais de responsabilidade civil enfrentam dificuldades reais quando aplicadas a sistemas autônomos.
Parece-nos que essas dificuldades se organizam em torno de três grandes eixos: o problema da causalidade, o problema da imputação subjetiva e o problema da opacidade algorítmica. Cada um desses eixos merece análise específica.
O Problema da Causalidade
A responsabilidade civil, em qualquer de suas modalidades, exige a demonstração de nexo causal entre a conduta do responsável e o dano sofrido pelo lesado. Nos casos envolvendo sistemas de IA autônomos, essa exigência encontra dificuldades práticas significativas.
Em primeiro lugar, a cadeia de causalidade nos sistemas de IA é frequentemente difusa: o dano resulta de uma sequência de decisões distribuídas entre o desenvolvedor do modelo, o fornecedor dos dados de treinamento, o operador que configurou o sistema e o usuário que formulou a consulta ou acionou o processo. Identificar qual elo dessa cadeia foi decisivo para a produção do dano pode ser, na prática, impossível.
Em segundo lugar, os sistemas de IA baseados em aprendizado profundo (deep learning) são, por sua natureza, sistemas não-determinísticos: para os mesmos inputs, podem produzir outputs diferentes em condições ligeiramente distintas. Isso torna difícil demonstrar que, se um elemento específico da cadeia tivesse agido de forma diferente, o dano não teria ocorrido — requisito que a teoria da causalidade adequada, predominante no direito brasileiro, exige para a imputação.
Cabe ressaltar que a proposta de Diretiva de Responsabilidade por IA da Comissão Europeia (2022) reconhece expressamente esse problema ao propor a presunção de causalidade em favor do lesado quando este demonstrar que o sistema de IA apresentou defeito e que, de forma geral, sistemas com esse tipo de defeito costumam produzir o dano em questão. Essa solução normativa representa um avanço relevante, mas sua transposição para o direito brasileiro ainda depende de intervenção legislativa.
O Problema da Imputação Subjetiva
A responsabilidade civil subjetiva — que permanece como regra geral no direito brasileiro, conforme o artigo 186 do Código Civil — exige a demonstração de culpa (dolo ou negligência) do agente responsável. Nos casos envolvendo sistemas de IA, a imputação subjetiva enfrenta dificuldades específicas.
A principal dificuldade reside na distinção entre o risco aceitável e a negligência. Um desenvolvedor que utiliza as melhores práticas disponíveis, segue os padrões técnicos de sua área e realiza testes adequados pode, ainda assim, produzir um sistema que cause danos em situações imprevistas. Nesses casos, é razoável imputar-lhe culpa? A doutrina tem respondido de forma dividida a essa questão.
Por um lado, autores como Filipe Medon sustentam que a responsabilidade objetiva — fundada na teoria do risco — é a resposta mais adequada para os casos de danos causados por sistemas de IA de alto risco, independentemente de culpa do desenvolvedor ou operador. Por outro lado, parte da doutrina adverte que a extensão indiscriminada da responsabilidade objetiva pode desincentivar a inovação e penalizar empresas que atuam de forma responsável.
Essa tensão dialética entre proteção das vítimas e incentivos à inovação é reconhecida tanto no PL 2338/23 quanto no AI Act europeu, que adotam soluções de compromisso: responsabilidade objetiva para sistemas de alto risco, combinada com obrigações de conformidade que, se observadas, podem funcionar como excludentes ou atenuantes de responsabilidade.
O Problema da Opacidade Algorítmica
O terceiro e mais profundo eixo de dificuldade é o da opacidade algorítmica. Os modelos de aprendizado profundo são, na prática, caixas-pretas: dados determinados inputs, produzem determinados outputs, mas o "raciocínio" que levou de um a outro não é intuitivamente reconstituível, nem mesmo por seus desenvolvedores. Essa característica — que é, paradoxalmente, uma das principais fontes do poder desses modelos — representa um obstáculo sério para a análise jurídica.
A opacidade dificulta, em primeiro lugar, a perícia técnica: como um perito judicial pode afirmar, com segurança razoável, qual elemento do sistema foi responsável por determinada falha, se o próprio desenvolvedor não consegue explicar completamente o comportamento do modelo? Em segundo lugar, dificulta a prova da causalidade: se não se sabe por que o sistema tomou determinada decisão, torna-se muito mais difícil demonstrar que essa decisão foi causada por uma falha imputável a alguém.
As obrigações de explicabilidade (explainability) e de transparência previstas no AI Act europeu — e propostas no PL 2338/23 — pretendem mitigar esse problema ao exigir que os desenvolvedores documentem os processos de treinamento, validação e implantação dos sistemas, e que mantenham registros (logs) das decisões tomadas. Essas obrigações não eliminam a opacidade intrínseca dos modelos de deep learning, mas criam um rastro documental que facilita a investigação de falhas e a reconstrução dos eventos.
Considerações sobre a Adequação do Regime Atual
A análise crítica dos três eixos de dificuldade acima identificados leva a uma conclusão que parece-nos razoável: o ordenamento jurídico brasileiro atual — mesmo com a aplicação criativa das cláusulas gerais do Código Civil, do CDC e da LGPD — não oferece uma resposta plenamente satisfatória para os desafios colocados pelos sistemas de IA autônomos.
Não se trata de afirmar que o direito existente é irrelevante ou inaplicável. Ao contrário: as categorias tradicionais de responsabilidade civil permanecem úteis e devem continuar sendo aplicadas. O que se sustenta é que elas precisam ser complementadas por um regime específico que: (i) defina com precisão os sujeitos responsáveis em cada elo da cadeia de desenvolvimento e implantação; (ii) adapte as regras de prova às particularidades dos sistemas autônomos, especialmente em matéria de causalidade; (iii) imponha obrigações preventivas que reduzam a probabilidade de danos; e (iv) crie mecanismos de supervisão e fiscalização que tornem essas obrigações efetivas.
O PL 2338/23, se aprovado em sua formulação atual, representaria um passo importante nessa direção. Sua aprovação oportuna é, por isso mesmo, uma das questões mais relevantes para o futuro do direito da IA no Brasil — e os casos examinados ao longo desta seção constituem a justificativa prática mais eloquente para sua necessidade.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".