Arquiteturas conhecidas como redes geradoras adversárias (GAN) estruturam o funcionamento da IA generativa de forma que merece análise detalhada para a compreensão de suas implicações jurídicas. O gerador é responsável por criar amostras que imitam o conjunto de dados de treinamento, mas, inicialmente, suas produções são aleatórias e pouco realistas. O discriminador, por sua vez, age como um "juiz", avaliando e distinguindo as amostras geradas das amostras reais. Esse processo estabelece uma dinâmica de treinamento mútuo: o gerador tenta enganar o discriminador com amostras cada vez mais convincentes, enquanto o discriminador aprimora sua capacidade de diferenciar as amostras geradas das originais. Essa interação contínua resulta em dados sintéticos de alta qualidade, muitas vezes indistinguíveis de conteúdos criados por humanos.
No campo do processamento de linguagem natural (PLN), a IA generativa utiliza modelos avançados como os transformers, que pertencem à família das redes neurais artificiais. Esses modelos processam sequências de elementos — como palavras ou fragmentos de palavras — detectando padrões e gerando respostas adaptadas às solicitações recebidas. A técnica baseia-se em representações matemáticas dos dados em espaços vetoriais de alta dimensão, o que permite uma compreensão profunda e contextual dos textos, capturando relações semânticas que escapam às abordagens mais tradicionais de processamento de linguagem. No PLN, palavras e conceitos são analisados para detectar padrões, sendo comparados e ajustados automaticamente para melhorar a precisão e a coerência das respostas geradas.
Modelos de linguagem de grande porte (Large Language Models, LLM) destacam-se como exemplos paradigmáticos dessa abordagem. Sistemas como o GPT-4 da OpenAI, o Gemini da Google, o Claude da Anthropic e o LLaMA da Meta são projetados para processar e gerar linguagem natural de maneira altamente sofisticada, utilizando vastos conjuntos de dados e arquiteturas avançadas de transformers para compreender e responder a uma ampla gama de solicitações. Entretanto, esses modelos são frequentemente descritos como caixas-pretas, já que o processo exato pelo qual produzem suas saídas — desde a escolha das palavras até a construção de parágrafos inteiros — é complexo e não plenamente decifrável, mesmo para seus próprios desenvolvedores.
Essa dificuldade de rastrear o caminho lógico das decisões tomadas pelos LLMs é uma das características que os insere na categoria das caixas-pretas e que cria os maiores desafios jurídicos. Embora a opacidade seja funcionalmente vantajosa — ela é, em parte, o que permite que esses modelos lidem com a ambiguidade e a complexidade da linguagem natural de forma tão eficiente —, ela é juridicamente problemática. Como imputar responsabilidade civil por um dano causado por uma decisão cujo processo de formação não pode ser explicado nem por quem o desenvolveu? Como o prejudicado pode demonstrar o nexo causal entre a operação do sistema e o dano sofrido se a cadeia de processamento interno é inacessível?
Essas questões têm implicações diretas para o direito processual civil. O art. 373 do Código de Processo Civil estabelece a distribuição do ônus da prova, em regra, ao autor quanto ao fato constitutivo do direito e ao réu quanto aos fatos impeditivos, modificativos ou extintivos. Aplicado a litígios envolvendo danos por IA, esse regime pode ser sistematicamente desfavorável à vítima, que raramente tem acesso aos dados de treinamento, ao código-fonte ou aos registros de operação do sistema. A inversão do ônus da prova — prevista no art. 6º, inciso VIII, do Código de Defesa do Consumidor, aplicável quando a vítima for hipossuficiente ou quando houver verossimilhança de suas alegações — constitui um mecanismo processual relevante nesse contexto, mas não resolve inteiramente o problema, pois pressupõe que, uma vez invertido o ônus, o desenvolvedor seja capaz de demonstrar a ausência de defeito, o que, dada a opacidade dos sistemas de aprendizado profundo, pode ser igualmente difícil.
A Diretiva Europeia de Responsabilidade Civil por IA (Proposta COM/2022/496) reconhece expressamente esse problema e introduz um mecanismo inovador: a presunção de nexo de causalidade em determinadas circunstâncias. Segundo essa proposta, quando o demandante demonstrar que o sistema de IA apresentou conduta defeituosa e que essa conduta é do tipo que normalmente causa o dano sofrido, presume-se o nexo causal — cabendo ao demandado demonstrar que a causa efetiva do dano foi outra. Trata-se de solução que, parece-nos, merece atenção do legislador brasileiro ao elaborar o marco regulatório nacional, pois endereça de forma direta a assimetria informacional estrutural que caracteriza os litígios envolvendo IA.
Verificou-se, ainda, que o debate sobre a regulação dos LLMs e da IA generativa em geral está longe de pacificado, mesmo nos sistemas jurídicos mais avançados. O AI Act europeu classificou os modelos de IA de propósito geral (General Purpose AI Models, GPAI) — categoria que inclui os LLMs — em uma seção específica, sujeita a obrigações de transparência e avaliação de risco distintas das aplicáveis aos sistemas de IA de alto risco em aplicações setoriais específicas. Essa arquitetura regulatória reconhece que os riscos dos LLMs são, em grande medida, determinados não pelo modelo em si, mas pelo contexto de sua aplicação — o que coloca sobre os operadores e integradores que implantam esses modelos em sistemas específicos uma parcela significativa da responsabilidade pela adequação e segurança do uso. Para o Direito brasileiro, em processo de construção de seu próprio marco regulatório, essa distinção entre responsabilidade do desenvolvedor do modelo base e responsabilidade do operador que o implanta em contexto específico é uma das questões mais urgentes a resolver.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".