Voltar ao Blog
Inteligência ArtificialCapítulo 1

IA Preditiva e IA Generativa: Aspectos Práticos

IA preditiva e generativa em perspectiva prática: como sistemas de previsão e geração de conteúdo funcionam, seus usos no Direito e os riscos jurídicos de vieses e opacidade.

Alessandro Lavorante 18 de maio de 2024 5 min de leitura

A IA preditiva encontra aplicações práticas de crescente relevância no campo jurídico. Identificam-se, entre os usos já documentados, a análise de consistência e precedência de sentenças judiciais, a aceleração da triagem e análise de petições em tribunais de alta demanda, o aprimoramento da identificação de pessoas em situação de vulnerabilidade para fins de assistência social e a previsão de litígios a partir de padrões contratuais. Esses usos não são puramente acadêmicos: tribunais brasileiros, como o Tribunal Superior do Trabalho e o Supremo Tribunal Federal, já adotaram ferramentas de IA para auxiliar na gestão de acervos processuais e na identificação de temas recorrentes que podem ser tratados por repercussão geral ou recursos repetitivos.

A IA preditiva trata, em sua essência, da análise de padrões nos dados históricos ou presentes para então realizar julgamentos probabilísticos, com base em métodos ou teorias aplicáveis a essas previsões. Segundo a reflexão de Corvalán, embora as previsões ampliem a base de conhecimento das pessoas e aumentem seu horizonte decisional, as mesmas também podem reduzi-lo ou enviesar negativamente as decisões. Isso porque, além do problema das chamadas caixas-pretas, existe um ponto crítico que reside nos conjuntos de dados (datasets) que constituem o insumo dos sistemas preditivos. Quais dados são utilizados, como são selecionados, quão representativa é a amostra, quais valores subjazem às escolhas e como se avança no processo de supervisão das entradas e saídas condicionam a razoabilidade e a legitimidade das previsões realizadas.

É precisamente nesse ponto que a dimensão jurídica se torna mais urgente. Um sistema preditivo utilizado, por exemplo, para decidir sobre a concessão de liberdade provisória ou para calcular a probabilidade de inadimplemento de um consumidor não produz apenas uma previsão técnica: produz, em última análise, uma decisão com efeitos sobre direitos fundamentais. Se essa decisão for baseada em dados que refletem discriminações históricas — como taxas de encarceramento desproporcionalmente altas em determinadas comunidades, que decorrem de policiamento seletivo e não de maior criminalidade intrínseca — o sistema estará perpetuando e legitimando, sob a aparência de neutralidade técnica, desigualdades que o ordenamento jurídico brasileiro, nos arts. 3º e 5º da Constituição Federal, expressamente rejeita.

A IA generativa, por sua vez, é um tipo de modelo de aprendizado utilizado para gerar conteúdo novo a partir de dados históricos. Isso significa que se trata de sistemas de IA que têm a capacidade de criar ou gerar novos dados que não existiam previamente — textos, imagens, músicas, códigos, vídeos e combinações de todos esses elementos. Os modelos de IA generativa distinguem-se dos modelos preditivos pelo fato de estes últimos concentrarem-se na classificação dos dados a partir de suas diferenças, ao passo que os generativos utilizam os padrões aprendidos para produzir novos conteúdos que simulam, com graus variáveis de fidelidade, as características dos dados de treinamento.

A IA generativa utiliza modelos avançados de aprendizado profundo, a partir de redes neurais complexas treinadas com extensos bancos de dados, para gerar esses conteúdos novos. O processo de treinamento envolve a exposição do modelo a bilhões de exemplos — páginas da internet, livros digitalizados, bases de código, transcrições de áudio, imagens e outros formatos —, a partir dos quais o sistema aprende padrões estatísticos que lhe permitem, posteriormente, gerar respostas contextualmente adequadas a solicitações que nunca encontrou antes. Essa capacidade de generalização é, ao mesmo tempo, o maior trunfo e o maior risco dos sistemas generativos: eles podem responder de forma aparentemente coerente a perguntas para as quais não foram explicitamente treinados, mas podem igualmente produzir respostas plausíveis que são factualmente incorretas — as chamadas "alucinações".

Do ponto de vista jurídico, as alucinações dos sistemas de IA generativa constituem um problema de responsabilidade civil de difícil solução. Quando um sistema de IA descreve, com aparente precisão e autoridade, uma decisão judicial inexistente, um medicamento fictício ou uma empresa fraudulenta — casos documentados em tribunais americanos e europeus —, quem responde pelos danos eventualmente causados a quem se fiar nessa informação? O desenvolvedor do sistema que não implementou mecanismos suficientes de verificação factual? O operador que disponibilizou o sistema sem alertas adequados sobre suas limitações? O usuário que utilizou a resposta do sistema sem verificação independente? Essas perguntas ainda não têm respostas consolidadas na jurisprudência brasileira, o que confere particular relevância ao debate doutrinário ora proposto.

Cabe ressaltar, ainda, que a distinção entre IA preditiva e IA generativa não é absolutamente estanque na prática. Os sistemas contemporâneos de maior capacidade — como os grandes modelos de linguagem (Large Language Models, LLMs) — combinam capacidades preditivas e generativas de forma integrada: preveem qual token (palavra ou fragmento de palavra) tem maior probabilidade de ser o próximo em uma sequência e, ao fazê-lo iterativamente, geram textos completos. Essa convergência técnica tem implicações jurídicas relevantes, pois dificulta a aplicação de categorias regulatórias que pressupõem uma distinção clara entre os dois tipos de sistemas — como a que o PL 2.338/2023 brasileiro tenta estabelecer ao tratar separadamente dos sistemas de decisão automatizada e dos sistemas de geração de conteúdo.

IA GenerativaIA PreditivaLLMsChatGPT

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.