Voltar ao Blog
Inteligência ArtificialCapítulo 1

IA Preditiva e IA Generativa: Conceitos Fundamentais

O que diferencia a IA preditiva da generativa, como cada uma opera sobre dados históricos ou cria novos conteúdos, e quais são os marcos regulatórios aplicáveis no Brasil e na Europa.

Alessandro Lavorante 14 de maio de 2024 6 min de leitura

O problema comum apresentado pelas caixas-pretas, em suas diferentes formas, é sempre o mesmo: elas não permitem entender, explicar, rastrear ou auditar completamente como os dados são processados e como isso leva aos resultados. Esse problema estrutural intrínseco torna difícil explicar como os padrões de informação se correlacionam com os resultados produzidos pelo sistema — o que é particularmente preocupante em contextos como decisões jurídicas, onde é crucial fundamentar e justificar as decisões de maneira transparente e compreensível.

Superada a análise da dimensão da transparência e opacidade dos sistemas, cabe agora examinar a última grande categoria classificatória que este estudo contempla: a distinção entre IA preditiva e IA generativa. Essa distinção é especialmente relevante no contexto regulatório atual, pois cada modalidade apresenta perfis de risco, capacidades e implicações jurídicas substantivamente distintos.

IA Preditiva: Antecipar o Futuro a partir do Passado

A IA preditiva tem por objetivo principal prever resultados ou comportamentos futuros com base em padrões identificados em dados históricos. Para a Comissão Europeia, a "predição" é o ato de anunciar o que ocorrerá no futuro, geralmente com base em modelos matemáticos, estatísticos ou algoritmos de inteligência artificial — termo que enfatiza o resultado, o "o que" será anunciado, podendo ou não detalhar os métodos ou dados utilizados.

A IA preditiva se concentra em identificar regularidades nos dados disponíveis para produzir estimativas probabilísticas sobre eventos ou comportamentos futuros. Utilizando técnicas estatísticas e de machine learning — como regressão linear e logística, árvores de decisão, florestas aleatórias e redes neurais —, esses sistemas são amplamente aplicados em finanças (previsão do comportamento de mercados), meteorologia (modelos climáticos), saúde (estimativa de risco de doenças) e comércio eletrônico (sistemas de recomendação de produtos). Conforme apontam Porto, Shuenquener e Gabriel (2024), seus usos incluem ainda a antecipação de comportamentos de consumidores, tendências de mercado e resultados de eventos esportivos.

É importante compreender que a IA preditiva não "conhece" o futuro: ela estima probabilidades com base em padrões do passado. Essa distinção é juridicamente relevante porque influencia diretamente a avaliação da responsabilidade em caso de erro. Uma previsão incorreta de risco de crédito que leva ao indeferimento injusto de um empréstimo não é necessariamente uma falha técnica — pode ser simplesmente uma limitação inerente à natureza probabilística do sistema. A questão jurídica, portanto, não é apenas se o sistema errou, mas se seus limites foram adequadamente comunicados aos usuários e às pessoas afetadas.

IA Preditiva: Transparência ou Opacidade?

A predição pode ser implementada tanto em sistemas caixas-brancas quanto em sistemas caixas-pretas, dependendo dos requisitos específicos do setor. Há uma clara preferência por sistemas caixa-branca nos diagnósticos médicos: nesses casos, é essencial que o raciocínio e o comportamento do sistema sejam completamente rastreáveis, para que o médico possa validar a estimativa e comunicá-la ao paciente com fundamentação adequada. Em contrapartida, em áreas como recomendações de produtos, aplicações financeiras ou análises de risco bancário, a predição pode ser implementada por sistemas caixa-preta, pois a explicabilidade plena não é considerada igualmente crítica.

No campo jurídico, as predições encontram aplicações em diversos âmbitos: otimização da cobrança de apólices em seguros, avaliação do risco de reincidência criminal para fins de decisões de liberdade provisória, triagem de casos em sistemas de Justiça, combate ao abuso sexual infantil por meio da identificação de padrões de comportamento online, e promoção da segurança jurídica por meio da uniformização de jurisprudência. Cada uma dessas aplicações coloca questões específicas sobre os critérios de treinamento, os vieses potenciais e as garantias necessárias para proteger os direitos das pessoas afetadas.

IA Generativa: Criar em vez de Prever

A IA generativa representa uma categoria qualitativamente distinta: em vez de prever o futuro a partir do passado, ela cria novos conteúdos — textos, imagens, áudio, vídeo, código — com base nos padrões aprendidos durante o treinamento. Os grandes modelos de linguagem (Large Language Models, LLMs) como GPT-4, Claude e Gemini são os representantes mais proeminentes dessa categoria no domínio textual.

Tecnicamente, os sistemas generativos aprendem a distribuição estatística dos dados de treinamento — a probabilidade de cada elemento dado o contexto anterior — e utilizam esse aprendizado para produzir novas sequências que "parecem" pertencer à mesma distribuição. Um modelo de linguagem treinado em textos jurídicos aprende os padrões sintáticos, semânticos e estilísticos desse domínio, e pode produzir novos textos que exibem as mesmas características. Isso não implica compreensão no sentido semântico profundo: implica identificação e reprodução sofisticada de padrões estatísticos.

Implicações Jurídicas da IA Generativa

A IA generativa introduz desafios jurídicos que a IA preditiva, em geral, não coloca. Em primeiro lugar, a questão da autoria e dos direitos de propriedade intelectual: quando um sistema generativo produz uma obra textual, imagética ou musical, quem é o titular dos direitos sobre o resultado? A lei autoral brasileira (Lei n.º 9.610/1998) e a Convenção de Berna pressupõem que o autor é uma pessoa natural — o que exclui, por princípio, a titularidade direta de sistemas de IA. A questão, contudo, é mais complexa do que parece: os dados de treinamento utilizados pelos sistemas generativos frequentemente incluem obras protegidas por direitos autorais, cujos titulares não consentiram com esse uso.

Em segundo lugar, a questão da desinformação e da falsificação. Sistemas generativos podem produzir textos convincentes, imagens hiper-realistas e áudios sintéticos que simulam declarações de pessoas reais — os chamados "deepfakes". O potencial de dano à honra, à imagem e à credibilidade de indivíduos e instituições é considerável, e os instrumentos jurídicos tradicionais de reparação por danos morais (arts. 186 e 927 do Código Civil) nem sempre são suficientes para endereçar a escala e a velocidade com que esses conteúdos se propagam.

O Marco Regulatório Aplicável

O AI Act europeu dedica atenção específica aos sistemas de IA de uso geral (General Purpose AI, GPAI) — categoria que inclui os grandes modelos de linguagem —, impondo obrigações de transparência e, para os modelos de maior potência computacional, avaliações de risco sistêmico. O PL 2.338/2023 brasileiro contempla disposições sobre identificação de conteúdo gerado por IA, responsabilidade de plataformas digitais e proteção contra usos discriminatórios de sistemas generativos.

Parece-nos que a regulação da IA generativa exige, adicionalmente, atenção específica à qualidade e à licitude dos dados de treinamento — pois a "matéria-prima" da geração de conteúdo determina, em grande medida, tanto o tipo de vieses que o sistema reproduz quanto as obrigações de direito autoral que seu desenvolvimento engendra. Essa é uma dimensão regulatória ainda insuficientemente explorada no Brasil, e que merece atenção prioritária nos marcos normativos em elaboração.

IA GenerativaIA PreditivaLLMsChatGPT

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.