As subcategorias de maior proeminência entre os sistemas classificados por sua funcionalidade e finalidade são a IA preditiva e a IA generativa, ambas derivadas das categorias fundamentais examinadas anteriormente — sobretudo de machine learning e redes neurais, consideradas técnicas centrais para a construção de ambos os tipos de sistema. Compreendê-las em profundidade, e não apenas em sua dimensão técnica, mas em suas implicações jurídicas concretas, é indispensável para o operador do direito que atua ou virá a atuar em domínios afetados pela IA.
IA Preditiva: Modelos, Aplicações e Responsabilidade
A IA preditiva concentra-se em prever resultados futuros com base na análise de dados históricos, identificando padrões e tendências para realizar prognósticos. Utilizando técnicas como regressão, árvores de decisão e redes neurais, esses sistemas são amplamente aplicados em finanças, meteorologia, saúde e comércio eletrônico.
No campo jurídico, contudo, as aplicações preditivas levantam questões de responsabilidade que merecem exame específico. Os sistemas de avaliação de risco de reincidência criminal — como o COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), amplamente utilizado nos Estados Unidos — constituem um dos exemplos mais debatidos na literatura. A investigação jornalística realizada pela ProPublica em 2016 demonstrou que o COMPAS apresentava taxas significativamente distintas de falsos positivos e falsos negativos para réus negros e brancos, suscitando a questão de saber se algoritmos preditivos de risco podem perpetuar e amplificar desigualdades raciais históricas. O estudo provocou um aceso debate acadêmico e judicial que não se encerrou até hoje.
No Brasil, o uso de sistemas preditivos em decisões judiciais ainda é incipiente, mas cresce na gestão de processos administrativos e na análise de risco em órgãos públicos. A LGPD, em seu art. 20, garante ao titular o direito de solicitar revisão de decisões tomadas com base unicamente em tratamento automatizado — o que inclui, evidentemente, decisões baseadas em predições algorítmicas. O PL 2.338/2023 reforça essa proteção ao estabelecer que sistemas de alto risco que afetem direitos individuais devem ser passíveis de contestação e revisão por seres humanos.
A IA Preditiva entre Caixas-Brancas e Caixas-Pretas
Como verificado no artigo anterior, a predição pode ser implementada tanto em sistemas transparentes quanto em sistemas opacos. Essa dualidade tem implicações regulatórias diretas: em setores regulados, como o bancário, o de seguros e o de saúde, reguladores têm progressivamente exigido que os sistemas preditivos utilizados em decisões de alto impacto sejam auditáveis — o que, na prática, favorece a adoção de modelos mais transparentes, ainda que eventualmente menos precisos.
A Resolução CMN n.º 4.557/2017 do Banco Central do Brasil, que trata da gestão de riscos em instituições financeiras, e as orientações do Conselho Federal de Medicina sobre o uso de IA em diagnósticos apontam nessa direção: exigem que os critérios utilizados nos sistemas automatizados de suporte à decisão sejam documentados e comunicáveis. Parece-nos que essa tendência regulatória setorial prefigura a direção que o marco geral da IA brasileiro deverá consolidar.
IA Generativa: Capacidades e Riscos em Detalhe
A IA generativa representa uma virada qualitativa: em vez de analisar dados existentes para prever comportamentos futuros, ela produz novos conteúdos — textos, imagens, áudio, vídeo, código — que "imitam" os padrões estatísticos dos dados com que foi treinada. Os grandes modelos de linguagem (LLMs) como GPT-4, Claude, Gemini e Llama são os representantes mais visíveis e impactantes dessa categoria no domínio textual.
O mecanismo subjacente a esses modelos é a predição sequencial de tokens (palavras ou fragmentos de palavras): dado um contexto, o modelo estima a probabilidade de cada possível próximo token e seleciona o mais provável — ou, com algum grau de aleatoriedade, um dos mais prováveis. O resultado é um texto que, estatisticamente, "parece" pertencer ao mesmo domínio dos textos de treinamento. A sofisticação desse mecanismo é extraordinária, mas é importante compreender que ele não implica compreensão semântica genuína: os LLMs não "entendem" os textos que produzem no sentido em que seres humanos entendem.
O Fenômeno das Alucinações
Um risco específico dos sistemas generativos que merece atenção jurídica detida é o das "alucinações" — termo técnico que designa a geração de informações falsas ou inexistentes apresentadas com aparência de certeza. Um LLM pode citar artigos científicos que não existem, atribuir declarações falsas a pessoas reais, descrever normas jurídicas inexistentes ou apresentar precedentes judiciais fictícios com o mesmo nível de confiança com que apresentaria informações verdadeiras.
Esse fenômeno tem consequências práticas graves no campo jurídico. Em 2023, dois advogados americanos foram sancionados pelo Tribunal do Distrito Sul de Nova York por terem apresentado em petição judicial citações de precedentes geradas pelo ChatGPT — que, ao ser verificado, revelou ter criado decisões judiciais inexistentes. O episódio ilustra com precisão o risco das alucinações em contextos onde a precisão factual é condição de validade do ato. No Brasil, a utilização de informações geradas por IA sem verificação adequada pode configurar negligência profissional, violação dos deveres éticos dos advogados (art. 20 do Código de Ética e Disciplina da OAB) e, em casos extremos, litigância de má-fé.
Deepfakes e Responsabilidade
A IA generativa no domínio visual e sonoro introduz o fenômeno dos deepfakes: conteúdo audiovisual sintético que simula, de forma altamente realista, a aparência, a voz e as expressões de pessoas reais. As implicações jurídicas são múltiplas: violação do direito à imagem (art. 20 do Código Civil e art. 5.º, inc. X, da Constituição Federal), lesão à honra e à reputação, fraudes financeiras mediante impersonation e manipulação do processo eleitoral.
O Marco Civil da Internet (Lei n.º 12.965/2014) estabelece a responsabilidade subsidiária de plataformas digitais por conteúdo de terceiros, condicionada à ausência de resposta após notificação. No contexto dos deepfakes, essa arquitetura de responsabilidade pode ser insuficiente: a velocidade de propagação do conteúdo sintético pode causar danos irreversíveis antes que qualquer notificação produza efeito. Parece-nos que o PL 2.338/2023 deverá endereçar explicitamente esse gap regulatório, exigindo mecanismos de detecção e remoção proativa de conteúdo sintético potencialmente danoso.
O Debate sobre a Titularidade de Obras Geradas por IA
Uma das questões mais debatidas na interseção entre IA generativa e direito é a da titularidade dos direitos sobre obras geradas por sistemas de IA. A Lei de Direitos Autorais brasileira (Lei n.º 9.610/1998), em seu art. 11, define o autor como a pessoa física que cria obra literária, artística ou científica — excluindo, portanto, a possibilidade de titularidade direta por sistemas de IA. Mas a questão não se resolve com tanta simplicidade: quando um sistema generativo cria uma obra a partir de dados de treinamento que incluem obras protegidas de terceiros, surgem reivindicações de autoria e de reparação por violação de direitos autorais que os tribunais de diversas jurisdições já começam a examinar.
Nos Estados Unidos, a Getty Images propôs ação judicial contra a Stability AI, alegando que o treinamento do modelo Stable Diffusion utilizou milhões de imagens protegidas sem autorização. Na Europa, o Considerando 105 do AI Act menciona explicitamente a necessidade de transparência sobre os dados de treinamento utilizados nos modelos de uso geral, abrindo caminho para a responsabilização por violações autorais no processo de treinamento. No Brasil, a ausência de norma específica sobre o tema impõe a aplicação analógica das disposições gerais de direito autoral — com resultados ainda incertos.
Perspectivas Conclusivas
A distinção entre IA preditiva e IA generativa, examinada em seus aspectos técnicos e jurídicos, revela dois perfis de risco substantivamente distintos que o ordenamento jurídico precisa endereçar de forma diferenciada. A IA preditiva exige, sobretudo, garantias de não discriminação, explicabilidade e contestabilidade das decisões automatizadas. A IA generativa exige, adicionalmente, regras sobre propriedade intelectual dos dados de treinamento e das obras geradas, responsabilidade por conteúdo sintético danoso e mecanismos de identificação de conteúdo gerado por máquinas. Ambas as modalidades compartilham, contudo, a exigência fundamental de supervisão humana significativa nas aplicações de alto risco — princípio que o direito brasileiro e o direito europeu já consagraram e que cabe agora operacionalizar com a precisão técnica e a seriedade normativa que o momento exige.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".