Voltar ao Blog
Inteligência ArtificialCapítulo 1

A IA na Prática: Aplicações, Problemas e Desafios: Impactos e Consequências

O caso Turley e as alucinações do ChatGPT expõem os impactos reais de sistemas generativos: difamação, danos à reputação e lacunas de responsabilidade civil na era da IA.

Alessandro Lavorante 21 de junho de 2024 7 min de leitura

Quando a IA Difama: O Caso do Professor Turley

Em março de 2023, o professor de direito Jonathan Turley, da Universidade George Washington, descobriu que o ChatGPT havia gerado, em resposta a uma consulta de terceiro, uma narrativa detalhada e completamente falsa sobre sua pessoa. O sistema descreveu Turley como suposto autor de comentários sexualmente inapropriados e como alguém que teria tentado tocar um estudante durante uma viagem ao Alasca. Para conferir verossimilhança à narrativa, o modelo chegou a atribuir ao professor a autoria de um artigo publicado pelo Washington Post em 2018 — artigo que, de fato, não existe.

O professor nunca esteve envolvido em qualquer processo relacionado a assédio sexual. Ao tomar conhecimento do episódio, manifestou-se publicamente: "Foi uma surpresa para mim, já que nunca fui ao Alasca com estudantes, o Post nunca publicou tal artigo e nunca fui acusado de assédio ou agressão sexual por ninguém." Inicialmente, classificou a acusação como "cômica"; posteriormente, reconheceu a gravidade do episódio, advertindo que situações como essa podem ser "incrivelmente prejudiciais" para juristas e figuras públicas, dada a repercussão que alegações infundadas são capazes de gerar.

O caso Turley não é isolado. Em junho de 2023, o ChatGPT inventou informações falsas envolvendo o radialista americano Mark Walters, afirmando que ele estaria envolvido em um esquema de desvio de recursos de uma organização sem fins lucrativos — que tampouco existia. Indignado, Walters ajuizou ação judicial contra a OpenAI, alegando difamação e danos à reputação. No Brasil, em novembro do mesmo ano, um juiz federal utilizou o ChatGPT para auxiliar na redação de uma sentença e acabou citando jurisprudências falsas atribuídas ao Superior Tribunal de Justiça — caso que levou o Conselho Nacional de Justiça a reabrir investigação sobre o uso de IA no Judiciário.

A Arquitetura da Imprecisão: Por que a IA "Alucina"

Para compreender os impactos e as consequências jurídicas desses episódios, é necessário entender por que os sistemas de IA generativa produzem informações falsas de forma tão convincente. A resposta reside em elementos estruturais da arquitetura dos modelos de linguagem de grande porte (LLMs).

O primeiro desses elementos é a utilização de redes neurais profundas com arquitetura do tipo transformers, que empregam mecanismos de atenção para identificar padrões e relações complexas em grandes volumes de texto. Essa tecnologia é extraordinariamente eficaz na geração de linguagem natural fluente e contextualizada — mas baseia-se inteiramente em padrões estatísticos extraídos dos dados de treinamento, não em verificação factual. Quando os dados contêm vieses ou informações imprecisas, as inferências resultantes podem ser igualmente equivocadas, sem que o sistema emita qualquer sinal de alerta.

O segundo elemento é o processo de geração probabilística de linguagem. O modelo não cria informações consultando uma base de fatos verificados; ele calcula, a partir do contexto fornecido, a sequência de palavras estatisticamente mais provável. Essa abordagem, embora eficiente para produzir respostas coerentes, permite que o sistema construa narrativas fictícias que soam perfeitamente plausíveis. É o que a literatura técnica denomina "alucinação": a geração de conteúdo sem correspondência com a realidade, análoga — na metáfora — às percepções sem estímulo externo que ocorrem em estados alterados de consciência.

Ausência de Filtros e Qualidade dos Dados

Um terceiro fator amplificador é a ausência de mecanismos internos de verificação de fatos durante o processo de geração. Os LLMs não possuem, em sua arquitetura padrão, qualquer módulo que compare as afirmações geradas com uma fonte externa de verdade. Essa limitação é agravada pela qualidade variável dos dados de treinamento, compostos por vastas porções da internet, onde informações corretas convivem indistintamente com erros, rumores e conteúdo tendencioso.

Esse contexto pode produzir o fenômeno conhecido como overfitting localizado: em segmentos específicos do corpus de treinamento, o modelo aprende padrões de forma excessiva e inadequada, preenchendo lacunas com extrapolações que parecem razoáveis estatisticamente, mas que são factualmente incorretas. No caso Turley, é plausível que o sistema tenha associado o nome do professor a narrativas de casos de assédio existentes em seu corpus, gerando uma combinação fictícia, porém aparentemente coerente.

O quarto elemento estrutural é a ausência de contextualização dinâmica: os transformers não atualizam suas respostas em tempo real com fontes externas. Tudo o que o modelo "sabe" foi fixado durante o treinamento e permanece estático. Isso significa que, diante de uma lacuna informacional, o sistema "inventa" — não por má-fé, mas por consequência inevitável de sua lógica probabilística.

Impactos Reais e Responsabilidade Jurídica

Os impactos concretos desses episódios são multidimensionais. No plano individual, a difamação algorítmica pode causar danos gravíssimos à reputação, à carreira e à vida pessoal das vítimas — danos que, no direito brasileiro, são passíveis de reparação com fundamento nos arts. 186 e 927 do Código Civil, combinados com o art. 5º, X, da Constituição Federal, que assegura a inviolabilidade da honra e da imagem das pessoas.

No plano coletivo, episódios como o do juiz que citou jurisprudências falsas geradas por IA revelam riscos sistêmicos para a administração da justiça, para a segurança jurídica e para a confiança nas instituições. Poder-se-ia argumentar que a responsabilidade, nesses casos, recai exclusivamente sobre o usuário que não verificou as informações antes de utilizá-las. Essa posição, contudo, parece insuficiente: o usuário leigo não tem condições técnicas de distinguir uma resposta verídica de uma alucinação — e o sistema não o avisa quando está "inventando".

Cabe ressaltar que o AI Act (Regulamento UE 2024/1689) aborda parcialmente essa questão ao exigir, para sistemas de IA classificados como de alto risco, a implementação de medidas de supervisão humana e de transparência sobre as limitações do sistema. O Projeto de Lei n. 2.338/2023, em tramitação no Brasil, prevê obrigações semelhantes de transparência e designação de responsáveis identificáveis. No entanto, nenhum desses marcos normativos resolve inteiramente a questão da imputação de responsabilidade civil quando a alucinação causa dano a terceiro que sequer interagiu com o sistema.

O Debate sobre a Responsabilização das Plataformas

Diante do exposto, instala-se o debate sobre a responsabilidade civil das empresas desenvolvedoras de modelos de IA generativa. Uma corrente sustenta que essas empresas devem responder objetivamente pelos danos causados por alucinações, com base na teoria do risco da atividade — prevista no parágrafo único do art. 927 do Código Civil —, uma vez que exploram comercialmente sistemas que, por sua arquitetura, têm potencial previsível de causar danos.

Outra corrente, mais restritiva, argumenta que responsabilizar objetivamente os desenvolvedores poderia inibir a inovação e que a responsabilidade deveria ser modulada conforme o grau de autonomia conferido ao sistema e o contexto de uso. Parece-nos que a solução mais equilibrada reside em um regime diferenciado, que leve em conta a natureza do sistema (generativo, preditivo, autônomo), o nível de risco da aplicação e a existência ou não de medidas de mitigação adotadas pelo fornecedor antes da disponibilização do produto.

Verificou-se, nos anos subsequentes ao caso Turley, uma resposta técnica parcial por parte da OpenAI: o uso do método RLHF (Reinforcement Learning from Human Feedback) para ajustar as respostas do modelo e reduzir a incidência de alucinações sobre temas sensíveis. O sistema passou a recusar-se a gerar conteúdo sobre determinadas pessoas envolvidas em escândalos anteriores. Essa medida, embora louvável, é insuficiente como solução sistêmica: ela não elimina as alucinações, apenas as redireciona para casos ainda não mapeados pelos curadores humanos.

A questão fundamental permanece em aberto: como atribuir responsabilidade de forma justa e eficaz quando o dano é causado por um sistema que opera segundo uma lógica probabilística opaca, em escala massiva, e cujos erros são, em certa medida, inerentes à sua arquitetura?

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.