duzir respostas coerentes e fluídas, permite que o sistema crie narrativas fictícias – as chamadas “alucinações” – que soam plausíveis, mas que, na realidade, são incorretas ou desprovidas de base sólida. Em terceiro lugar, isso é amplificado pela ausência de mecanismos internos de verificação de fatos, que poderiam corrigir ou evitar respostas incorretas durante a geração do texto. Essa limitação é ainda mais acentuada pela qualidade variável dos dados de treinamento, que incluem informações retiradas de fontes diversas da internet. Isso pode levar ao fenômeno conhecido como overfitting160 localizado (em segmentos ou tópicos específicos do treinamento), no qual o sistema tenta preencher lacunas utilizando padrões aprendidos de forma inadequada, resultando em respostas aparentemente confiáveis, mas carentes de fundamentação. Por fim, em quarto lugar, embora os transformers sejam altamente avançados na captura de dependências contextuais (ou seja, conexões entre informações passadas e presentes, bem como todas as partes de um contexto), o modelo não possui mecanismos de contextualização dinâmica, ou seja, não atualiza ou verifica suas respostas em tempo real com fontes externas. Casos como esse, de alucinação do chatbot161, marcam exemplos de sistemas tipicamente classificados como caixas-pretas, dado que, embora 160 O overfitting, em termos gerais, ocorre quando um modelo de IA aprende excessivamente os padrões e ruídos específicos do conjunto de dados de treinamento, em vez de identificar tendências generalizáveis. Isso resulta em alta precisão no treinamento, mas baixo desempenho ao lidar com novos dados. 161 Outro famoso caso de alucinação do GPT ocorreu em junho de 2023, quando um modelo de linguagem do ChatGPT inventou informações falsas envolvendo o radialista americano Mark Walters. O sistema afirmou que Walters estava envolvido em um esquema de desvio de dinheiro de uma organização sem fins lucrativos que não existia. Essas declarações geraram grande repercussão, e Walters, indignado com o ocorrido, moveu uma ação judicial contra a OpenAI, alegando difamação. Ele argumentou que o modelo de IA não só produziu informações incorretas, mas também prejudicou sua reputação de forma significativa. Disponível em: https://www.courtlistener.com/docket/67617826/walters-v-openai-llc/?utm_source=chatgpt. com. Também disponível em: https://canaltech.com.br/inteligencia-artificial/chatgpt-fazacusacao-falsa-contra-radialista-e-openai-e-processada-252368/ Acesso em: mar. 2024. Em novembro de 2023, o juiz federal Jefferson Ferreira Rodrigues utilizou o ChatGPT para auxiliar na redação de uma sentença, mas acabou citando jurisprudências falsas atribuídas ao STJ. O caso foi identificado pelo advogado da parte prejudicada e levou o Conselho Nacional de Justiça (CNJ) a reabrir uma investigação, mesmo após arquivamento inicial pela Corregedoria da Justiça Federal da 1ª Região. Disponível em: https://g1.globo.com/politica/blog/daniela-lima/ post/2023/11/13/juiz-usa-inteligencia-artificial-para-fazer-decisao-e-cita-jurisprudenciafalsa-cnj-investiga-caso.ghtml?utm_source=chatgpt.com. Acesso em: dez. 2024.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".