Voltar ao Blog
Inteligência ArtificialCapítulo 1

A IA na Prática: Aplicações, Problemas e Desafios: Aplicações e Implicações

Alucinações do ChatGPT, drones autônomos e responsabilidade civil: como falhas em sistemas de IA de diferentes setores desafiam o ordenamento jurídico brasileiro e europeu na atribuição de danos.

Alessandro Lavorante 4 de junho de 2024 6 min de leitura

Os casos examinados até aqui — o fundo de hedge K1, o veículo autônomo da Uber e o cenário hipotético do drone militar — compartilham uma característica estrutural: em todos eles, a autonomia operacional do sistema de IA foi o elemento que tornou a atribuição de responsabilidade problemática. Nos casos que se seguem, essa complexidade se aprofunda, pois os sistemas envolvidos atuam em domínios que atingem diretamente direitos fundamentais como a honra, a privacidade e a dignidade da pessoa humana.

A análise dessas aplicações e de suas implicações permite identificar padrões recorrentes de falha que transcendem os setores específicos e apontam para limitações estruturais dos sistemas de IA contemporâneos — limitações que o ordenamento jurídico, tanto brasileiro quanto europeu, ainda não endereçou de forma plenamente satisfatória.

Drones Autônomos: Autonomia, Risco e Lacunas de Responsabilidade

Na fabricação de drones, ao menos dois produtores estão tipicamente envolvidos: um para o hardware e outro para o software. Os erros de software são especialmente críticos, pois este controla todo o voo, substituindo o piloto humano. Falhas como erros de execução (runtime errors) — que causam a interrupção anormal do software — ou erros de lógica (logic errors) — quando o código, mesmo correto na sintaxe, produz resultados equivocados — podem levar a graves acidentes. Erros de lógica são particularmente difíceis de detectar, pois não geram mensagens de erro visíveis.

Como destaca Robert H. Preiskel, é impossível garantir que sistemas complexos, com milhões de linhas de código, estejam completamente livres de falhas (Software Engineering: what are the legal pitfalls. In: The Computer Law and Security Reports, vol. 9, 1993, p. 183). Além disso, produtos são frequentemente lançados com softwares contendo erros conhecidos, seguindo o lema "ship now, patch later" — envie agora, corrija depois — prática que transfere riscos para os usuários e para terceiros.

Alguns modelos de drones mais avançados, equipados com redes neurais artificiais e algoritmos autodidáticos, permitem que os sistemas tomem decisões independentes durante o voo. Tais sistemas de inteligência artificial autônoma ampliam os conhecimentos dos drones, permitindo-lhes agir de forma espontânea em situações não exatamente previstas na programação inicial. Quando o drone é capaz de introduzir mudanças em sua própria programação, torna-se problemático identificar quem deve responder por suas ações causadoras de danos, uma vez que essas ações podem não ser diretamente controladas ou previstas pelo programador original — gerando o que a doutrina denomina "lacuna de responsabilidade".

"Alucinação" do ChatGPT e Falsa Acusação de Assédio Sexual (2023)

Em abril de 2023, o jornal The Washington Post relatou um episódio envolvendo o ChatGPT, desenvolvido pela OpenAI, no qual a inteligência artificial incluiu o nome de um renomado professor de Direito dos Estados Unidos em uma lista de indivíduos supostamente acusados de assédio sexual. Jonathan Turley, professor da Universidade George Washington, foi alertado por meio de um e-mail sobre a existência dessa lista, gerada após um advogado questionar o ChatGPT sobre "estudiosos jurídicos que assediaram sexualmente alguém".

O nome do professor Turley constava na resposta, acompanhado de uma narrativa fictícia elaborada pelo chatbot, na qual se alegava que ele teria proferido comentários inapropriados e tocado indevidamente em uma estudante durante uma viagem a campo. A narrativa incluía detalhes fabricados, como menção a uma reportagem do Washington Post que, segundo verificação posterior, jamais existiu. Não havia qualquer base factual para as acusações geradas pelo sistema.

Esse fenômeno — conhecido como "alucinação" dos modelos de linguagem — consiste na produção de informações factualmente incorretas apresentadas com aparente confiança e coerência. Do ponto de vista técnico, as alucinações decorrem do mecanismo de geração de texto dos LLMs: esses modelos não "consultam" bancos de dados verificados, mas geram sequências de texto estatisticamente plausíveis com base em padrões identificados durante o treinamento. Quando o modelo não dispõe de informações precisas sobre um tema, pode "inventar" detalhes que se encaixam no padrão esperado de uma resposta coerente.

Implicações Jurídicas das Alucinações

Do ponto de vista jurídico, o caso Turley suscita questões de grande relevância para o direito brasileiro. A publicação de informações falsas que afetam a honra e a reputação de uma pessoa configura, em princípio, os elementos do dano moral previsto no artigo 5º, incisos V e X, da Constituição Federal, e no artigo 927 do Código Civil. A questão reside em identificar quem deve responder por esse dano: o desenvolvedor do modelo (OpenAI), o operador da plataforma, ou o usuário que formulou a consulta?

A LGPD (Lei 13.709/18), em seu artigo 20, assegura ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. Embora as alucinações do ChatGPT não se enquadrem perfeitamente nessa hipótese — pois o sistema não processou dados pessoais do professor Turley, mas os fabricou —, o caso aponta para uma lacuna normativa que o PL 2338/23 tenta endereçar ao estabelecer obrigações de transparência e de não discriminação para sistemas de IA que produzem conteúdo sobre pessoas.

O AI Act europeu, em seu artigo 50, impõe aos sistemas de IA que geram conteúdo sintético a obrigação de indicar que o conteúdo foi gerado artificialmente. Essa obrigação, embora relevante para conteúdo multimídia (deepfakes), não resolve completamente o problema das alucinações textuais em sistemas conversacionais — pois a indicação de origem artificial não elimina o risco de que o usuário tome as informações falsas como verdadeiras.

Padrões Estruturais nas Falhas de IA

A análise comparativa dos casos examinados permite identificar padrões recorrentes. Em primeiro lugar, verificou-se que falhas de dados de treinamento estão presentes em praticamente todos os casos: o K1 não foi treinado para condições de mercado extremas; o veículo da Uber não reconheceu adequadamente pedestres em situações atípicas; o ChatGPT gerou informações falsas por não dispor de dados verificados.

Em segundo lugar, observa-se o problema da opacidade dos sistemas: em todos os casos, foi difícil — e em alguns, impossível — reconstruir com precisão o raciocínio que levou o sistema à decisão que causou o dano. Essa opacidade dificulta a prova da causalidade e, consequentemente, a responsabilização. Em terceiro lugar, identificou-se a inadequação dos mecanismos de supervisão humana: em todos os casos, os operadores humanos não tinham condições de identificar e corrigir as falhas do sistema em tempo real.

Esses padrões sugerem que a resposta jurídica adequada não pode se limitar à alocação de responsabilidade após o dano. Ela deve incluir obrigações preventivas — de design seguro, de testes rigorosos, de supervisão efetiva — que reduzam a probabilidade de falhas e assegurem que, quando estas ocorram, seja possível identificar seus responsáveis e reparar os danos causados.

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.