Aplicações da IA e suas Implicações Jurídicas: Uma Síntese Necessária
Os casos analisados ao longo deste subcapítulo — o chatbot que difamou o professor Turley, a plataforma Decolar.com e sua discriminação algorítmica de preços, o litígio envolvendo o GitHub Copilot — não são episódios isolados ou curiosidades tecnológicas. Eles representam, cada um a seu modo, aplicações reais e concretas de sistemas de inteligência artificial que produziram danos reais e concretos a pessoas, empresas e ao tecido normativo da sociedade. A síntese de suas implicações jurídicas é, portanto, não apenas um exercício acadêmico, mas uma necessidade prática para a construção de um arcabouço regulatório adequado.
O que esses casos têm em comum? Em primeiro lugar, todos envolvem sistemas que operam de forma autônoma ou semi-autônoma, sem que um ser humano aprove cada decisão individual antes de ela ser executada. Em segundo lugar, todos produzem danos que emergem da interação entre o sistema e o ambiente — não de uma decisão humana explicitamente errada. Em terceiro lugar, todos apresentam o problema da lacuna de responsabilidade: a dificuldade de identificar, no quadro normativo existente, um agente específico que possa ser inequivocamente responsabilizado pelos danos causados.
Alucinações, Difamação e a Responsabilidade dos Modelos Generativos
O episódio de "alucinação" do ChatGPT envolvendo o professor Jonathan Turley escancarou como os mecanismos de geração de texto baseados em redes neurais profundas podem disseminar informações inverídicas e potencialmente difamatórias com uma fluência e um aparente nível de confiança que tornam difícil ao usuário leigo distinguir o verdadeiro do falso. O sistema não apenas inventou uma acusação grave — assédio sexual —, mas atribuiu ao professor a autoria de um artigo inexistente no Washington Post, conferindo verossimilhança à narrativa falsa.
A pergunta que esse episódio coloca ao direito é direta: a responsabilidade deve ser atribuída à empresa que desenvolve o modelo, ao usuário que utilizou a ferramenta, ou ao próprio sistema que, dado seu grau de autonomia, seria uma espécie de agente? A autonomia do sistema — a circunstância de que nenhum ser humano da OpenAI aprovou a resposta difamatória antes de ela ser enviada ao usuário — não pode, por si só, isentar seus programadores e operadores de responsabilidade. Do contrário, cria-se um incentivo perverso: quanto mais autônomo o sistema, menor a responsabilidade de quem o desenvolve.
No direito brasileiro, os arts. 186 e 927 do Código Civil estabelecem a responsabilidade civil por ato ilícito culposo, e o parágrafo único do art. 927 prevê a responsabilidade objetiva quando a atividade normalmente desenvolvida implica, por sua natureza, risco para os direitos de outrem. O desenvolvimento e a operação comercial de modelos generativos com potencial previsível de produzir conteúdo difamatório parece enquadrar-se nessa categoria — o que justificaria a responsabilização objetiva dos desenvolvedores pelos danos causados por alucinações de seus sistemas.
Discriminação Algorítmica e Proteção do Consumidor
No setor de serviços de viagem, o caso da Decolar.com expôs como algoritmos de perfilização podem reproduzir ou amplificar vieses históricos e provocar segregação econômica de forma automatizada e em escala massiva. Consumidores brasileiros pagavam até 30% a mais por acomodações idênticas em comparação com consumidores de outros países — não por uma política explícita de discriminação, mas como resultado emergente de um algoritmo que havia "aprendido", a partir de dados históricos, que consumidores brasileiros tendiam a aceitar preços mais altos.
A pergunta que esse caso coloca é igualmente fundamental: quem deve responder pelos danos sofridos pelos consumidores, considerando que a prática discriminatória decorreu tanto de um uso inadequado de dados quanto de falhas nos critérios algorítmicos de precificação? O CDC (art. 12 e ss.) estabelece a responsabilidade objetiva do fornecedor pelos danos causados por defeitos em seus produtos e serviços — e parece-nos que um algoritmo de precificação que sistematicamente cobra preços discriminatórios de um grupo específico de consumidores configura, sim, um defeito no serviço prestado, independentemente de ter resultado de uma decisão humana consciente ou de um processo algorítmico opaco.
A LGPD (art. 20) adiciona uma camada de proteção ao assegurar ao consumidor o direito de revisar decisões automatizadas que o afetem — direito que, para ser efetivo, exige que o consumidor seja informado de que foi objeto de uma decisão algorítmica e que tenha acesso a uma explicação minimamente compreensível dos critérios utilizados. Na prática, porém, esse direito raramente é exercido porque raramente é conhecido, e porque os mecanismos de revisão previstos pela LGPD ainda são incipientes.
Propriedade Intelectual e os Dilemas do Treinamento de IA
O litígio envolvendo GitHub, Microsoft e OpenAI apresenta a terceira grande dimensão das implicações jurídicas da IA na prática: a controvérsia sobre violações de propriedade intelectual no treinamento de modelos. A alegação central — de que o Copilot foi treinado com milhões de linhas de código protegido por licenças como a GPL e a MIT, sem observância das obrigações de atribuição e preservação de copyright exigidas por essas licenças — ilumina uma tensão estrutural que percorre todo o ecossistema de IA generativa.
O debate permeia questões fundamentais: o uso de obras protegidas para treinar modelos de IA configura violação de direitos autorais? A geração de trechos substancialmente similares ao código de treinamento é reprodução ilícita ou criação nova? As licenças de software livre são aplicáveis ao processo de treinamento de IA ou apenas à distribuição do software resultante? Essas perguntas ainda não têm respostas definitivas na jurisprudência de qualquer país — e os litígios em curso são, em larga medida, o processo pelo qual essas respostas estão sendo construídas.
No Brasil, a Lei n. 9.610/1998 protege obras intelectuais originais, incluindo programas de computador, e o uso não autorizado de obras protegidas é, em princípio, ilícito. A ausência de uma exceção específica para treinamento de IA no texto legal cria uma lacuna que os tribunais brasileiros terão de preencher — e que o PL n. 2.338/2023, em sua versão atual, não endereça com a precisão necessária.
O Dever de Discutir os Riscos de Lacuna de Responsabilidade
Os exemplos analisados colocam em evidência o dever de se discutir os riscos da lacuna de responsabilidade e a dificuldade de se estabelecer, na prática, um arcabouço seguro que englobe as mais distintas situações e atribua responsabilidades de forma clara. Quando se soma a autonomia crescente dos sistemas de IA à sua complexidade técnica — deep learning, algoritmos de reforço, arquiteturas do tipo caixa-preta —, o questionamento central torna-se ainda mais urgente: quem deve responder pelos danos causados por sistemas que, em certa medida, escapam ao controle de seus próprios criadores?
Uma parte da resposta está na regulação preventiva: exigir, antes da disponibilização comercial de sistemas de IA de alto risco, avaliações de impacto rigorosas, documentação técnica acessível aos reguladores e mecanismos de supervisão humana efetiva. Essa abordagem, adotada pelo AI Act europeu e proposta pelo PL n. 2.338/2023 no Brasil, visa reduzir a probabilidade de dano antes que ele ocorra — em vez de apenas reagir após o dano já ter se materializado.
Outra parte da resposta está na responsabilidade pós-dano: construir, a partir dos princípios existentes do direito civil e do direito do consumidor, um regime de responsabilidade que não permita que a complexidade técnica dos sistemas de IA sirva como escudo para a irresponsabilidade de seus criadores e operadores. A responsabilidade objetiva pelo risco da atividade, prevista no parágrafo único do art. 927 do Código Civil, oferece uma base sólida para essa construção — mas sua aplicação efetiva a casos de IA exige desenvolvimento doutrinário e jurisprudencial que está apenas começando.
Implicações para o Futuro do Direito da IA
As implicações jurídicas dos casos analisados apontam, em última análise, para a necessidade de uma nova categoria dogmática no direito: a responsabilidade por sistemas de IA autônomos. Essa categoria precisaria combinar elementos do direito do consumidor, do direito civil, do direito autoral e do direito de proteção de dados, reconhecendo as especificidades dos sistemas algorítmicos sem abandonar os princípios fundamentais de proteção de direitos e atribuição de responsabilidade que sustentam o ordenamento jurídico.
O caminho não é simples — e parece-nos que simplificações apressadas correm o risco de produzir soluções que, ao tentar regular demais, inibem a inovação, ou que, ao tentar regular de menos, deixam desprotegidas as vítimas mais vulneráveis dos danos algorítmicos. O equilíbrio entre esses extremos é o grande desafio do direito da IA — um desafio que exige, acima de tudo, a disposição de aprender continuamente sobre uma tecnologia que não para de evoluir, e de adaptar as respostas jurídicas com a mesma velocidade e inteligência que se espera dos sistemas que se pretende regular.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".