Voltar ao Blog
Inteligência ArtificialCapítulo 1

1.4. A IA na Prática: Aplicações, Problemas e Desafios: Dimensões Contemporâneas

ações do drone podem não ser diretamente controladas ou previstas por seu programador155, gerando um risco de lacuna de responsabilidade156. “Alucinação”157 do ChatGPT e Falsa Acusação de Assédio...

Alessandro Lavorante 16 de junho de 2024 2 min de leitura

ações do drone podem não ser diretamente controladas ou previstas por seu programador155, gerando um risco de lacuna de responsabilidade156. “Alucinação”157 do ChatGPT e Falsa Acusação de Assédio Sexual (2023) Em abril de 2023, o jornal The Washington Post relatou um episódio envolvendo o ChatGPT, desenvolvido pela OpenAI, no qual a inteligência artificial incluiu o nome de um renomado professor de Direito dos Estados Unidos em uma lista de indivíduos supostamente acusados de assédio sexual. Jonathan Turley, professor da Universidade George Washington, foi alertado por meio de um e-mail sobre a existência dessa lista. A referida lista teria sido gerada após um advogado questionar o ChatGPT sobre “estudiosos jurídicos que assediaram sexualmente alguém”. O nome do professor Turley constava na resposta, acompanhado de uma narrativa fictícia elaborada pelo chatbot, na qual se alegava que ele teria proferido 155 Na fabricação de drones, pelo menos dois produtores estão envolvidos: um para o hardware e outro para o software. Os erros de software (“software bugs”) são especialmente críticos, pois este controla todo o voo, substituindo o piloto. Falhas como erros de execução (“runtime error”) – que causam a interrupção anormal do software – ou de lógica (“logic error”) – quando o código, mesmo correto na sintaxe, gera resultados equivocados – podem levar a graves acidentes. Erros de lógica são particularmente difíceis de detectar, pois não geram mensagens de erro. Como destaca Robert H. Preiskel, é impossível garantir que sistemas complexos, com milhões de linhas de código, estejam livres de falhas (Software Engineering: what are the legal pitfalls. In: The Computer Law and Security Reports, vol. 9, 1993, p. 183). Além disso, produtos são frequentemente lançados com softwares contendo erros conhecidos, seguindo o lema “ship now, patch later” (“envie agora, conserte depois”).

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco