Como veremos no Capítulo 3 (3.2.5), tais erros configuram “defeitos de design”, pois afetam todas as unidades de produção, comprometendo as expectativas de segurança do consumidor médio. Apesar disso, provar o nexo de causalidade entre o defeito e o dano é desafiador, demandando análise especializada do código-fonte, considerando que falhas podem resultar de interações complexas entre hardware e software. Cf. Lehman-Wilzig, S. N. Frankenstein Unbound: Towards a Legal Definition of Artificial Intelligence. Futures: Journal of Forecasting and Planning, vol. 13, n. 6, 1981, p. 448; Barr, M.. Firmware forensics: Best Practices in Embedded Software Source Code Discovery. Digital Evidence and Electronic Signature Law Review, v. 8,. 2011, p. 151. Todos apud Castells I Marques, 2017a, pp. 85; 94-96. 156 Matthías, Andreas. The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. Ethics and Information Technology, v. 6, n. 3, 2004, p. 177. Disponível em: https://link.springer.com/article/10.1007/s10676-004-3422-1?utm_source=chatgpt.com. Acesso em: out. 2024. 157 O uso do termo “alucinação”, em contexto de IA, é justificado como uma metáfora técnica amplamente consolidada na literatura, referindo-se a respostas incorretas ou fictícias geradas por modelos de linguagem. A analogia com alucinações humanas, que descrevem percepções sem correspondência externa – ou, na IA, informações que não estão fundamentadas nos dados ou padrões que o sistema foi projetado para processar – facilita a comunicação com públicos leigos ao ilustrar um fenômeno técnico de forma acessível.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".