A responsabilidade é atribuída quando os resultados produzidos pela IA divergem do comportamento que seria razoavelmente esperado de dispositivos semelhantes. Não se avalia a IA em comparação ao ser humano, mas sim em relação ao padrão de uma IA de mesma natureza e funcionalidade. Bonnet (2015, pp. 39-40) exemplifica com sistemas de trading financeiro: um algoritmo que exceda os limites normativos estabelecidos apresentaria um comportamento anormal, ensejando responsabilidade. Ele também sugere uma perspectiva mais ambiciosa, na qual a anormalidade se verificaria diretamente a partir do dano sofrido pela vítima. Nesse caso, a IA geraria responsabilidade quando fosse anormal que a vítima suportasse o prejuízo. Para tais situações, cláusulas gerais poderiam prever que qualquer ato de IA que, se praticado por um ser humano, seria considerado culposo, deve igualmente gerar responsabilização. Isso se aplicaria, por exemplo, à emissão de informações enganosas ou à violação de dados pessoais por um algoritmo. Saint-Pau, J. C. Responsabilité Civile et Anormalité. Mélanges C. LapoyadeDeschamps, Presses Universitaires de Bordeaux, 2003, p. 249; Poumarede, M. L’Avènement de la Responsabilité Civile du Fait d’Autrui. In: Mélanges en l’Honneur de Philippe Le Tourneau. Dalloz, 2008, p. 838. Ambos Apud Bonnet, 2015, pp. 39-40.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".