como programadores, investidores e proprietários, não teriam pleno conhecimento sobre os processos decisórios e de aprendizado da IA, o que os afastaria de qualquer responsabilidade. Defensores dessa tese sustentam que impor reparações nesses casos poderia inibir a inovação tecnológica, causando prejuízos ao progresso social. Não obstante, para Mulholland, “a hipótese é rapidamente descartada, fundamentando o dever de reparar o dano no princípio da solidariedade social e na premissa de que nenhuma pessoa deve ficar irressarcida se sofreu um dano injusto”568. Diante disso, surge a questão: como evitar o que Ana Frazão denominou de “determinismo tecnológico”, “justificado pelo cômodo argumento de que os agentes que transferiram determinadas decisões para as máquinas não mais responderiam pelo que estas fizessem”? Para Caitlin Mulholland, a solução a tais questionamentos pode residir em teorias como o risco proveito, que já vimos anteriormente, bem como na teoria do “Deep Pocket” (“Bolso Profundo”), que prioriza a responsabilização de agentes com maior capacidade econômica569. No contexto norteamericano, David Vladeck570 propõe uma abordagem que busca conciliar algumas das teorias anteriormente apresentadas, fundamentando-se em normas jurídicas já vigentes. Segundo o autor, a única maneira de responsabilizar por danos causados por IA autônoma é enquadrá-los como responsabilidade por meio da presunção de existência de um defeito (defect. theory) na IA, ainda que as evidências do caso apontem em outro sentido. A lógica subjacente é que o dano, por si só, evidencia a falha no sistema da IA. Nesse sentido, o dever de reparação recairia sobre o fornecedor da tecnologia – identificado como o agente que explora ecodetém nem a aptidão para prever o dano nem o poder para evitá-lo – como ocorre em decisões autônomas de IA –, esse argumento perderia sua validade. 568 2019, p. 15.4. 569 Mulholland, 2019, p. 15.4. Čercka et al., ao examinarem a teoria do Deep Pocket, sustentam que indivíduos ou entidades envolvidos em atividades potencialmente perigosas que proporcionem algum tipo de benefício devem arcar com a responsabilidade pelos danos causados. Nesse contexto, a obrigação de indenizar recai sobre aquele que possui maior capacidade financeira para assegurar e gerir os riscos inerentes à atividade. Essa abordagem privilegia, frequentemente, a adoção de mecanismos como o seguro contra danos. Čerka, Paulius; Grigienė, Jurgita; Sirbikytė, Gintarė. Liability for Damages Caused by Artificial Intelligence. Computer Law & Security Review, v. 31, n. 3, jun. 2015, p. 386. 570 2014, pp. 127-128.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".