art. 28, I, ao erigir à categoria de excludente de responsabilidade a comprovação de que o agente não “tirou proveito” do sistema de IA500. No âmbito europeu, Mafalda Miranda Barbosa destaca que aquele que obtém benefício do uso do software ou do robô deve suportar os riscos específicos da inteligência artificial – ponderando se tal ônus recairia sobre o utilizador, o proprietário ou o guardião501. Nesse sentido, Resolução do Parlamento Europeu, de 20 de outubro de 2020 (2020/2014(INL))502, recomenda a adoção de um regime de responsabilidade estrita para sistemas de IA de alto risco e enfatiza o princípio de que quem controla e aufere vantagem econômica desses sistemas deve suportar os riscos (art. 3º, ‘e’ e 4º)503. Ainda, o Expert Group on Liability and New Technologies propõe a figura do “operador” como a pessoa que controla o risco associado à utilização e, ao mesmo tempo, dela extrai vantagem504. Barbosa salienta, por outro lado, que a responsabilidade objetiva de caráter distributivo pode não ser adequada quando a IA é largamente utilizada em benefício comum, sem que haja um sujeito específico que controle ou dela se beneficie de forma individualizada. Cita-se o caso de algoritmos que mapeiam estradas para veículos autônomos, cujo uso é tão disseminado que 500 Art. 28. Os agentes de inteligência artificial não serão responsabilizados quando: I – comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; ou II – comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo. 501 Barbosa, 2021. 502 Resolução (2020/2014(INL)) do Parlamento Europeu, de 20 de Outubro de 2020, que contém Recomendações à Comissão sobre o Regime de Responsabilidade Civil Aplicável à Inteligência Artificial. Disponível em: https://www.europarl.europa.eu/doceo/document/ TA-9-2020-0276_PT.html. 503 Artigo 3º Definições. Para efeitos do presente regulamento, entende-se por: “Operador de frontend”, qualquer pessoa singular ou coletiva que exerça um grau de controlo sobre um risco relacionado com a operação e o funcionamento do sistema de IA e que beneficie da sua operação; f) “Operador de backend”, qualquer pessoa singular ou coletiva que, de forma contínua, defina as características da tecnologia, forneça dados e preste serviços essenciais de apoio de backend e, por conseguinte, exerça igualmente algum controlo sobre o risco ligado à operação e ao funcionamento do sistema de IA; (...) 504 Liability for Artificial Intelligence and Other Emerging Digital Technologies. Gabinete de Publicações: 2019. Disponível em: https://data.europa.eu/doi/10.2838/573689. “Strict liability should lie with the person who is in control of the risk connected with the operation of emerging digital technologies and who benefits from their operation (operator)”. p. 39.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".