em parte pelo debate europeu, dispõe o Projeto sobre a necessidade de que fornecedores de IA observem boas práticas de segurança e apresentem documentação que permita rastrear decisões automatizadas, aproximando-se do escopo preventivo visto no AI Act. Entre as propostas, está a criação de padrões mínimos de explicabilidade para algoritmos de alto impacto social, contemplando responsabilidade objetiva em certos casos de danos graves. Há de se ressaltar, especificamente, que o caput do art. 27 da atual redação do projeto adota expressamente o princípio da reparação integral do dano. Em síntese, a centralidade do dano cresce diante da IA, exigindo soluções jurídicas que conciliem inovação e proteção das vítimas. O ordenamento brasileiro, com seu princípio da reparação integral e a consideração dos danos morais, difusos e até sociais, demonstra uma abertura significativa para a proteção das vítimas. Contudo, não estamos livre de eventuais dificuldades no que tange à avaliação do nexo causal e às situações em que a conduta danosa resulta de operações autônomas ou de aprendizado de máquina. Modelos europeus, como o AI Act e a Proposta de Diretiva sobre Responsabilidade Civil da IA, servem de parâmetro, ao passo que o PL 2338/23 avança em regras de transparência e responsabilidade objetiva. Nesse cenário, o “dano” aparece como um ponto central dessas diversas propostas regulatórias, que refletem o que parece ser uma preocupação geral de que as vítimas não suportem sozinhas o ônus de perdas ocasionadas por tecnologias imprevisíveis. Em nosso ver, ainda que o princípio da reparação integral permita indenizar danos patrimoniais e extrapatrimoniais decorrentes de decisões autônomas de IA, o PL 2338/23 acerta ao dispor sobre classificação de risco e medidas de transparência. Ainda assim, persistem desafios ligados à definição do nexo causal e à responsabilização por danos imprevisíveis, pois o aperfeiçoamento contínuo dos algoritmos é um fator de imprevisibilidade e ampliação do espectro de riscos a que a Art. 28. Os agentes de inteligência artificial não serão responsabilizados quando: I – comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; ou II – comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo. Art. 29. As hipóteses de responsabilização civil decorrentes de danos causados por sistemas de inteligência artificial no âmbito das relações de consumo permanecem sujeitas às regras previstas na Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), sem prejuízo da aplicação das demais normas desta Lei.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".