tas522. Assim, em linhas resumidas, pode-se dizer que a teoria do risco criado relaciona-se ao risco inerente à própria natureza da atividade, exigindo potencialidade de danos efetivos. Como temos visto, atualmente se discute muito o conceito de “alto risco” do sistema de inteligência artificial. As propostas, em geral, tentam trazer uma análise qualitativa dos potenciais danos, levando em conta não apenas a probabilidade de ocorrência, mas também – sobretudo em cenários que envolvem dados sensíveis e algoritmos autônomos –, a gravidade esperada523. João Quinelato de Queiroz pondera que faltam critérios objetivos para medir estatisticamente a periculosidade de tecnologias emergentes, dada sua velocidade de evolução. Como método, o autor propõe avaliar (i) a existência de regulamentação administrativa específica, (ii) os valores de seguro elevados para essas atividades e (iii) a incidência estatística de sinistros524. No tocante à circulação internacional de modelos de IA, há uma tendência de se adotar regimes híbridos, conjugando a responsabilidade objetiva do operador ou fornecedor com possibilidades de regresso contra o produtor, sobretudo em se tratando de defeitos de fabricação do software. No ponto, podemos observar que o PL 2338/23, já abordado anteriormente, guarda clara afinidade com a lógica da teoria do risco da atividade (ou mesmo com a teoria do risco “excepcional”, como será visto adiante), ao impor responsabilidade objetiva para sistemas de IA classificados como de “alto risco” ou “risco excessivo”. O projeto proíbe definitivamente a implementação e o uso dos considerados sistemas de “risco excessivo”, especificamente aqueles que utilizem técnicas subliminares para induzir comportamentos prejudiciais, que explorem vulnerabilidades ou que sirvam ao ranqueamento social de forma ilegítima (art. 14, I a III). A identificação biométrica à distância em espaços de acesso público só é admitida com lei federal específica e autorização judicial para crimes graves, busca de vítimas e pessoas desaparecidas ou crime em flagrante, assegurando devido processo, controle judicial e revisão humana (art. 15, caput, I a III, parágrafo único). O PL 2338/23 também inclui um rol do que considera sistemas de “alto risco”: em linhas gerais, aqueles utilizados em infraestrutura crítica, educação, re522 Cavalieri Filho, 2023, pp. 252-253. 523 Monteiro Filho e Rosenvald, 2020, p. 25.5. 524 Queiroz, 2020, p. 27.4.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".