O Regulamento de Inteligência Artificial da União Europeia (AI Act), aprovado em 2024, é o primeiro marco regulatório abrangente para IA no mundo. Sua influência no debate regulatório global é significativa, e o Brasil — que discute seu próprio marco legal — tem no AI Act uma referência importante, tanto pelas soluções adotadas quanto pelos desafios identificados.
Abordagem Baseada em Risco
O pilar central do AI Act é a classificação de sistemas de IA em níveis de risco: risco inaceitável (sistemas proibidos), como scoring social por governos e manipulação subliminar; alto risco, sujeito a requisitos rigorosos de conformidade; risco limitado, com obrigações de transparência; e risco mínimo, sem obrigações específicas.
Sistemas de alto risco incluem os utilizados em infraestrutura crítica, educação, emprego, serviços essenciais, aplicação da lei, migração e administração da justiça. Para esses sistemas, o AI Act impõe: gestão de riscos, governança de dados, documentação técnica, transparência, supervisão humana e robustez técnica.
Obrigações para Fornecedores e Implantadores
O AI Act distingue entre fornecedores (desenvolvedores) e implantadores (usuários organizacionais) de sistemas de IA, atribuindo obrigações proporcionais a cada papel. Fornecedores de sistemas de alto risco devem implementar sistemas de gestão de qualidade, manter documentação técnica completa, garantir a conformidade antes da colocação no mercado e conduzir monitoramento pós-mercado.
IA Generativa e Modelos de Uso Geral
O AI Act dedica atenção especial a modelos de IA de uso geral (como grandes modelos de linguagem), impondo obrigações de transparência e documentação técnica. Modelos com risco sistêmico estão sujeitos a requisitos adicionais, incluindo avaliações adversariais e testes de estresse.
Lições para o Brasil
O PL 2338/2023 compartilha princípios com o AI Act, mas apresenta diferenças significativas. Lições relevantes incluem: a classificação baseada em risco como mecanismo proporcional de regulação; a importância de definições claras e abrangentes; a necessidade de infraestrutura institucional para fiscalização; os desafios de regular uma tecnologia em rápida evolução; e a necessidade de coordenação internacional.
Efeito Bruxelas e Impacto Global
O AI Act tende a produzir o chamado "efeito Bruxelas" — a tendência de regulação europeia se tornar padrão global de facto. Empresas brasileiras que desenvolvem ou utilizam IA com alcance internacional devem considerar a conformidade com o AI Act, independentemente da regulação doméstica, especialmente se oferecem serviços na UE ou processam dados de residentes europeus.
Desafios de Implementação
Os principais desafios na implementação do AI Act, que o Brasil deve considerar, incluem: a necessidade de capacitação técnica dos reguladores; os custos de conformidade para empresas menores; a dificuldade de classificar sistemas de IA em categorias estanques; e o equilíbrio entre proteção e inovação.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".