Considerações Críticas sobre o Regime de Aplicação do AI Act
A análise crítica do AI Act impõe o reconhecimento de suas virtudes e de suas limitações como instrumento de tutela contra danos produzidos por sistemas de inteligência artificial. Parece-nos que o Regulamento europeu representa um avanço inequívoco na construção de um regime jurídico específico para a IA, mas também suscita questões relevantes quanto à efetividade de suas disposições e à adequação de suas soluções à complexidade dos fenômenos que pretende regular.
Os diferentes capítulos do Regulamento tornam-se aplicáveis de forma escalonada: seis meses após a entrada em vigor para as proibições sobre IA de risco inaceitável; nove meses após para os códigos de conduta; doze meses após para as normas relativas a autoridades de notificação, modelos de IA de propósito geral, governança e confidencialidade; e vinte e quatro meses após para o restante da normativa, com exceção do artigo 6, seção 1, aplicável trinta e seis meses após a entrada em vigor. Essa progressividade, embora justificável do ponto de vista da praticabilidade regulatória, implica um período transitório durante o qual os riscos de dano permanecem, em grande medida, sem respaldo normativo específico.
O Âmbito de Aplicação e suas Implicações Críticas
O AI Act aplica-se a pessoas na União Europeia impactadas por sistemas de inteligência artificial comercializados ou operados no território, incluindo fornecedores e operadores de países terceiros cujos sistemas estejam destinados à União ou regulados por atos de direito internacional público (art. 2º, 1). Emendas ampliaram o escopo para abranger prestadores fora da União e práticas proibidas envolvendo sistemas de IA desenvolvidos fora do bloco, desde que seus responsáveis estejam estabelecidos na União (Considerando 21).
Verificou-se que essa extensão territorial é, ao mesmo tempo, uma das forças e uma das fraquezas do Regulamento. Por um lado, ela evita a criação de um mercado paralelo de sistemas de IA não regulados destinados à exportação para a União Europeia; por outro, sua aplicação efetiva a operadores estabelecidos fora da União depende de mecanismos de cooperação internacional e de capacidade de fiscalização que, na prática, podem se revelar insuficientes. A questão da aplicabilidade extraterritorial do AI Act permanece como um dos pontos de maior controvérsia doutrinária.
Estão excluídos da aplicação do Regulamento as autoridades públicas ou organizações internacionais sob acordos de cooperação específicos; as atividades de pesquisa e testes anteriores à comercialização, desde que respeitem os direitos fundamentais; os componentes de IA distribuídos sob licenças abertas, salvo integração em sistemas de alto risco; e os sistemas exclusivamente militares. Parece-nos que a exclusão dos sistemas militares merece reflexão crítica, pois esses sistemas podem produzir danos de enorme magnitude, e sua exclusão do regime regulatório geral deixa um vazio normativo de difícil justificação sob a perspectiva da tutela das vítimas.
Os Sistemas de Alto Risco: Adequação da Classificação
O foco principal do AI Act são os sistemas de alto risco, exigindo avaliações de risco, transparência e supervisão humana em setores como infraestruturas críticas, saúde, emprego e justiça. A classificação de risco adotada pelo Regulamento é, em certa medida, estática: os sistemas são classificados com base em sua categoria de uso, e não com base em uma avaliação dinâmica de seu comportamento real. Verificou-se que essa abordagem pode ser insuficiente para capturar os riscos emergentes de sistemas que, embora classificados em categorias de risco limitado ou mínimo, desenvolvem capacidades inesperadas em razão do aprendizado de máquina.
Parece-nos, ademais, que a definição de "alto risco" adotada pelo Regulamento privilegia setores tradicionais de alta sensibilidade, mas pode não abranger adequadamente os riscos sistêmicos decorrentes do uso massivo de IA em atividades aparentemente ordinárias — como a triagem de currículos ou a concessão de crédito — que, por sua escala e pela natureza dos dados envolvidos, podem produzir danos coletivos de grande relevância.
Direitos dos Cidadãos e Mecanismos de Tutela
O Regulamento assegura direitos aos cidadãos, como a contestação de decisões baseadas em IA e maior transparência, com suporte operacional fornecido pelo Gabinete de Inteligência Artificial. Esses direitos têm repercussão direta na análise da responsabilidade civil, pois a negativa de acesso a informações necessárias para o exercício da contestação pode configurar uma violação autônoma de direito que enseja reparação.
Contudo, verificou-se que a efetividade dos direitos de contestação depende da capacidade dos cidadãos de compreender as decisões tomadas por sistemas de IA — o que pressupõe obrigações de explicabilidade que, no Regulamento, são impostas apenas para determinadas categorias de sistemas. A chamada opacidade algorítmica — característica estrutural de muitos modelos de aprendizado de máquina — permanece como um obstáculo prático ao exercício dos direitos formalmente assegurados.
Crítica à Ausência de Regime Específico de Responsabilidade Civil
Uma das críticas mais relevantes ao AI Act é a ausência de um regime específico de responsabilidade civil para danos causados por sistemas de IA no próprio texto do Regulamento. O AI Act é, fundamentalmente, um instrumento de regulação administrativa, que estabelece obrigações para os operadores de sistemas de IA e sanções para o seu descumprimento, mas não disciplina diretamente a responsabilidade civil pelos danos causados a particulares.
Parece-nos que essa lacuna é reconhecida pelo próprio legislador europeu, que optou por tratar da responsabilidade civil em instrumento separado — a Proposta de Diretiva sobre Responsabilidade Civil da IA (COM(2022) 496 final) —, ainda em discussão no âmbito da União Europeia. A coexistência de um regime regulatório administrativo (AI Act) e de um regime de responsabilidade civil (Diretiva em discussão) pode gerar dificuldades de articulação que somente a prática interpretativa poderá resolver.
O Papel do AI Act na Definição do Standard de Cuidado
Não obstante a ausência de disciplina direta da responsabilidade civil, o AI Act pode desempenhar um papel relevante na definição do standard de cuidado aplicável aos operadores de sistemas de IA. Verificou-se que, nos sistemas de responsabilidade subjetiva, a inobservância das obrigações impostas pelo Regulamento — como a gestão contínua de risco ou a garantia de supervisão humana — pode ser invocada como evidência de negligência, facilitando a prova da culpa pela vítima.
Nos sistemas de responsabilidade objetiva, como o previsto no art. 927, parágrafo único, do Código Civil brasileiro, a relevância do AI Act é mais limitada, pois a responsabilização independe de culpa. Contudo, a conformidade ou não com as exigências do Regulamento pode ser relevante para a análise das excludentes de responsabilidade, como o caso fortuito externo ou a culpa exclusiva da vítima.
Considerações Finais
As considerações críticas sobre o AI Act revelam um instrumento de inegável valor na construção de um regime jurídico para a inteligência artificial, mas também com limitações estruturais que precisam ser endereçadas pela prática regulatória, pela jurisprudência e pela futura legislação. A ausência de regime específico de responsabilidade civil, as lacunas na classificação de risco e as dificuldades de aplicação extraterritorial são questões que o debate jurídico não pode ignorar. Parece-nos que o maior mérito do AI Act é político: ao estabelecer um marco regulatório de referência, ele induz uma elevação geral dos padrões de governança de IA que beneficia as vítimas de danos tanto dentro quanto fora da União Europeia.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".