O Projeto de Lei nº 2338/2023, que tramita no Congresso Nacional, propõe o marco regulatório para sistemas de inteligência artificial no Brasil. De autoria do Senado Federal, o projeto é resultado de amplo processo de consulta e debate com a sociedade civil, academia e setor privado, buscando estabelecer regras proporcionais que promovam a inovação responsável.
Princípios e Fundamentos
O PL estabelece como fundamentos a centralidade da pessoa humana, o desenvolvimento econômico sustentável, a livre iniciativa, a livre concorrência, a defesa do consumidor, a privacidade e a proteção de dados, a transparência, a segurança da informação e a inovação. Esses princípios orientam a interpretação e aplicação da lei.
Classificação de Risco
Seguindo tendência internacional, o PL adota abordagem baseada em risco, categorizando sistemas de IA em: risco excessivo (vedados), incluindo sistemas que explorem vulnerabilidades de grupos específicos, sistemas de scoring social pelo poder público e armas autônomas sem controle humano significativo; alto risco, sujeitos a obrigações específicas de governança, transparência e supervisão; e demais sistemas, com obrigações gerais de informação e boa-fé.
Sistemas de Alto Risco
São considerados de alto risco, entre outros, sistemas utilizados em: aplicação e execução da lei; gestão de infraestrutura crítica; educação e formação profissional; emprego e relações de trabalho; acesso a serviços essenciais; avaliação de crédito e seguros; e administração da justiça.
Para sistemas de alto risco, o PL exige: avaliação preliminar de impacto; medidas de governança e gestão de risco; documentação técnica adequada; transparência e explicabilidade; supervisão humana; robustez e segurança técnica; e não discriminação.
Direitos dos Afetados
O PL consagra direitos às pessoas afetadas por sistemas de IA: direito à informação prévia sobre a interação com IA; direito à explicação sobre decisões; direito à contestação e revisão; direito à não discriminação; e direito à intervenção humana em decisões de alto impacto.
Autoridade Competente
O PL prevê a designação de uma autoridade competente para supervisionar o cumprimento da lei, com poderes de fiscalização, regulamentação e aplicação de sanções. A definição de qual órgão exercerá essa função é ponto de debate, havendo propostas que vão desde a criação de nova autoridade até a atribuição a órgãos existentes.
Regime de Responsabilidade
O regime de responsabilidade civil por danos causados por sistemas de IA é um dos pontos mais debatidos do PL. As discussões giram em torno da adoção de responsabilidade objetiva (independente de culpa) versus subjetiva (dependente de comprovação de culpa ou dolo), com variações conforme o nível de risco do sistema.
Impacto para Organizações
Organizações que desenvolvem ou utilizam IA no Brasil devem acompanhar a tramitação do PL e antecipar medidas de conformidade. A implementação de práticas de governança algorítmica, documentação técnica e avaliações de impacto desde já posiciona as organizações favoravelmente para a futura regulação.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".