Adaptando os exemplos, temos o caso dos desenvolvedores ou operadores de sistemas de IA que falham em implementar medidas de segurança exigidas pela legislação – e que, por isso, podem ser considerados omissos. Em sistemas críticos, como os de segurança pública que utilizam IA para monitoramento, a ausência de protocolos de emergência estabelecidos por lei pode representar uma omissão com consequências jurídicas, pois infringe o dever de proteção que a norma impõe. Nesse sentido, a redação atual do Projeto de Lei Ordinária nº 2.338/23201 (“PL 2.338/23”) – recentemente aprovado no Senado Federal (casa originadora) e agora em trâmite na Câmara dos Deputados202 –, que estabelece princípios, direitos e deveres para o uso de inteligência artificial no país, estabelece que os agentes responsáveis por sistemas de inteligência artificial devem implementar estruturas e processos que garantam segurança, transparência e respeito aos direitos das pessoas afetadas, abrangendo medidas como a transparência no uso de IA (art. 19, I e II), gestão de dados para mitigar vieses discriminatórios (art. 19, III), proteção de dados pessoais desde a concepção (art. 19, IV) e separação adequada de dados para treinamento (art. 19, V). Essas obrigações incluirão a elaboração e atualização de documentação técnica (art. 19, §2º), realização de testes de confiabilidade (art. 20, III) e explicabilidade dos resultados (art. 20, V), além de medidas para prevenir e corrigir vieses sociais estruturais (art. 20, IV). No caso de sistemas de “alto risco”203, a avaliação de impacto algorítmico será obrigatória (art. 22). 201 Dispõe sobre o Uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/ web/atividade/ materias/-/materia/157233. 202 O texto substitutivo foi aprovado no Senado em 10/12/2024 e encaminhado à Câmara dos Deputados Federais, onde se aguarda a abertura da sessão legislativa para seguimento do trâmite. A expectativa é que ainda ocorram diversas modificações no texto até uma eventual aprovação. 203 A Seção III da atual redação do Projeto classifica como de alto risco os sistemas de inteligência artificial que, em virtude de seu uso ou aplicação, podem impactar significativamente direitos fundamentais, a segurança das pessoas ou a prestação de serviços essenciais (art. 17), abrangendo desde o controle de infraestruturas críticas e a gestão de trabalhadores até a área da saúde e a investigação criminal. Já o art. 18 atribui à autoridade competente a tarefa de atualizar a lista desses sistemas, com base em critérios como a escala de implementação, potenciais efeitos negativos sobre direitos e liberdades, riscos de danos materiais ou morais, envolvimento de pessoas vulneráveis e expectativas de confidencialidade dos dados. Essa atualização deve passar por consulta a órgãos setoriais, audiências públicas e análise de impacto regulatório, promovendo transparência e revisão contínua quanto aos riscos que as tecnologias de inteligência artificial representam para a coletividade.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".