Voltar ao Blog
Inteligência ArtificialCapítulo 1

A IA na Prática: Aplicações, Problemas e Desafios: Panorama Atual

Panorama regulatório da IA no Brasil e no mundo em 2024: AI Act europeu em vigor, PL 2338/23 em tramitação e o estado atual do debate sobre governança de sistemas autônomos de alto risco.

Alessandro Lavorante 11 de junho de 2024 6 min de leitura

O panorama regulatório da inteligência artificial passou por transformações significativas entre 2023 e 2024. O que era, até há pouco, um campo dominado por declarações de princípios, diretrizes voluntárias e iniciativas setoriais fragmentadas, começa a consolidar-se em instrumentos normativos vinculantes com pretensão de abrangência sistemática. Esse movimento, observado simultaneamente em diversas jurisdições, reflete o amadurecimento do debate público e a percepção crescente de que os riscos associados à IA exigem resposta regulatória proporcional.

Cabe ressaltar que esse amadurecimento não ocorreu no vácuo. Os casos de falhas e danos documentados ao longo dos anos anteriores — dos acidentes com veículos autônomos às alucinações dos modelos de linguagem, passando pelos escândalos de viés algorítmico em sistemas de seleção de crédito e contratação — criaram a demanda social e política por regulação efetiva. O panorama atual é, em larga medida, a resposta institucional a essa demanda.

O AI Act Europeu: Um Marco Global

O Regulamento (UE) 2024/1689, conhecido como AI Act, entrou em vigor em agosto de 2024, tornando-se o primeiro instrumento normativo abrangente dedicado exclusivamente à regulação da IA em nível global. Sua relevância não se limita ao território europeu: dado o peso econômico e tecnológico da União Europeia e o fenômeno do "Efeito Bruxelas" — a tendência de empresas globais adaptarem seus produtos e serviços aos padrões europeus mais rigorosos para manter acesso ao mercado comunitário —, o AI Act deve influenciar de forma significativa as práticas da indústria de IA em todo o mundo, incluindo no Brasil.

A arquitetura normativa do AI Act baseia-se em uma classificação de risco em quatro categorias. Os sistemas de risco inaceitável — como o social scoring governamental, a manipulação subliminar e certos usos de reconhecimento facial em tempo real — são proibidos. Os sistemas de alto risco — incluindo aplicações em infraestrutura crítica, saúde, educação, emprego, crédito, migração e administração da justiça — são admitidos, mas sujeitos a obrigações rigorosas de conformidade, avaliação de impacto e supervisão humana. Os sistemas de risco limitado — como chatbots e sistemas de geração de conteúdo sintético — estão sujeitos a obrigações de transparência. Os sistemas de risco mínimo — como filtros de spam e jogos — são essencialmente livres de obrigações específicas.

Para os sistemas de alto risco, o AI Act impõe, entre outras obrigações: (i) implementação de sistemas de gestão de riscos ao longo do ciclo de vida; (ii) qualidade e representatividade dos dados de treinamento; (iii) documentação técnica detalhada; (iv) transparência e fornecimento de instruções de uso; (v) mecanismos de supervisão humana; (vi) robustez, precisão e segurança cibernética; e (vii) registro em base de dados europeia. O descumprimento dessas obrigações pode resultar em multas de até 35 milhões de euros ou 7% do faturamento global da empresa infratora.

O PL 2338/23 e o Marco Regulatório Brasileiro

No Brasil, o Projeto de Lei 2338/23, de autoria do Senador Rodrigo Pacheco e resultado de amplo processo consultivo coordenado pelo Senado Federal, constitui a principal proposta de regulação abrangente da IA. O projeto foi elaborado com base em dois eixos fundamentais: a promoção da inovação e do desenvolvimento econômico, de um lado, e a proteção dos direitos fundamentais e da dignidade da pessoa humana, de outro.

O PL 2338/23 adota uma abordagem baseada em risco semelhante à do AI Act, classificando os sistemas de IA em categorias de risco e estabelecendo obrigações proporcionais para cada categoria. Seus aspectos mais relevantes para o debate sobre responsabilidade civil incluem: (i) a definição de "agentes de IA" — desenvolvedores, operadores e usuários — e a delimitação de suas responsabilidades; (ii) a previsão de responsabilidade objetiva para sistemas de alto risco; (iii) o direito à explicação das decisões automatizadas; (iv) a obrigação de avaliação de impacto algorítmico; e (v) a criação de mecanismos de fiscalização e aplicação de sanções.

Verificou-se, durante o processo legislativo, uma tensão recorrente entre os representantes da indústria de tecnologia — que advogaram por obrigações menos rigorosas e maior flexibilidade regulatória — e os defensores dos direitos digitais e da sociedade civil — que sustentaram a necessidade de um regime mais protetivo. Essa tensão reflete o debate global sobre o equilíbrio entre inovação e proteção, que não tem solução única ou definitiva.

Outras Iniciativas Regulatórias Relevantes

O panorama atual não se esgota no AI Act e no PL 2338/23. Nos Estados Unidos, a Ordem Executiva sobre IA do Presidente Biden, publicada em outubro de 2023, estabeleceu diretrizes para o desenvolvimento seguro da IA por parte das agências federais e para a avaliação de riscos de sistemas de IA de alto potencial. Embora com força jurídica mais limitada do que um instrumento legislativo, a ordem sinaliza a disposição do governo federal americano de intervir na regulação da IA.

Na China, uma série de regulamentos setoriais — sobre sistemas de recomendação algorítmica (2022), conteúdo deepfake (2022) e serviços de IA generativa (2023) — criou um regime regulatório fragmentado, mas crescentemente abrangente. A abordagem chinesa difere da europeia e da americana ao combinar controle de riscos tecnológicos com instrumentos de controle político do conteúdo produzido por sistemas de IA.

No plano internacional, a UNESCO adotou, em novembro de 2021, a Recomendação sobre a Ética da IA — o primeiro instrumento normativo global sobre o tema —, que estabelece princípios orientadores para a governança da IA com base nos direitos humanos, na diversidade cultural e no desenvolvimento sustentável. Embora não vinculante, a Recomendação da UNESCO tem influenciado os processos regulatórios nacionais, inclusive no Brasil.

Desafios do Panorama Atual

O panorama regulatório atual, apesar dos avanços significativos, apresenta desafios relevantes. O primeiro é a fragmentação jurisdicional: a coexistência de regimes regulatórios distintos em diferentes países cria incerteza para empresas que operam globalmente e pode gerar arbitragem regulatória, com a preferência por jurisdições com requisitos menos rigorosos.

O segundo desafio é o ritmo da mudança tecnológica: os instrumentos normativos em vigor ou em tramitação foram elaborados com base no estado da tecnologia até 2023-2024. A velocidade do desenvolvimento dos sistemas de IA — especialmente dos modelos de linguagem de grande escala e dos sistemas multimodais — pode tornar algumas das categorias e obrigações previstas rapidamente obsoletas.

O terceiro desafio é a capacidade de fiscalização: as obrigações previstas nos instrumentos regulatórios — avaliação de impacto, auditoria de algoritmos, supervisão humana — exigem competências técnicas especializadas que os órgãos reguladores, em muitos países, ainda não possuem em escala suficiente. A efetividade do novo marco regulatório dependerá, em larga medida, da capacidade institucional de implementá-lo.

Diante desse panorama, a análise dos casos concretos de falhas em sistemas de IA adquire relevância renovada: ela demonstra que os desafios regulatórios não são abstrações teóricas, mas consequências práticas e mensuráveis de lacunas normativas que precisam ser preenchidas com urgência e competência técnica.

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.