A proliferação de frameworks de ética em IA — produzidos por governos, organizações internacionais, empresas e academia — reflete a urgência do tema e a diversidade de abordagens. Embora cada framework tenha suas particularidades, há convergência significativa em torno de princípios fundamentais que orientam o desenvolvimento e uso responsável da tecnologia.
Recomendação da OCDE sobre IA
A Recomendação do Conselho da OCDE sobre Inteligência Artificial, adotada em 2019 e atualizada em 2024, é um dos marcos mais influentes. Seus princípios incluem: crescimento inclusivo, desenvolvimento sustentável e bem-estar; valores centrados no ser humano e equidade; transparência e explicabilidade; robustez, segurança e proteção; e accountability.
O Brasil, como membro da OCDE em processo de acessão, tem alinhado progressivamente sua abordagem regulatória com essas recomendações.
Recomendação da UNESCO sobre Ética da IA
A Recomendação sobre a Ética da Inteligência Artificial, adotada pela UNESCO em 2021, é o primeiro instrumento normativo global sobre o tema. Seus valores e princípios abrangem: proporcionalidade e não causar dano; segurança e proteção; equidade e não discriminação; sustentabilidade; privacidade e proteção de dados; supervisão humana e determinação; transparência e explicabilidade; responsabilização e prestação de contas; consciência e letramento; e governança e colaboração multi-stakeholder.
Princípios da UE para IA Confiável
O Grupo de Especialistas de Alto Nível da Comissão Europeia definiu sete requisitos para IA confiável: atuação e supervisão humanas; robustez técnica e segurança; privacidade e governança de dados; transparência; diversidade, não discriminação e equidade; bem-estar social e ambiental; e accountability.
Convergências
Apesar das diferenças de formulação, os frameworks internacionais convergem em princípios centrais: a primazia do ser humano sobre a tecnologia; a não discriminação e equidade; a transparência e explicabilidade; a segurança e robustez; a responsabilização; e a privacidade e proteção de dados.
Da Teoria à Prática
O principal desafio dos frameworks éticos é a ponte entre princípios abstratos e implementação prática. Princípios como "equidade" e "transparência" podem ser interpretados de formas diversas e até conflitantes em situações concretas. A operacionalização exige: tradução de princípios em requisitos mensuráveis; desenvolvimento de métricas e indicadores; criação de processos de avaliação; e mecanismos de enforcement.
Ética como Complemento à Regulação
Frameworks éticos não substituem a regulação jurídica, mas a complementam. Enquanto a lei estabelece obrigações mínimas e sanções, a ética aspira a padrões mais elevados de conduta. Organizações que adotam práticas éticas em IA frequentemente antecipam exigências regulatórias e constroem vantagem competitiva baseada em confiança.
O Brasil tem participado ativamente dos fóruns internacionais sobre ética em IA, e a influência desses frameworks é visível no PL 2338/2023 e nas iniciativas governamentais de estratégia nacional de IA.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".