Voltar ao Blog
Machine LearningCapítulo 1

Aprendizado de Máquina (Machine Learning): Considerações Críticas

A caixa-preta do aprendizado não supervisionado, o viés algorítmico e os limites da responsabilização jurídica em sistemas de machine learning autônomos e opacos.

Alessandro Lavorante 29 de abril de 2024 6 min de leitura

A auto-organização que caracteriza o aprendizado não supervisionado representa, ao mesmo tempo, a grande virtude e o principal risco dessa modalidade de machine learning. A vantagem é evidente: sem a necessidade de rótulos humanos, o sistema pode descobrir estruturas e padrões em volumes de dados que seriam humanamente impossíveis de processar. O risco, igualmente evidente, é que esse mesmo processo de descoberta autônoma gera uma opacidade estrutural — o fenômeno da "caixa-preta" — que desafia as exigências jurídicas de transparência, explicabilidade e responsabilização.

A Caixa-Preta como Problema Jurídico Estrutural

Parece-nos necessário compreender com precisão por que o conceito de caixa-preta constitui um problema jurídico de primeira ordem, e não apenas uma limitação técnica tolerável. Em um sistema de aprendizado não supervisionado, o algoritmo desenvolve suas próprias regras e critérios classificatórios com base nos padrões que identifica nos dados — sem que esses critérios sejam predefinidos ou explicitados por programadores. O resultado é um modelo cujo funcionamento interno é de difícil interpretação, mesmo para os especialistas que o conceberam.

Essa característica tem implicações diretas sobre a imputabilidade de decisões danosas. Considere-se, por exemplo, um sistema de análise de risco de reincidência criminal utilizado no auxílio a decisões de liberdade condicional. Se o sistema recomenda a manutenção da prisão cautelar de um réu com base em padrões que ele mesmo identificou de forma autônoma — e esses padrões correlacionam-se, ainda que indiretamente, com variáveis raciais ou socioeconômicas —, como identificar e responsabilizar o agente causador do dano? Quem responde: o programador que escolheu o método de aprendizado? A empresa que forneceu os dados de treinamento? O órgão público que adquiriu e implantou o sistema?

O Código Civil brasileiro (Lei n.º 10.406/2002), em seus arts. 186 e 927, estabelece que aquele que causa dano a outrem, por ato ilícito, fica obrigado a repará-lo. A aplicação dessa norma a sistemas autônomos opacos exige, contudo, que se consiga identificar o nexo causal entre a decisão do sistema e o dano sofrido — o que pressupõe, ao menos, a capacidade de auditar os critérios que o sistema utilizou. Na ausência dessa capacidade, o próprio direito de reparação pode tornar-se ilusório.

O Aprendizado Semissupervisionado e seus Limites

O aprendizado semissupervisionado, como visto, combina dados rotulados e não rotulados durante o treinamento, buscando equilibrar a orientação humana com a capacidade de generalização autônoma. Embora represente um avanço em relação ao aprendizado puramente não supervisionado — na medida em que os dados rotulados funcionam como âncoras interpretativas —, esse método não elimina os riscos de opacidade: a parte não supervisionada do treinamento ainda pode introduzir critérios classificatórios que os operadores não conseguem rastrear ou explicar.

Verifica-se, ademais, que a proporção entre dados rotulados e não rotulados varia amplamente dependendo da aplicação e dos recursos disponíveis. Em domínios onde a rotulação especializada é cara ou escassa — como na análise de imagens médicas complexas ou na interpretação de documentos jurídicos em idiomas de baixo recurso —, a tendência é que a proporção de dados não rotulados seja substancialmente maior, ampliando a autonomia efetiva do sistema e, consequentemente, os riscos de comportamento imprevisto.

O Aprendizado por Reforço e a Maximização de Objetivos

Ainda no âmbito das tipologias de aprendizado de máquina, cabe examinar o aprendizado por reforço (reinforcement learning), que se baseia na lógica de tentativa e erro: um agente computacional interage com um ambiente, recebe sinais de recompensa ou penalização a cada ação, e ajusta progressivamente sua política de comportamento para maximizar recompensas acumuladas ao longo do tempo. Essa abordagem está na base de alguns dos sistemas de IA mais impressionantes dos últimos anos, como o AlphaGo e o AlphaZero da DeepMind, e foi fundamental no treinamento por reforço com feedback humano (RLHF) aplicado aos grandes modelos de linguagem, incluindo as versões do ChatGPT.

O aprendizado por reforço introduz um elemento de risco adicional do ponto de vista jurídico: a maximização de objetivos. Um sistema treinado para maximizar determinada métrica — cliques, engajamento, lucro, vitórias em um jogo — pode encontrar estratégias inesperadas e potencialmente prejudiciais para atingir esse objetivo. O fenômeno, conhecido na literatura como "specification gaming" ou "reward hacking", ocorre quando o sistema descobre maneiras de maximizar sua recompensa que divergem das intenções originais de seus criadores. Parece-nos que esse risco é especialmente relevante em aplicações de alto impacto social, como sistemas de recomendação de conteúdo em plataformas digitais, cujos incentivos de engajamento podem favorecer a disseminação de desinformação.

O Viés Algorítmico e a Não Discriminação

Independentemente da modalidade de aprendizado utilizada, o viés algorítmico constitui uma preocupação transversal de grande relevância jurídica. Sistemas de machine learning aprendem a partir de dados históricos — e dados históricos refletem, necessariamente, as desigualdades, os preconceitos e as injustiças do passado. Um sistema treinado com dados de contratações históricas em uma empresa que sistematicamente subcontratou mulheres aprenderá a penalizar perfis femininos. Um sistema treinado com dados de concessão de crédito de regiões historicamente redituadas aprenderá a favorecer determinados códigos postais.

O art. 5.º, caput e inc. I, da Constituição Federal de 1988 veda a discriminação baseada em gênero, raça, cor e outras características pessoais. A LGPD, em seu art. 11, §1.º, proíbe o tratamento de dados pessoais sensíveis para finalidades discriminatórias ilícitas. O PL 2.338/2023, por sua vez, eleva a não discriminação a princípio fundamental da regulação de sistemas de IA. Cabe ressaltar, entretanto, que a mera proibição normativa é insuficiente se não for acompanhada de obrigações técnicas concretas — como auditorias algorítmicas, testes de equidade (fairness testing) e documentação das escolhas de treinamento —, que permitam identificar e corrigir vieses antes que sistemas discriminatórios causem danos em escala.

Perspectivas para a Regulação Técnica

A harmonização entre as exigências jurídicas de explicabilidade e as limitações técnicas do aprendizado de máquina não supervisionado constitui, como já se afirmou, um dos desafios centrais do direito da IA. Parece-nos que a solução não passa pela proibição indiscriminada de métodos opacos — o que inviabilizaria aplicações genuinamente benéficas —, mas pela graduação das exigências de transparência conforme o nível de risco e o impacto potencial sobre direitos fundamentais. Essa é, precisamente, a lógica adotada pelo AI Act europeu e pela qual o PL 2.338/2023 brasileiro também se orienta: quanto maior o risco, mais rigorosas as exigências de documentação, auditoria e supervisão humana.

Machine LearningAprendizado de MáquinaAlgoritmosTreinamento

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.