O aprendizado autossupervisionado (self-supervised learning) representa uma abordagem de crescente relevância no campo do machine learning: ao contrário do aprendizado supervisionado clássico, que depende de rótulos atribuídos por humanos, o modelo autossupervisionado cria automaticamente tarefas de aprendizado a partir dos próprios dados não rotulados, eliminando a necessidade de anotação manual. Essa técnica encontra suas aplicações mais notáveis no processamento de linguagem natural — onde modelos como o GPT e o BERT foram pré-treinados de forma autossupervisionada em vastos corpora textuais — e na visão computacional, para tarefas de reconhecimento e segmentação de objetos.
Ainda dentro das tipologias de aprendizado, o aprendizado por reforço merece atenção particular por sua lógica de tentativa e erro: um agente computacional interage com um ambiente, aprende com as consequências de suas ações e ajusta continuamente sua política de comportamento para maximizar recompensas acumuladas. Esse método está na base de alguns dos avanços mais expressivos da IA contemporânea — dos jogos de estratégia como xadrez e Go aos rápidos progressos dos modelos de linguagem de larga escala.
Redes Neurais Artificiais: A Arquitetura Central da IA Moderna
As redes neurais artificiais (artificial neural networks, ANNs) constituem a arquitetura computacional que sustenta a grande maioria dos sistemas de IA de alto desempenho atualmente em operação. O nome evoca deliberadamente a estrutura dos cérebros biológicos, que processam informações por meio de neurônios interconectados por sinapses, dendritos e axônios. Cabe ressaltar, desde logo, que essa analogia é funcional e não ontológica: as redes neurais artificiais não replicam o funcionamento do sistema nervoso humano, mas se inspiram em certos princípios organizacionais da cognição biológica para construir sistemas computacionais capazes de aprender a partir de dados.
Uma rede neural artificial pode ser compreendida, em termos simplificados, como um sistema de algoritmos interconectados organizado em camadas. A camada de entrada recebe os dados brutos; as camadas ocultas processam e transformam esses dados por meio de operações matemáticas; e a camada de saída produz o resultado — uma classificação, uma previsão, uma geração de texto ou imagem. Cada conexão entre unidades de processamento ("neurônios artificiais") possui um peso numérico que é ajustado iterativamente durante o treinamento, por meio de um processo chamado retropropagação (backpropagation), de modo a minimizar o erro entre as saídas do sistema e os resultados esperados.
O aprendizado nas ANNs é armazenado, portanto, não em regras explícitas, mas nos valores dessas conexões ponderadas — bilhões delas, nos modelos mais avançados. É exatamente aí que reside o paradoxo técnico-jurídico central: o "conhecimento" do sistema existe, mas não é interpretável de forma direta por seres humanos. Como escreveu Simon Haykin em Neural Networks: A Comprehensive Foundation (Prentice Hall, 1999), obra de referência na área, as redes neurais aprimoram seu desempenho ao analisar dados e identificar padrões, mas o resultado desse processo é uma representação interna que resiste à interpretação linear e transparente.
Aprendizado Profundo: Profundidade como Poder e Risco
O aprendizado profundo (deep learning) constitui uma subcategoria das redes neurais artificiais caracterizada pelo uso de arquiteturas com múltiplas camadas ocultas — às vezes dezenas ou centenas delas. A "profundidade" da rede refere-se precisamente a esse empilhamento de camadas de processamento, que permite ao sistema aprender representações hierárquicas dos dados: camadas iniciais capturam características de baixo nível (bordas em imagens, fonemas em áudio), enquanto camadas mais profundas integram essas características em representações de nível crescentemente abstrato (rostos, palavras, conceitos).
Essa capacidade de aprender representações hierárquicas e abstratas é o que confere ao aprendizado profundo seu extraordinário desempenho em tarefas como reconhecimento de imagens, tradução automática, síntese de voz e geração de texto. A UNESCO, em seu relatório Inteligência Artificial, promessas e ameaças (Paris, 2018), reconhece explicitamente que as redes de aprendizado profundo trouxeram avanços sem precedentes em múltiplos domínios, ao mesmo tempo em que identificou riscos significativos associados à opacidade desses sistemas.
A Distinção entre ANNs e Aprendizado Profundo
Cabe precisar que nem toda rede neural artificial é considerada aprendizado profundo. Redes com poucas camadas ocultas — ou mesmo uma única camada — são classificadas como redes neurais "rasas" (shallow networks) e se enquadram em uma categoria distinta, geralmente mais interpretável e adequada para tarefas de menor complexidade. O aprendizado profundo reserva-se para arquiteturas com alta profundidade, treinadas em grandes volumes de dados e com elevado poder computacional.
Essa distinção tem relevância jurídica: sistemas mais rasos tendem a ser mais transparentes e auditáveis, enquanto os sistemas profundos apresentam o maior grau de opacidade. No contexto regulatório do AI Act europeu, os sistemas que utilizam aprendizado profundo em aplicações de alto risco — triagem de crédito, recrutamento, decisões judiciais auxiliadas por IA, infraestrutura crítica — estão sujeitos às exigências mais rigorosas de documentação técnica, supervisão humana e explicabilidade. O PL 2.338/2023, no Brasil, segue orientação semelhante ao estabelecer que sistemas de IA de alto risco devem ser passíveis de revisão e contestação por pessoas afetadas por suas decisões.
A Questão da Explicabilidade
Parece-nos que a questão da explicabilidade constitui o ponto de convergência entre a arquitetura técnica das redes neurais e as exigências normativas do direito. Explicabilidade, no contexto da IA, refere-se à capacidade de descrever, de forma compreensível para seres humanos, os fatores que levaram o sistema a produzir determinada saída. Em redes neurais profundas, essa capacidade é intrinsecamente limitada pela complexidade das transformações realizadas nas camadas ocultas — daí a denominação "caixa-preta".
Diversas técnicas de inteligência artificial explicável (XAI, Explainable AI) têm sido desenvolvidas para mitigar esse problema: LIME (Local Interpretable Model-agnostic Explanations), SHAP (Shapley Additive Explanations) e métodos de atenção (attention mechanisms) são exemplos de abordagens que buscam aproximar a explicabilidade de sistemas profundos. Entretanto, cabe ressaltar que essas técnicas oferecem aproximações e interpretações parciais — não uma compreensão completa e auditável do funcionamento interno da rede. Isso significa que, no estado atual da arte, as exigências jurídicas de plena explicabilidade para sistemas de aprendizado profundo de alta complexidade só podem ser satisfeitas de forma incompleta.
Relevância para o Direito
A compreensão das redes neurais artificiais e do aprendizado profundo é, portanto, indispensável para o jurista que atua no campo da IA. Não se trata de exigir do advogado ou do magistrado o domínio técnico de um engenheiro de sistemas — mas de compreender, em nível suficiente, por que determinados sistemas são estruturalmente opacos, o que isso implica para a responsabilidade civil e penal, e quais garantias regulatórias são necessárias para proteger direitos fundamentais em um ambiente tecnológico de crescente sofisticação e autonomia.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".