A opacidade de muitos sistemas de inteligência artificial — especialmente aqueles baseados em redes neurais profundas — representa um desafio fundamental para o direito. Quando um sistema de IA toma ou auxilia decisões que afetam direitos das pessoas, a impossibilidade de explicar o raciocínio subjacente cria tensão com princípios jurídicos essenciais como o devido processo, a ampla defesa e a motivação das decisões.
Transparência vs. Explicabilidade
Transparência e explicabilidade são conceitos relacionados, mas distintos. A transparência refere-se à abertura sobre o uso de sistemas de IA — informar que uma decisão envolve processamento algorítmico, quais dados são utilizados e quais são os objetivos do sistema. A explicabilidade vai além, exigindo que o processo decisório do algoritmo possa ser compreendido por humanos, em nível suficiente para avaliar sua correção e contestá-lo.
Base Legal no Direito Brasileiro
A LGPD (art. 20, §1º) estabelece que o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada. Esse dispositivo constitui o principal fundamento legal para a explicabilidade algorítmica no Brasil.
O desafio está em definir o nível de explicação adequado. Uma explicação técnica completa do funcionamento de uma rede neural pode ser incompreensível para o titular. Uma explicação excessivamente simplificada pode não satisfazer o propósito legal. O equilíbrio está em explicações que permitam ao titular compreender os fatores que influenciaram a decisão e os caminhos para contestá-la.
Técnicas de Explicabilidade (XAI)
O campo de Explainable AI (XAI) tem desenvolvido técnicas que buscam tornar sistemas complexos mais interpretáveis: modelos interpretáveis por design (árvores de decisão, regressão logística); técnicas de explicação post-hoc para modelos opacos (LIME, SHAP); explicações contrafactuais ("a decisão seria diferente se..."); e dashboards de transparência que apresentam fatores relevantes.
Obrigações Regulatórias Emergentes
O PL 2338/2023 de regulação da IA no Brasil contempla obrigações de transparência que incluem: informar quando uma interação envolve sistema de IA; rotulagem de conteúdo gerado por IA; e documentação técnica de sistemas de alto risco.
Limites da Transparência
A transparência total pode conflitar com outros interesses legítimos: segredo comercial e industrial; prevenção de gaming (manipulação do sistema por quem conhece seus critérios); e segurança do sistema (vulnerabilidades reveladas pela transparência). O equilíbrio entre transparência e esses interesses deve ser definido caso a caso, podendo envolver mecanismos como divulgação a reguladores sob sigilo.
Recomendações Práticas
Organizações que utilizam IA em decisões que afetam pessoas devem: documentar os critérios e processos decisórios; implementar mecanismos de explicação proporcional ao impacto da decisão; treinar equipes de atendimento para comunicar explicações; e manter registros que permitam auditoria posterior. A explicabilidade não é apenas obrigação legal — é requisito de confiança e legitimidade.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".