Sistemas de inteligência artificial podem reproduzir e amplificar padrões de discriminação presentes nos dados utilizados para seu treinamento. Vieses algorítmicos não são falhas técnicas acidentais — são reflexos de desigualdades estruturais que, quando incorporadas em sistemas automatizados, ganham escala e aparência de objetividade.
Origens dos Vieses
Os vieses em sistemas de IA podem ter múltiplas origens: vieses nos dados de treinamento, que refletem desigualdades históricas; vieses de seleção, quando os dados não são representativos da população afetada; vieses de design, decorrentes de escolhas feitas pelos desenvolvedores sobre variáveis e objetivos; e vieses de interação, que emergem da forma como os usuários utilizam o sistema.
Manifestações Práticas
Vieses algorítmicos têm sido documentados em diversos contextos: sistemas de scoring de crédito que penalizam determinados grupos demográficos; ferramentas de recrutamento que desfavorecem candidatos por gênero ou raça; sistemas de reconhecimento facial com taxas de erro desproporcionais para certas etnias; e algoritmos de precificação que praticam discriminação geográfica ou demográfica.
Arcabouço Jurídico Brasileiro
A Constituição Federal (art. 3º, IV) proíbe discriminação de qualquer natureza. O Código Civil prevê a responsabilidade por danos causados por ato ilícito. A LGPD proíbe o tratamento de dados para fins discriminatórios (art. 6º, IX) e garante o direito à revisão de decisões automatizadas (art. 20). O Código de Defesa do Consumidor proíbe práticas abusivas.
Esse conjunto normativo, embora não tenha sido concebido especificamente para IA, oferece base jurídica para responsabilização por discriminação algorítmica.
Responsabilidade por Discriminação Algorítmica
A responsabilização por discriminação algorítmica pode seguir diferentes caminhos jurídicos: responsabilidade civil objetiva, quando o sistema de IA é considerado atividade de risco; responsabilidade civil subjetiva, quando se comprova negligência no desenvolvimento ou monitoramento; responsabilidade administrativa, perante órgãos como a ANPD, o CADE ou o Ministério Público; e responsabilidade penal, em casos de discriminação intencional.
O ônus da prova é questão central: demonstrar que um algoritmo discrimina pode exigir acesso ao código-fonte, dados de treinamento e metodologia — informações que frequentemente estão sob controle exclusivo do desenvolvedor. A inversão do ônus da prova, prevista no CDC, pode ser aplicável em relações de consumo.
Mitigação
Medidas de mitigação incluem: auditorias regulares de viés nos datasets e nos resultados; testes de equidade com métricas definidas (demographic parity, equalized odds); diversidade nas equipes de desenvolvimento; revisão humana de decisões de alto impacto; e canais de contestação acessíveis aos afetados.
A prevenção da discriminação algorítmica é responsabilidade compartilhada entre desenvolvedores, organizações que implantam sistemas de IA e reguladores — cada um exercendo seu papel para assegurar que a tecnologia não perpetue injustiças.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".