Voltar ao Blog
Ética e IAPrática Jurídica

Vieses Algorítmicos e Discriminação

Análise jurídica dos vieses em sistemas de inteligência artificial. Como vieses algorítmicos geram discriminação e quais as respostas do direito brasileiro.

Alessandro Lavorante 14 de janeiro de 2026 3 min de leitura

Sistemas de inteligência artificial podem reproduzir e amplificar padrões de discriminação presentes nos dados utilizados para seu treinamento. Vieses algorítmicos não são falhas técnicas acidentais — são reflexos de desigualdades estruturais que, quando incorporadas em sistemas automatizados, ganham escala e aparência de objetividade.

Origens dos Vieses

Os vieses em sistemas de IA podem ter múltiplas origens: vieses nos dados de treinamento, que refletem desigualdades históricas; vieses de seleção, quando os dados não são representativos da população afetada; vieses de design, decorrentes de escolhas feitas pelos desenvolvedores sobre variáveis e objetivos; e vieses de interação, que emergem da forma como os usuários utilizam o sistema.

Manifestações Práticas

Vieses algorítmicos têm sido documentados em diversos contextos: sistemas de scoring de crédito que penalizam determinados grupos demográficos; ferramentas de recrutamento que desfavorecem candidatos por gênero ou raça; sistemas de reconhecimento facial com taxas de erro desproporcionais para certas etnias; e algoritmos de precificação que praticam discriminação geográfica ou demográfica.

Arcabouço Jurídico Brasileiro

A Constituição Federal (art. 3º, IV) proíbe discriminação de qualquer natureza. O Código Civil prevê a responsabilidade por danos causados por ato ilícito. A LGPD proíbe o tratamento de dados para fins discriminatórios (art. 6º, IX) e garante o direito à revisão de decisões automatizadas (art. 20). O Código de Defesa do Consumidor proíbe práticas abusivas.

Esse conjunto normativo, embora não tenha sido concebido especificamente para IA, oferece base jurídica para responsabilização por discriminação algorítmica.

Responsabilidade por Discriminação Algorítmica

A responsabilização por discriminação algorítmica pode seguir diferentes caminhos jurídicos: responsabilidade civil objetiva, quando o sistema de IA é considerado atividade de risco; responsabilidade civil subjetiva, quando se comprova negligência no desenvolvimento ou monitoramento; responsabilidade administrativa, perante órgãos como a ANPD, o CADE ou o Ministério Público; e responsabilidade penal, em casos de discriminação intencional.

O ônus da prova é questão central: demonstrar que um algoritmo discrimina pode exigir acesso ao código-fonte, dados de treinamento e metodologia — informações que frequentemente estão sob controle exclusivo do desenvolvedor. A inversão do ônus da prova, prevista no CDC, pode ser aplicável em relações de consumo.

Mitigação

Medidas de mitigação incluem: auditorias regulares de viés nos datasets e nos resultados; testes de equidade com métricas definidas (demographic parity, equalized odds); diversidade nas equipes de desenvolvimento; revisão humana de decisões de alto impacto; e canais de contestação acessíveis aos afetados.

A prevenção da discriminação algorítmica é responsabilidade compartilhada entre desenvolvedores, organizações que implantam sistemas de IA e reguladores — cada um exercendo seu papel para assegurar que a tecnologia não perpetue injustiças.

Vieses AlgorítmicosDiscriminaçãoIAEquidade

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco