Opacidade Algorítmica: Do Princípio ao Caso Concreto
A chamada "opacidade algorítmica" — a dificuldade estrutural de rastrear e explicar os processos decisórios internos de sistemas de inteligência artificial — não é apenas um desafio teórico para a ciência da computação. Ela se manifesta, de forma concreta e muitas vezes danosa, em situações cotidianas que afetam consumidores, trabalhadores e cidadãos em geral. Quando um algoritmo de precificação cobra valores distintos de clientes diferentes pelo mesmo serviço, com base em variáveis que o próprio sistema não consegue explicar, a opacidade deixa de ser um problema técnico e se torna uma questão jurídica e ética de primeira ordem.
A visão comparada sobre esse tema revela que diferentes sistemas jurídicos têm respondido de formas diversas — e com diferentes graus de eficácia — a esse fenômeno. Uma análise dos casos mais emblemáticos, à luz dos marcos normativos aplicáveis, permite identificar pontos de convergência e divergência que são essenciais para a construção de um direito da IA verdadeiramente adequado à complexidade do problema.
O Caso Decolar.com: Geo-Pricing e Discriminação Algorítmica
Em 2018, a empresa Decolar.com enfrentou sanções no Brasil por práticas de "geo-pricing" e "geo-blocking" que resultaram em discriminação de preços com base na localização geográfica dos consumidores. A investigação conduzida pelo Departamento de Proteção e Defesa do Consumidor (DPDC) do Ministério da Justiça revelou que consumidores brasileiros pagavam até 30% a mais por acomodações idênticas em comparação com consumidores de outros países, como Argentina, Estados Unidos e Espanha.
O geo-pricing, nesse contexto, refere-se à diferenciação de preços para o mesmo produto ou serviço conforme a localização geográfica do usuário. O geo-blocking, por sua vez, envolve o bloqueio ou a restrição de certas ofertas com base na origem do consumidor: determinadas promoções simplesmente não apareciam para usuários brasileiros, enquanto estavam disponíveis para consumidores de outras nacionalidades. As práticas foram consideradas abusivas e discriminatórias, resultando em multa de R$ 7,5 milhões à empresa. O Ministério Público do Rio de Janeiro ajuizou, adicionalmente, ação civil pública contra a Decolar.com, acusando-a de manipular preços para discriminar consumidores brasileiros.
Cabe ressaltar que o caso não envolveu uma decisão humana deliberada de cobrar mais caro de brasileiros. O sistema utilizado pela plataforma empregava algoritmos de precificação dinâmica baseados em técnicas de machine learning e perfilização (profiling), que ajustavam preços automaticamente a partir de variáveis como dados geográficos, comportamento de navegação e histórico de compras. A discriminação foi, em larga medida, um produto do próprio algoritmo — o que levanta questões fundamentais sobre a responsabilidade da empresa desenvolvedora e operadora do sistema.
Viés nos Dados de Treinamento: A Raiz do Problema
Como se verificou na análise técnica do caso, o principal mecanismo de discriminação estava no uso de dados de treinamento enviesados. Os dados são o insumo fundamental de qualquer sistema de aprendizado de máquina: eles alimentam o processo de decisão algorítmica e, quando refletem desigualdades históricas ou padrões discriminatórios, o algoritmo tende a reproduzir — e frequentemente a amplificar — esses vieses.
No caso da Decolar.com, os dados de treinamento provavelmente incorporavam informações sobre elasticidade de preços por mercado: o sistema havia "aprendido" que consumidores brasileiros, historicamente, aceitavam pagar mais por determinados serviços de viagem — ou que a demanda no mercado brasileiro era menos sensível a variações de preço do que em outros mercados. Com base nesse padrão histórico, o algoritmo passou a cobrar preços sistematicamente mais altos de usuários identificados como brasileiros, sem que qualquer decisor humano precisasse aprovar cada transação individualmente.
Esse mecanismo é particularmente insidioso porque é difícil de detectar e ainda mais difícil de atribuir a um responsável específico. Diferentemente de uma instrução explícita de "cobrar X% a mais de clientes brasileiros", a discriminação algorítmica emerge de um processo estatístico opaco, distribuído ao longo de inúmeras camadas de processamento, sem que exista um "momento" identificável em que a decisão discriminatória foi tomada. Isso dificulta enormemente a prova do dolo ou mesmo da culpa em sentido estrito.
Modelos de Precificação Dinâmica e seus Riscos
Além do viés nos dados de treinamento, o uso de modelos de precificação dinâmica agravou o problema. Esses modelos ajustam preços em tempo real com base em variáveis como demanda, comportamento do consumidor e condições de mercado. Sem supervisão humana adequada, os algoritmos podem tomar decisões que favorecem sistematicamente certos grupos em detrimento de outros. Consumidores de países emergentes podem receber preços mais altos para os mesmos serviços do que consumidores de países desenvolvidos, não por uma política deliberada de preços, mas como resultado de análises enviesadas da elasticidade de preços em diferentes mercados.
O problema da precificação dinâmica não se limita ao contexto do turismo. Casos análogos foram documentados em plataformas de e-commerce, serviços de transporte por aplicativo e até em sistemas de crédito — como o notório caso do Apple Card em 2019, em que o algoritmo aprovava limites de crédito substancialmente mais altos para homens do que para mulheres com perfis financeiros semelhantes, expondo uma discriminação de gênero embutida no processo de análise algorítmica.
Visão Comparada: Respostas Normativas no Brasil e na Europa
A visão comparada revela que o direito brasileiro e o europeu têm respondido de formas complementares — mas ainda insuficientes — a esse tipo de discriminação algorítmica. No Brasil, o CDC (art. 39, X) proíbe práticas comerciais abusivas, e a LGPD (Lei n. 13.709/2018) estabelece, em seu art. 20, o direito do titular de dados a solicitar revisão de decisões automatizadas. O caso Decolar.com foi tratado primariamente como violação ao CDC, sem que houvesse, à época, uma regulação específica sobre viés algorítmico.
Na Europa, o AI Act (Regulamento UE 2024/1689) avança nessa direção ao classificar como sistemas de alto risco aqueles utilizados em contextos de acesso a serviços essenciais, exigindo avaliações de conformidade, documentação técnica e supervisão humana. Para sistemas de IA classificados como de risco limitado, o regulamento exige, ao menos, transparência sobre a natureza automatizada do processo. O Regulamento Geral sobre Proteção de Dados (RGPD) já previa, desde 2018, o direito à explicação de decisões automatizadas — mas a aplicação efetiva desse direito a sistemas de precificação dinâmica permanece controversa.
No Brasil, o PL n. 2.338/2023 propõe um quadro regulatório para sistemas de IA que inclui a obrigação de avaliação de impacto para sistemas de alto risco e a proibição de certas práticas discriminatórias automatizadas. Contudo, parece-nos que a efetividade dessas normas dependerá, em larga medida, da capacidade das autoridades regulatórias de realizar auditorias técnicas de algoritmos proprietários — uma capacidade que, no estado atual das instituições brasileiras, ainda está em desenvolvimento.
A Questão da Responsabilidade: Empresa, Algoritmo ou Dado?
Diante do exposto, instala-se a questão central da responsabilidade. Quem deve responder pelos danos causados pela discriminação algorítmica de preços: a empresa que desenvolveu o algoritmo, a que o operou, ou ambas? A solução que parece-nos mais consistente com os princípios do CDC e com a teoria da responsabilidade civil é a responsabilidade solidária de desenvolvedores e operadores de sistemas de IA, com inversão do ônus da prova em favor do consumidor lesado — posição que encontra respaldo, ainda que implícito, no regime de responsabilidade objetiva do art. 12 do CDC.
A visão comparada reforça essa conclusão: tanto na Europa quanto nos Estados Unidos, a tendência doutrinária e jurisprudencial é de não permitir que a complexidade técnica do sistema sirva como escudo para a irresponsabilidade de seus criadores e operadores. A opacidade algorítmica não pode ser, simultaneamente, um instrumento de maximização de lucros e uma defesa contra a responsabilização pelos danos que produz.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".