As dimensões contemporâneas da inteligência artificial aplicada transcendem, em muito, os casos individuais de falhas técnicas examinados ao longo desta seção. O que esses casos revelam, em conjunto, é a emergência de um conjunto de desafios estruturais que permeiam praticamente todas as aplicações relevantes da IA na sociedade contemporânea — desafios que tocam diretamente questões de direitos fundamentais, ética aplicada, equidade social e governança democrática.
A compreensão dessas dimensões mais amplas é indispensável para qualquer análise jurídica que pretenda ser não apenas tecnicamente correta, mas socialmente relevante. O direito da IA não pode se limitar a resolver disputas ex post facto; ele deve também contribuir para a configuração de um ambiente tecnológico que respeite a dignidade humana e promova o bem-estar coletivo.
Viés Algorítmico e Discriminação Estrutural
Uma das dimensões mais preocupantes da IA contemporânea é o fenômeno do viés algorítmico — a tendência de sistemas de IA a reproduzir, e frequentemente ampliar, as desigualdades e discriminações presentes nos dados históricos com os quais foram treinados. O problema não decorre, em geral, de intenção discriminatória dos desenvolvedores, mas de uma limitação estrutural dos sistemas de aprendizado de máquina: eles aprendem padrões a partir de dados, e se os dados refletem uma realidade historicamente desigual, os modelos reproduzirão essa desigualdade.
Casos emblemáticos incluem o sistema COMPAS, utilizado por tribunais americanos para estimar o risco de reincidência criminal, que demonstrou sistematicamente superestimar o risco de reincidência de réus negros em comparação com réus brancos, conforme investigação do ProPublica publicada em 2016. Outro caso relevante é o sistema de triagem de currículos desenvolvido internamente pela Amazon, desativado em 2018 após se constatar que o modelo penalizava candidatas do sexo feminino, por ter sido treinado com dados históricos de contratação que refletiam a sub-representação de mulheres nas posições técnicas da empresa.
No Brasil, o princípio da não discriminação está consagrado no artigo 5º, inciso I, da Constituição Federal, e é reafirmado pela LGPD em seu artigo 6º, inciso IX, que inclui a não discriminação entre os princípios que devem orientar o tratamento de dados pessoais. O PL 2338/23 avança nessa direção ao prever, em seu artigo 7º, a proibição de sistemas de IA que produzam discriminação ilegal com base em características protegidas, como raça, gênero, origem nacional e condição socioeconômica.
IA e Direitos Fundamentais: Tensões e Equilíbrios
A introdução de sistemas de IA em contextos de exercício de poder — seja pelo Estado, seja por grandes empresas privadas — cria tensões diretas com direitos fundamentais cuja proteção o ordenamento jurídico brasileiro assume como compromisso constitucional. Essas tensões se manifestam em diversas dimensões.
A privacidade e a proteção de dados pessoais são afetadas pela voracidade informacional dos sistemas de IA: os grandes modelos de linguagem foram treinados com vastas quantidades de dados coletados da internet, frequentemente sem o consentimento explícito dos titulares. A compatibilidade desse processo de treinamento com a LGPD e com o RGPD europeu é objeto de intenso debate jurídico, com investigações em curso em diversas autoridades de proteção de dados.
A liberdade de expressão e o pluralismo informativo são afetados pelos sistemas de recomendação algorítmica que determinam quais conteúdos são exibidos a cada usuário nas plataformas digitais. Esses sistemas, otimizados para maximizar o engajamento, tendem a criar câmaras de eco e a favorecer conteúdos extremos e polarizadores — com consequências documentadas para a qualidade do debate democrático. O AI Act europeu aborda esse problema ao classificar os sistemas de recomendação das grandes plataformas como sistemas de alto risco.
O devido processo legal e o acesso à justiça são afetados pelo uso crescente de sistemas de IA no âmbito do Poder Judiciário — para análise de documentos, triagem de processos, apoio à decisão judicial e, em alguns casos, elaboração de minutas de sentenças. O uso dessas ferramentas, sem transparência adequada e sem mecanismos de controle, pode comprometer o direito das partes a uma decisão fundamentada e a um processo justo.
A Dimensão Ética da IA Aplicada
Além das dimensões estritamente jurídicas, os casos e desafios examinados ao longo desta seção levantam questões éticas que o direito não pode ignorar. A distinção entre o juridicamente permitido e o eticamente aceitável é, em qualquer campo, uma distinção relevante — mas no campo da IA, onde as normas jurídicas ainda estão em formação, essa distinção adquire importância especial.
Parece-nos que a ética da IA aplicada se organiza em torno de alguns princípios fundamentais que têm sido progressivamente reconhecidos tanto pela doutrina quanto pelos instrumentos normativos emergentes. O princípio da beneficência — segundo o qual os sistemas de IA devem ser projetados para beneficiar as pessoas e a sociedade — é complementado pelo princípio da não maleficência — a obrigação de evitar danos previsíveis. O princípio da autonomia — que exige que as pessoas mantenham controle sobre as decisões que as afetam — é reforçado pelo princípio da justiça — que impõe a distribuição equitativa dos benefícios e riscos da IA.
A UNESCO, em sua Recomendação sobre a Ética da IA (2021), sistematiza esses princípios e acrescenta dimensões relevantes como a sustentabilidade ambiental — os grandes modelos de IA têm pegada de carbono significativa — e a proteção da diversidade cultural. Esses princípios não são meras aspirações filosóficas: eles informam diretamente as opções legislativas e regulatórias que os Estados devem fazer ao construir seus marcos normativos para a IA.
Síntese: O Que os Casos nos Ensinaram
A percurso analítico desenvolvido ao longo desta seção — dos conceitos fundamentais aos casos concretos, dos fundamentos jurídicos às considerações críticas, do panorama regulatório às reflexões e propostas — permite formular algumas conclusões provisórias, com a cautela que a dinâmica do campo impõe.
Verificou-se, em primeiro lugar, que as falhas dos sistemas de IA não são acidentais nem inevitáveis: elas resultam, em larga medida, de escolhas de design, de decisões de implantação e de omissões de supervisão que são imputáveis a agentes humanos identificáveis. Isso é relevante para o direito, porque significa que a responsabilização é não apenas possível, mas necessária como instrumento de incentivo a práticas mais seguras e responsáveis.
Constatou-se, em segundo lugar, que os instrumentos jurídicos existentes — embora úteis — não são suficientes para responder de forma plena aos desafios colocados pelos sistemas autônomos. A construção de um regime específico, que distribua responsabilidades de forma proporcional ao controle e ao benefício de cada agente na cadeia de IA, é uma necessidade jurídica que os casos examinados tornam inequívoca.
Identificou-se, em terceiro lugar, que a regulação efetiva da IA exige não apenas normas jurídicas adequadas, mas também capacidade institucional para implementá-las — incluindo órgãos reguladores com competência técnica, mecanismos de auditoria independente e processos de participação pública que permitam às comunidades afetadas influenciar as decisões sobre o desenvolvimento e a implantação de sistemas que as impactam diretamente.
O direito da inteligência artificial está em formação. Os casos, os princípios e as propostas apresentados nesta seção não esgotam a complexidade do tema — mas pretendem contribuir para que esse processo de formação seja guiado por rigor analítico, sensibilidade aos valores em jogo e compromisso genuíno com a proteção da dignidade humana diante das transformações tecnológicas do nosso tempo.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".