Voltar ao Blog
Inteligência ArtificialCapítulo 1

1.4. A IA na Prática: Aplicações, Problemas e Desafios: Conceitos Fundamentais

variáveis como demanda, comportamento do consumidor e condições de mercado. Sem supervisão humana adequada, os algoritmos podem tomar decisões que favorecem certos grupos em detrimento de outros....

Alessandro Lavorante 1 de julho de 2024 3 min de leitura

variáveis como demanda, comportamento do consumidor e condições de mercado. Sem supervisão humana adequada, os algoritmos podem tomar decisões que favorecem certos grupos em detrimento de outros. Por exemplo, consumidores de países desenvolvidos podem ter recebido preços mais baixos para os mesmos serviços do que consumidores de países emergentes, como o Brasil, devido a análises enviesadas da elasticidade de preços nos diferentes mercados167. GitHub, Microsoft e Open IA e a Suposta Violação de Propriedade Intelectual para Treinamento de IA (2022) Em novembro de 2022, foi ajuizada uma ação na Corte Distrital do Norte da Califórnia, EUA, por desenvolvedores representados pelo advogado e escritor Matthew Butterick, em conjunto com o escritório Joseph Saveri Law Firm, contra GitHub, Microsoft e OpenAI. A demanda alega violações às licenças de software livre e práticas de propriedade intelectual, 167 Outro exemplo significativo de viés algorítmico, amplamente relatado pela literatura especializada por ter se tornado emblemático, foi o caso do sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) nos Estados Unidos, utilizado para avaliar o risco de reincidência criminal. Em 2016, a organização ProPublica revelou que o algoritmo apresentava vieses raciais, atribuindo pontuações de risco mais altas a réus negros em comparação com réus brancos em situações semelhantes. Embora técnicos tenham tentado redesenhá-lo para torná-lo mais justo, o treinamento com dados históricos enviesados tornou impossível eliminar completamente o problema sem comprometer a precisão dos resultados. Essa falha tem influenciado decisões de juízes e jurados, reforçando disparidades no sistema de justiça. Além disso, outro algoritmo usado para prever áreas de maior criminalidade associava delitos a bairros habitados majoritariamente por populações economicamente vulneráveis ou não anglo-saxãs. Disponível em: https://www.propublica.org/article/how-we-analyzed-thecompas-recidivism-algorithm?utm_source=chatgpt.com. Acesso em: março 2024. Veja-se discussão sobre o COMPAS em Maybin, Simone, Sistema de algoritmo que determina pena de condenados cria polêmica nos EUA. Artigo de 31 out. 2016 para a BBC News. Disponível em: https://www.bbc.com/portuguese/brasil-37677421. Acesso em: dezembro 2024.

Em 2019, em outro caso que passou a ser considerado discriminação de gênero, usuários denunciaram no Twitter (hoje “X”) que o Apple Card (em parceria com o Goldman Sachs) aprovava limites de crédito substancialmente mais altos para homens do que para mulheres, mesmo quando os dados financeiros eram semelhantes ou até piores. O caso ganhou repercussão quando o empresário David Heinemeier Hansson relatou receber um limite até 20 vezes maior que o da esposa. Há indícios de que o algoritmo de crédito apresentava uma discriminação de gênero, pois analisava informações que, indireta ou diretamente, resultavam em pontuações diferentes para homens e mulheres. Disponível em: https://www.bbc.com/ news/business-50365609 Acesso em: Março 2024.

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco