Voltar ao Blog
Inteligência ArtificialCapítulo 1

1.4. A IA na Prática: Aplicações, Problemas e Desafios: Visão Comparada

se conheçam os princípios gerais que os regem, como o ajuste de pesos nas conexões neuronais, é difícil rastrear ou explicar com precisão por que uma resposta específica foi gerada. Como visto...

Alessandro Lavorante 26 de junho de 2024 2 min de leitura

se conheçam os princípios gerais que os regem, como o ajuste de pesos nas conexões neuronais, é difícil rastrear ou explicar com precisão por que uma resposta específica foi gerada. Como visto acima, essa opacidade pode ser ainda agravada pelo uso da técnica de aprendizado não supervisionado, no qual o modelo analisa grandes quantidades de texto sem categorização ou validação explícita, aprendendo apenas padrões linguísticos e contextuais, sem compreender a veracidade ou confiabilidade das informações162. Como observa Corvalán, não se tem clareza sobre como o sistema chega um resultado desse tipo, por se tratar de um típico exemplo de caixa-preta. O professor ainda pontua que o ChatGPT não possui um filtro automático ou um alerta subsequente que informe quando uma criação artificial é simulada e não corresponde a dados ou informações reais. E que, “dada a lógica de funcionamento desses sistemas, não se vislumbram soluções concretas para essa problemática no curto prazo”163. Decolar.com e os Algoritmos Enviesados para Discriminação de Preços (2018) Em 2018, a empresa Decolar.com enfrentou sanções no Brasil devido à prática de “geo-pricing” e “geo-blocking”, que resultaram em discriminação de preços com base na localização geográfica dos consumidores. Geo-pricing refere-se à diferenciação de preços para o mesmo serviço ou produto conforme a localização do usuário. No caso da Decolar.com, verificou-se que consumidores brasileiros pagavam até 30% a mais por acomodações idênticas em comparação a consumidores de outros países, como Argentina, Es162 Uma curiosidade: ao ser questionado sobre o caso do Prof. Turley, o ChatGPT se recusa a escrever qualquer coisa. Isso ocorre por um processo de supervisão humana, seja para tentar reparar e preservar os nomes envolvidos nos escândalos, seja para preservar a OpenAI de maiores exposições. Isso pode ser feito através de um treinamento técnico reforçado por Reinforcement Learning from Human Feedback (RLHF), método em que treinadores humanos avaliam as respostas da IA, eliminando ou ajustando aquelas que contenham informações imprecisas. Outro método que pode ser utilizado no treinamento é o princípio da harm reduction (redução de danos), priorizando a prevenção de desinformação ou conteúdos prejudiciais. A notícia está disponível em: https://tecnoblog.net/noticias/chatgpt-se-recusa-a-escrevernomes-bem-especificos/ Acesso em: dez. 2024. 163 Corvalán, Juan. ¿Qué Trae de Nuevo la IA Generativa? In: Corvalán, Juan (Coord.). Tratado de Inteligencia Artificial y Derecho, Buenos Aires: La Ley. 2023a, t. I., p. 280.

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco