A vantagem da auto-organização traz, por outro lado, riscos e problemáticas. Esse é um ponto nuclear do aprendizado de máquina não supervisionado: o processo não permite que os programadores saibam exatamente por que o algoritmo tomou uma determinada decisão, já que o algoritmo desenvolve suas próprias regras e critérios com base nos dados fornecidos. Essa característica é conhecida como “caixa-preta” (black box) – um elemento de suma relevância para este trabalho –, porque o funcionamento interno do algoritmo se torna opaco e de difícil entendimento para os humanos. São modelos que envolvem cálculos complexos e muitas interações entre os dados, utilizando algoritmos de alta complexidade107, que tornam quase impossível rastrear a lógica por trás de uma decisão ou previsão específica. Sobre esse ponto, o que deve ser guardado é que o conceito de caixa-preta faz emergir a noção de independência nas aplicações de IA, já que o algoritmo opera de forma autônoma e distante de seu criador ou programador, tomando decisões baseadas em padrões complexos que ele mesmo identifica108. Assim, enquanto os sistemas supervisionados contam com uma espécie de “tutor” que os guia, os não-supervisionados baseiam-se em seus algoritmos para descobrir por si mesmos padrões ou similaridades nos dados. Além disso, ambos os métodos podem ser conciliados para otimizar o aprendizado109, caracterizando o aprendizado semissupervisionado (semi-supervised learning), que combina, durante o treinamento, uma pequena quantidade de dados rotulados – relacionados ao aprendizado supervisionado – com uma grande quantidade de dados não rotulados – relacionados ao aprendizado não-supervisionado. Esse método é bastante útil nos casos em que a rotulação completa dos dados é impraticável ou muito cara110. 107 Como Support Vector Machines (SVMs) e Random Forests. 108 Um exemplo concreto de autonomia da máquina encontra-se em alguns dos sistemas de inteligência artificial para detectar a COVID-19, os quais analisam radiografias de pulmão e cuja previsão é baseada em “negativo” ou “positivo”, sendo impossível determinar o “porquê”; ou seja, entender por que o sistema chegou a um resultado e não a outro. Para expandir o tema, veja-se Juan Corvalán, Perfiles Digitales Humanos. Proteger Datos en la Era de la Inteligencia Artificial. Retos y Desafíos del Tratamiento Automatizado, pp. 33-40 (Buenos Aires: Thomson Reuters, 2020); Também, Gustavo Corvalán, Cecília Danesi e María Carro, Responsabilidad Civil de la Inteligencia Artificial, p. 321 (in: Corvalán, Tratado de Inteligencia Artificial y Derecho, Buenos Aires: La Ley, 2023, t. II). 109 Corvalán, Dávila e Simari, 2023, pp. 49; 56. 110 É o caso, por exemplo, do uso de machine learning no reconhecimento de imagens, quando apenas algumas imagens devem ou podem ser rotuladas.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".