sistema de IA, que utilizava redes neurais profundas para processar os dados de sensores, câmeras e tecnologia LIDAR, apresentou limitações na detecção e classificação de objetos. A pedestre foi identificada, mas erroneamente categorizada como um “objeto transitório”, o que impediu que o sistema priorizasse a frenagem. Essa falha pode ser atribuída a dados de treinamento equivocados ou insuficientemente variados, que não incluíram cenários diferenciados ou complexos. Por sua vez, a IA preditiva do sistema, responsável por antecipar os movimentos dos objetos detectados, também falhou ao não prever corretamente que a pedestre avançaria na via. Essa deficiência indica que o algoritmo não foi capaz de integrar variáveis relevantes, como a velocidade do objeto ou o ambiente dinâmico. Ademais, o acidente também pode estar relacionado a lacunas na fase de validação e testes do sistema. Talvez a utilização da técnica de aprendizado contínuo, para adaptar o sistema a novas condições, poderia ter mitigado essas falhas. Embora o caso da Uber tenha ocorrido há mais de seis anos desta pesquisa, ele continua a influenciar discussões regulatórias sobre veículos autônomos. O incidente, um entre tantos outros149, serve como um bom paradigma por se tratar do primeiro caso fatal envolvendo um veículo totalmente autônomo150 em vias públicas – tendo levantado debates sobre a 149 Outro caso amplamente divulgado envolveu o veículo Tesla Model S 2019, ocorrido em 17 de abril de 2021, em Houston, EUA, que resultou em duas vítimas fatais após a colisão do automóvel contra uma árvore, seguida de uma explosão. As investigações preliminares indicaram que nenhuma pessoa estava ao volante no momento do acidente, levantando dúvidas sobre o uso do sistema Autopilot.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".