Voltar ao Blog
Inteligência ArtificialCapítulo 1

A IA na Prática: Aplicações, Problemas e Desafios: Aspectos Práticos

O acidente fatal do veículo autônomo Uber em 2018 em Tempe revela falhas técnicas em redes neurais e levanta questões jurídicas cruciais sobre responsabilidade civil em sistemas de IA autônoma.

Alessandro Lavorante 30 de maio de 2024 5 min de leitura

Em 18 de março de 2018, ocorreu um dos episódios mais emblemáticos da história recente dos sistemas autônomos: um veículo da Uber atropelou e matou Elaine Herzberg, mulher de 49 anos que atravessava a rua empurrando sua bicicleta, em Tempe, Arizona, EUA. O acidente ocorreu à noite, em um trecho mal iluminado, enquanto Herzberg atravessava fora da faixa de pedestres. Relatórios posteriores mostraram que havia um operador de segurança no interior do veículo; porém, no momento do acidente, ele assistia a vídeos em seu celular e não percebeu a pedestre a tempo. O veículo colidiu a aproximadamente 64 km/h, sem nenhuma tentativa de frenagem ou desvio.

Trata-se do primeiro caso fatal envolvendo um veículo operando em modo totalmente autônomo em vias públicas, o que lhe confere relevância paradigmática para o debate jurídico e regulatório sobre mobilidade autônoma.

O Sistema Técnico Envolvido

O veículo em questão, um SUV Volvo XC90, estava operando no modo de condução autônoma como parte do programa experimental da Uber. O sistema utilizava uma combinação de sensores, radares, câmeras e tecnologia LIDAR (Light Detection and Ranging) para mapear o ambiente e tomar decisões em tempo real. Em tese, essa arquitetura sensorial deveria ser suficiente para detectar obstáculos e pedestres em qualquer condição de iluminação.

Contudo, investigações subsequentes revelaram falhas críticas no funcionamento do sistema de IA. O software detectou Herzberg atravessando a via com uma bicicleta, mas a classificou erroneamente como um "objeto transitório" — categorização que impediu que o veículo acionasse os sistemas automáticos de frenagem ou transmitisse um alerta para a operadora de segurança presente no carro. Ademais, verificou-se que os sistemas automáticos de frenagem haviam sido intencionalmente desativados pela Uber para evitar comportamento brusco do veículo durante os testes, transferindo a responsabilidade de intervenção para o motorista humano.

Essa decisão de engenharia — desativar mecanismos de segurança para melhorar a experiência de condução durante a fase de testes — constitui um dos elementos mais relevantes para a análise jurídica do caso, pois representa uma escolha deliberada que alterou o perfil de risco da operação.

Diagnóstico das Falhas Técnicas

Do ponto de vista técnico, o sistema de IA que utilizava redes neurais profundas para processar os dados de sensores, câmeras e LIDAR apresentou pelo menos três falhas identificáveis. A primeira foi a falha de classificação: a pedestre foi identificada, mas erroneamente categorizada como um "objeto transitório", impedindo que o sistema priorizasse a frenagem. Essa falha pode ser atribuída a dados de treinamento insuficientemente variados, que não incluíam cenários complexos como pedestres em situações atípicas — empurrando bicicletas, fora da faixa, à noite.

A segunda foi a falha preditiva: a IA responsável por antecipar os movimentos dos objetos detectados não previu corretamente que a pedestre avançaria pela via. Essa deficiência indica que o algoritmo não foi capaz de integrar variáveis relevantes, como a velocidade do objeto e a dinâmica do ambiente ao redor. A terceira foi a falha de validação: os testes realizados antes da implantação em vias públicas não foram suficientes para identificar as limitações do sistema em condições reais. A utilização de técnicas de aprendizado contínuo poderia ter mitigado essas falhas ao adaptar o sistema a novas condições durante a operação.

Responsabilidade em Sistemas Híbridos

O acidente de Tempe levantou questões fundamentais sobre a delimitação de responsabilidade em sistemas híbridos, que combinam automação e supervisão humana. Questionou-se se a Uber, ao desativar as funções automáticas de segurança, havia transferido riscos inaceitáveis para o operador humano presente no veículo — e se o sistema de IA deveria ter sido submetido a padrões de validação mais rigorosos antes de operar em vias públicas.

As investigações e ações judiciais decorrentes do acidente apontaram em direções distintas. A operadora do veículo, Rafaela Vasquez, foi formalmente acusada de homicídio culposo em setembro de 2020, com base na alegação de negligência ao não supervisionar adequadamente o sistema autônomo. A Uber, por sua vez, conseguiu evitar acusações criminais diretas, mas enfrentou responsabilidade civil e reputacional significativa.

Cabe ressaltar que a distinção entre veículo autônomo e semiautônomo é crucial para a atribuição de responsabilidade. Anteriormente, em 2016, já havia ocorrido um acidente fatal envolvendo um Tesla Model S com o sistema Autopilot ativado — o primeiro caso de morte envolvendo um sistema de condução semiautônoma em operação comercial. A diferença crucial entre os dois casos está no nível de automação: no caso da Tesla, o sistema era semiautônomo e dependia da supervisão ativa do motorista; no caso da Uber, o veículo estava em modo totalmente autônomo, monitorado apenas por um operador, o que levantou questões sobre a capacidade dessas tecnologias de lidar com situações imprevistas.

Perspectiva Jurídica Brasileira

No Brasil, um acidente análogo suscitaria discussões no âmbito do Código Civil, do CDC e, potencialmente, do Código de Trânsito Brasileiro (Lei 9.503/97). A responsabilidade objetiva da empresa exploradora da atividade de risco, prevista no artigo 927, parágrafo único, do Código Civil, parece-nos a via mais direta para fundamentar a responsabilização da empresa desenvolvedora.

O PL 2338/23 aborda explicitamente os sistemas de IA de alto risco, entre os quais os veículos autônomos se enquadram com naturalidade, e propõe obrigações reforçadas de transparência, supervisão humana e avaliação de conformidade antes da implantação em ambientes públicos. O AI Act europeu, em seu Anexo III, lista os sistemas de transporte autônomo como sistemas de IA de alto risco, submetendo-os ao regime mais rigoroso do regulamento — incluindo avaliações de conformidade, registro em base de dados europeia e obrigações de monitoramento pós-mercado.

A pergunta que persiste, e que o caso Uber tornou urgente para reguladores de todo o mundo, pode ser formulada com precisão: quando uma empresa decide implantar em vias públicas um sistema de IA ainda em fase experimental, qual deve ser o standard de segurança exigido? A resposta a essa questão determinará, em larga medida, o ritmo do desenvolvimento responsável da mobilidade autônoma nas próximas décadas.

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.