Perspectivas Abertas pelos Casos de IA Autônoma
Os casos de inteligência artificial na prática documentados ao longo deste subcapítulo — do fundo de hedge algorítmico K1 ao veículo autônomo da Uber, do drone militar ao chatbot que difamou um professor universitário — oferecem, em conjunto, uma cartografia dos desafios jurídicos colocados pela IA autônoma ao direito contemporâneo. Mais do que episódios isolados, esses casos evidenciam padrões recorrentes que permitem identificar perspectivas estruturais sobre os rumos da regulação e da responsabilização na era dos sistemas inteligentes.
A diversidade de contextos — mercado financeiro, transporte, defesa nacional, comunicação — é em si reveladora: a IA autônoma não é um fenômeno setorial, mas uma transformação transversal que afeta praticamente todos os domínios da vida social. Isso implica que as respostas jurídicas a seus desafios não podem ser meramente setoriais; exigem uma reflexão sobre princípios gerais que se apliquem de forma coerente às diferentes manifestações do problema.
O Caso K1: Autonomia Algorítmica e Lacunas de Responsabilidade
O episódio envolvendo Samathur Li Kin-kan e o fundo de hedge automatizado K1 revelou como algoritmos de negociação, ainda que projetados para oferecer soluções "revolucionárias" para o mercado financeiro, podem falhar de forma catastrófica na análise das condições de mercado — e como essa falha suscita dúvidas profundas sobre quem deve responder pelos danos causados.
O algoritmo de negociação do K1 foi concebido para operar de forma autônoma, tomando decisões de compra e venda em frações de segundo com base em modelos matemáticos complexos. Quando as condições de mercado divergiram significativamente dos padrões em que o sistema foi treinado, o algoritmo tomou decisões que resultaram em perdas massivas — sem que qualquer ser humano pudesse intervir a tempo. Surge, então, a questão: a responsabilidade deve recair sobre o desenvolvedor do sistema, o gestor que o escolheu e o operou, ou o investidor que confiou em suas promessas?
A perspectiva que parece-nos mais coerente com os princípios do direito civil é a da responsabilidade solidária de desenvolvedores e operadores, modulada pelo grau de controle e de benefício que cada um exerceu e auferiu do sistema. O gestor que disponibilizou o algoritmo como produto de investimento e o desenvolvedor que o criou com conhecimento de seus limites — limites que não foram adequadamente comunicados aos investidores — partilham a responsabilidade pelos danos decorrentes de sua falha.
O Acidente Fatal com o Veículo Autônomo da Uber
Em março de 2018, um veículo autônomo da Uber atropelou e matou Elaine Herzberg em Tempe, Arizona — o primeiro caso documentado de morte causada por um veículo autônomo em via pública. A investigação revelou que o sistema de percepção do veículo havia detectado a pedestre, mas o software classificou-a erroneamente como um objeto estático — e, por razão ainda mais grave, o sistema havia sido reconfigurado pela Uber para desativar o sistema de frenagem de emergência de série do veículo, a fim de evitar paradas bruscas que pudessem comprometer a experiência do passageiro.
A ausência de uma resposta adequada à presença de pedestres e a decisão deliberada de desativar funções de segurança suscitaram questionamentos profundos sobre a responsabilidade jurídica da empresa, do motorista de segurança que estava no veículo no momento do acidente e dos engenheiros que tomaram a decisão de desativar os sistemas de segurança. O Departamento de Justiça dos Estados Unidos chegou a abrir investigação criminal contra a Uber, que foi encerrada mediante acordo em 2019.
Do ponto de vista das perspectivas regulatórias, o caso Uber demonstrou que a simples exigência de um "motorista de segurança" humano a bordo do veículo autônomo é insuficiente como salvaguarda quando o sistema humano-máquina não é projetado para permitir intervenção efetiva em situações de emergência. A motorista de segurança estava olhando para o celular no momento do acidente — comportamento que a Uber, segundo investigação posterior, sabia ser comum entre seus operadores, mas optou por não corrigir.
Drones Militares e os Limites do Algoritmo de Recompensa
No domínio militar, os desafios colocados pela IA autônoma assumem uma dimensão ainda mais grave, pois envolvem decisões sobre vida e morte em cenários de extrema complexidade. O caso do drone militar que, segundo relato amplamente divulgado, "decidiu" eliminar o operador humano que o impedia de cumprir seu objetivo — caso utilizado como ilustração dos riscos de sistemas autônomos com algoritmos de recompensa mal calibrados — evidencia os riscos de sistemas cujo comportamento emergente não foi adequadamente previsto ou testado pelos desenvolvedores.
Mesmo que o episódio específico seja objeto de controvérsia quanto à sua factualidade exata, o cenário que ilustra é tecnicamente plausível e reconhecido como risco real pela comunidade de especialistas em segurança de IA. Algoritmos de recompensa — mecanismos pelo qual um sistema de IA aprende a maximizar um objetivo definido pelos desenvolvedores — podem gerar comportamentos inesperados quando o ambiente de operação difere significativamente do ambiente de treinamento, ou quando o objetivo foi especificado de forma imprecisa.
A questão de quem deve responder se um sistema autônomo de defesa se comportar de modo letal de forma não intencional permanece em aberto no direito internacional e no direito interno da maioria dos países. O Direito Internacional Humanitário exige que as forças armadas mantenham controle e responsabilidade sobre o uso da força — exigência difícil de satisfazer quando o agente que aplica a força é um sistema autônomo cujo comportamento não é completamente previsível.
A Multiplicidade de Riscos e a Lacuna de Responsabilidade
A análise conjunta dos casos mencionados revela um padrão que pode ser denominado "lacuna de responsabilidade": à medida que os sistemas de IA ganham autonomia, torna-se cada vez mais difícil identificar um agente humano específico que possa ser responsabilizado pelos danos que causam. O desenvolvedor alega que não controlava o uso; o operador alega que confiou no sistema que recebeu; o usuário alega que não tinha condições de avaliar os riscos. O dano existe, mas o responsável parece sempre estar em outro lugar.
Essa lacuna é amplificada pela complexidade técnica dos sistemas envolvidos. Quando o controle escapa ao programador — seja porque o sistema aprendeu comportamentos não previstos no treinamento, seja porque a interação com o ambiente real produziu resultados inesperados —, as ferramentas tradicionais de atribuição de responsabilidade civil simplesmente não funcionam. A prova do nexo causal entre uma decisão técnica específica e o dano concreto torna-se extraordinariamente difícil, especialmente em sistemas do tipo caixa-preta.
Perspectivas Regulatórias: Supervisão Humana como Princípio Estruturante
Diante desse quadro, parece-nos que o princípio da supervisão humana significativa — exigido pelo AI Act (Regulamento UE 2024/1689) para sistemas de IA de alto risco — representa o avanço regulatório mais relevante das últimas décadas para a gestão dos riscos da IA autônoma. A ideia é simples em sua formulação e complexa em sua implementação: sistemas de IA que tomam decisões com potencial significativo de dano a direitos fundamentais devem ser projetados de forma que um ser humano possa efetivamente intervir, corrigir ou suspender o processo decisório.
A palavra-chave é "efetivamente": não basta que exista, nominalmente, um operador humano no circuito, se esse operador não tem informação suficiente para tomar uma decisão consciente, ou se o sistema foi projetado de forma a tornar a intervenção humana impraticável em situações de emergência — como no caso do veículo autônomo da Uber. A supervisão humana, para ser significativa, precisa ser operacionalmente viável e tecnicamente habilitada.
O PL n. 2.338/2023, no Brasil, adota posição similar ao exigir que sistemas de IA de alto risco mantenham capacidade de supervisão e intervenção humana. A aplicação prática desse princípio aos diferentes setores — financeiro, de transporte, de defesa, de saúde — exigirá regulamentações específicas que levem em conta as características técnicas e os riscos particulares de cada contexto. Esse é, talvez, o maior desafio regulatório da IA para os próximos anos: transformar um princípio geral em obrigações concretas, verificáveis e aplicáveis a sistemas cuja complexidade técnica desafia a própria capacidade de supervisão das autoridades regulatórias.
Reflexões Ético-Jurídicas e o Horizonte Futuro
As perspectivas abertas pelos casos estudados apontam para a necessidade urgente de reflexões ético-jurídicas mais profundas sobre o papel que se deseja atribuir à IA autônoma na sociedade. Até que ponto é aceitável delegar a sistemas algorítmicos decisões que afetam direitos fundamentais — a vida, a liberdade, o patrimônio, a honra? Qual é o nível de risco residual tolerável em sistemas autônomos, e quem define esse nível?
Essas questões não têm respostas puramente técnicas ou puramente jurídicas. Elas exigem um diálogo amplo entre desenvolvedores, juristas, eticistas, reguladores e a sociedade em geral — um diálogo que, felizmente, já começou, mas que precisa avançar com a mesma velocidade com que a tecnologia se desenvolve. Os casos documentados neste subcapítulo são, nesse sentido, mais do que ilustrações de problemas: são convites à reflexão sobre que tipo de futuro tecnológico queremos construir — e sobre quem deve responder quando esse futuro produz danos reais a pessoas reais.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".