Voltar ao Blog
Inteligência ArtificialCapítulo 1

A IA na Prática: Aplicações, Problemas e Desafios: Análise Aprofundada

O caso K1: fundo de hedge automatizado por IA gerou perdas de US$ 20 milhões em um dia. Análise jurídica sobre responsabilidade de desenvolvedores e operadores de sistemas financeiros autônomos.

Alessandro Lavorante 28 de maio de 2024 6 min de leitura

Em 2018, Samathur Li Kin-kan, magnata de Hong Kong, tornou-se protagonista de um emblemático caso envolvendo inteligência artificial aplicada ao mercado financeiro, após sofrer perdas superiores a 20 milhões de dólares em um único dia. O episódio teve início em um encontro em Dubai, onde Li foi apresentado a Raffaele Costa, representante da Tyndaris Investments. Durante o encontro, Costa apresentou-lhe um fundo de hedge automatizado denominado "K1", descrito como um sistema revolucionário movido exclusivamente por IA.

O K1 foi promovido como um supercomputador altamente avançado, capaz de realizar operações financeiras autônomas com base em análises em tempo real de dados de mercado, notícias e até mesmo informações provenientes de redes sociais. Segundo a proposta apresentada, o sistema era projetado para identificar tendências do mercado e ajustar suas estratégias automaticamente, prometendo retornos financeiros muito atraentes.

O Investimento e o Colapso

Convencido pela proposta inovadora e pelo potencial do K1, Li aplicou uma quantia substancial, confiando na promessa de que o sistema poderia antecipar movimentos do mercado de maneira superior à capacidade humana. Contudo, em um dia particularmente volátil, o K1 executou uma ordem de stop-loss — mecanismo automático acionado quando um ativo atinge um preço de baixa previamente definido — que resultou em perdas catastróficas, pois o mercado se recuperou pouco tempo depois.

Para os advogados do investidor, o episódio evidenciou falhas significativas no algoritmo, tanto na sua capacidade de previsão quanto na execução de estratégias de mitigação de riscos. Em sua defesa, a Tyndaris sustentou que as escolhas feitas pelo algoritmo faziam parte do risco inerente ao mercado, posição que desloca o problema para o terreno da assunção contratual de riscos pelo investidor.

O julgamento, iniciado em 2020 em tribunal de Londres, ainda em curso quando da elaboração desta análise, pode estabelecer precedente relevante sobre como esse tipo de caso será tratado nos países do Commonwealth — e, indiretamente, influenciar o debate nos países da Europa Continental e, por extensão, no Brasil.

A Questão Central da Responsabilidade

A questão central deste caso reside na atribuição de responsabilidade: deve ela recair sobre os desenvolvedores do software, os vendedores que promoveram suas capacidades além da realidade, ou os usuários que confiaram nas promessas de desempenho? A ideia de que a empresa responsável pelo desenvolvimento e implementação da tecnologia — a Tyndaris Investments — deve responder pelos danos causados pelo K1 pode parecer automática dentro do contexto normativo brasileiro. Contudo, a questão está longe de ser simples.

O caso apresenta, ainda, uma discussão que testa os próprios limites da IA: seria realmente possível para uma máquina prever os movimentos do mercado financeiro, quando nem mesmo setores inteiros de grandes bancos de investimento conseguem alcançar uma margem plena de acerto em um ambiente tão dinâmico e imprevisível? Essa interrogação não é retórica — ela tem implicações diretas sobre o que pode legitimamente ser prometido a investidores e sobre a linha que separa o risco de mercado da falha técnica do sistema.

Diagnóstico Técnico das Falhas

Do ponto de vista técnico, o caso reflete um desafio de design e treinamento do sistema. O K1 executou uma ordem de stop-loss sem considerar adequadamente a volatilidade e o potencial de recuperação do mercado em curto prazo. Isso pode ser atribuído à incapacidade do algoritmo de modelar cenários de forma robusta ou de incorporar variáveis de maneira adaptativa.

Provavelmente, o K1 utilizava aprendizado supervisionado ou por reforço — tipologias em que as decisões são avaliadas e ajustadas com base em feedback — e a falha do sistema estaria no ajuste inadequado das estratégias com base nas condições reais de mercado. Um sistema de IA avançado, aplicado a operações financeiras de alto risco, deveria incorporar algoritmos de modelagem de risco capazes de simular cenários extremos, como quedas abruptas do mercado, e implementar estratégias previamente configuradas para mitigar perdas nesses eventos.

A ausência desse mecanismo adaptativo sugere que o K1, apesar de sua apresentação como sistema revolucionário, operava com uma lógica de otimização relativamente rígida, inadequada para a volatilidade característica dos mercados financeiros globais.

Implicações Jurídicas no Contexto Brasileiro

No Brasil, um caso análogo ao do K1 suscitaria discussões em múltiplas frentes normativas. O Código de Defesa do Consumidor (Lei 8.078/90), em seu artigo 14, consagra a responsabilidade objetiva do fornecedor de serviços pelos danos causados aos consumidores em decorrência de defeitos na prestação. A questão seria, precisamente, se a falha algorítmica do K1 constituiu um defeito do serviço ou um risco assumido contratualmente pelo investidor.

O Código Civil, em seu artigo 927, parágrafo único, prevê a responsabilidade objetiva em atividades que, por sua natureza, impliquem risco para os direitos de outrem — cláusula que a doutrina tem reconhecido como potencialmente aplicável a sistemas de IA que operam em setores de alto risco. Nesse contexto, parece-nos que a exploração comercial de sistemas de IA aplicados ao mercado financeiro se enquadra nessa categoria de atividade de risco.

O PL 2338/23 propõe, por sua vez, um regime de responsabilidade civil específico para fornecedores de sistemas de IA, com presunção de responsabilidade nos casos de danos causados a pessoas naturais em contextos de alto risco. Embora o projeto ainda não tenha sido convertido em lei, ele sinaliza a tendência legislativa brasileira de endurecer as obrigações dos agentes que exploram comercialmente sistemas autônomos de decisão.

A Dimensão do Dever de Informação

Não menos relevante, no caso K1, é a dimensão do dever de informação. A Tyndaris apresentou o sistema com capacidades que, ao menos na prática, não se confirmaram. Isso levanta a questão sobre a responsabilidade pré-contratual dos desenvolvedores e intermediários que comercializam soluções de IA com promessas de desempenho que excedem as capacidades técnicas reais do sistema.

Cabe ressaltar que a transparência sobre as capacidades e limitações dos sistemas de IA não é apenas uma obrigação ética — é, crescentemente, uma obrigação jurídica. O AI Act europeu, em seu artigo 13, impõe aos fornecedores de sistemas de alto risco o dever de assegurar que os usuários disponham de informações suficientes para compreender as capacidades e limitações do sistema. No Brasil, o dever de informação encontra fundamento no artigo 6º, inciso III, do CDC e no artigo 422 do Código Civil, que consagra a boa-fé objetiva nas relações contratuais.

O caso Samathur Li vs. Tyndaris Investments permanece, assim, como paradigma incontornável para a discussão sobre responsabilidade por danos causados por sistemas de IA financeiros — não apenas pelo valor econômico envolvido, mas pela nitidez com que expõe as tensões entre autonomia algorítmica, promessas comerciais e proteção dos usuários.

AplicaçõesDesafiosProblemasPrática

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.