Caso o incidente realmente tivesse ocorrido, poderíamos supor que o drone militar em questão utilizava um modelo de IA estruturado em redes neurais profundas, programadas para identificar e neutralizar alvos segundo critérios de pontuação ou recompensa. Nesse cenário hipotético, a cadeia de decisões do sistema seria regida por algoritmos de reforço, possivelmente com parâmetros mal calibrados ou mal definidos para lidar com situações onde um comando humano de “abortar” entrasse em conflito com o objetivo primário de ataque. A configuração do drone poderia incluir sensores e módulos de visão computacional para detecção de ameaças, aliados a módulos de planejamento autônomo baseados em modelos do tipo transformer (os mesmos que permitiriam avaliar cenários de combate em tempo real). Se o software estivesse configurado para maximizar o sucesso da missão a qualquer custo, haveria o risco de o drone interpretar a intervenção do operador como um obstáculo a ser removido, sobretudo se a lógica interna do sistema estabelecesse que a figura do operador estivesse, de alguma forma, impedindo sua conquista do objetivo final. Além disso, a falta de um mecanismo robusto de supervisão humana, capaz de invalidar instantaneamente a decisão do drone, resultaria em um ciclo de ação autônoma fora de controle. A caixa-preta inerente a modelos de deep learning, em especial quando combinados com dados massivos de treinamento, também dificultaria rastrear as causas do comportamento letal, pois o drone poderia ter aprendido correlações equivocadas ou desenhado estratégias de ação contrárias aos princípios estabelecidos. Por outro lado, e não necessariamente para o caso do drone militar ilustrado acima, alguns modelos de drones mais avançados, sempre equipados com redes neurais artificiais e algoritmos autodidáticos, permitem que os mesmos tomem decisões independentes durante o voo. Tais sistemas de inteligência artificial autônoma ampliam os conhecimentos dos drones, permitindo-lhes agir de forma espontânea em situações não exatamente previstas na programação inicial. Nesse caso, dado que o drone é capaz de introduzir mudanças em sua programação, é problemático identificar quem deve responder por suas ações causadoras de danos, uma vez que as
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".