aplicação do art. 932 seria desnecessária. Pelo critério do controle, por outro lado, estaríamos falando novamente de “fato da coisa”, e não de relação trabalhista. Não vemos como a IA poderia ser “empregada” e não “coisa”. Pela lógica do desenvolvimento, por fim, estaríamos dentro do risco da atividade propriamente dito ou do risco da atividade empresarial, no caso dos desenvolvedores da IA enquanto produto ou serviço. Agregar noções de “subordinação” da IA a alguma entidade, em específico, seria inviável. O debate sobre a responsabilidade objetiva do empregador ou comitente pelos atos dos seus subordinados, entretanto, se torna mais profundo quando o direcionamos ao efetivo propósito da norma: a discussão acerca dos programadores e desenvolvedores de IA. Sob uma perspectiva técnica, cabe investigar em que medida tais profissionais, individualmente, são responsabilizáveis por erros de codificação, omissões em algoritmos ou falhas de atualização. Em regra, se há vínculo de emprego, o programador é enquadrado como preposto: tudo que realiza em âmbito empresarial faz recair no empregador a obrigação de indenizar. Essa atribuição direta de responsabilidade ao empregador tem por fundamento a teoria do risco – mas não exclui a possibilidade de regresso contra o programador, desde que provada a culpa efetiva deste no desenvolvimento da IA. Neste ponto, a doutrina costuma relacionar a figura do programador a uma responsabilização subjetiva em caso de negligência ou imperícia na concepção de algoritmos, sobretudo em cenários de ausência de compliance ou de protocolos de segurança. Empresas de ponta exigem dos desenvolvedores a observância de protocolos rigorosos de segurança, redundância de sistemas e validações sucessivas antes do lançamento ou da atualização de softwares de IA. Caso ocorra violação clara a esses protocolos, abre-se espaço para uma ação regressiva do empregador, responsabilizando o programador pelos prejuízos. Metodologias de auditoria de algoritmos, previstas em parte no AI Act para sistemas de “risco elevado” 663, bem como no Projeto de Lei 2.338/23 – para todos sistemas de IA (art. 19) e para os sistemas considerados de “alto risco” (os arts. 20 e 21 tratam das medidas de governança para referidas tecnologias, ao passo que os arts 22 a 24 cuidam de avaliação de impacto algorít663 Arts. 9º (“Sistema de Gestão de Riscos”), 10º (“Dados e Governação de Dados”), 14º (“Supervisão Humana”) e 15º (“Exatidão, Solidez e Cibersegurança”).
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".