A Questão Prática: IA como Coisa, Não como Empregado
O debate sobre a possibilidade de enquadrar a inteligência artificial como "empregada" de uma organização — e, consequentemente, de aplicar o regime de responsabilidade vicária do empregador pelos atos do empregado — esbarra em uma objeção fundamental: a IA é, juridicamente, uma coisa, não uma pessoa. Parece-nos que a tentativa de superar essa barreira conceitual, por mais que seja intelectualmente estimulante, conduz a conclusões que fragilizam a coerência do ordenamento jurídico, sem oferecer vantagens práticas que justifiquem o esforço hermenêutico.
Pelo critério da personalidade jurídica, a aplicação do art. 932, III, do Código Civil de 2002 à IA seria desnecessária: se o sistema de IA é tratado como uma coisa pertencente ao empregador, a responsabilidade deste decorre diretamente do regime de guarda e do fato da coisa — não da relação de preposição. Pelo critério do controle, por outro lado, estaríamos falando precisamente de "fato da coisa", e não de relação trabalhista. Não parece viável conceber como a IA poderia ser "empregada" e não "coisa". Pela lógica do desenvolvimento, por fim, estaríamos dentro do risco da atividade propriamente dito ou do risco da atividade empresarial, no caso dos desenvolvedores da IA enquanto produto ou serviço.
Agregar noções de "subordinação" da IA a alguma entidade, em específico, seria inviável do ponto de vista técnico e jurídico. A subordinação, como elemento caracterizador da relação de emprego, pressupõe a capacidade do subordinado de receber e executar ordens, de ser corrigido, de responder disciplinarmente por seus atos — capacidades que os sistemas artificiais, por definição, não possuem de forma análoga à humana.
O Programador como Preposto: Responsabilidade Objetiva do Empregador
O debate sobre a responsabilidade objetiva do empregador ou comitente pelos atos dos seus subordinados torna-se mais produtivo quando direcionado ao seu efetivo propósito prático: a responsabilidade dos programadores e desenvolvedores de IA enquanto prepostos da empresa que explora o sistema.
Sob essa perspectiva, se há vínculo de emprego entre o programador e a empresa, tudo que o profissional realiza em âmbito empresarial faz recair sobre o empregador a obrigação de indenizar os danos causados a terceiros — com fundamento nos arts. 932, III, e 933 do Código Civil de 2002. Essa atribuição direta de responsabilidade ao empregador tem por fundamento a teoria do risco, mas não exclui a possibilidade de ação regressiva contra o programador, desde que provada a culpa efetiva deste no desenvolvimento da IA.
Verifica-se que a doutrina costuma relacionar a figura do programador a uma responsabilização subjetiva em caso de negligência ou imperícia na concepção de algoritmos, sobretudo em cenários de ausência de compliance ou de protocolos de segurança. Empresas de ponta exigem dos desenvolvedores a observância de protocolos rigorosos de segurança, redundância de sistemas e validações sucessivas antes do lançamento ou da atualização de softwares de IA. Caso ocorra violação clara a esses protocolos, abre-se espaço para uma ação regressiva do empregador, responsabilizando o programador pelos prejuízos causados.
Parece-nos que a fixação de padrões técnicos de conduta para os desenvolvedores de IA — seja por meio de normas regulatórias, seja por meio de códigos de boas práticas da indústria — é fundamental para a viabilidade prática da ação regressiva. Sem parâmetros objetivos de comportamento esperado, a prova da culpa do programador torna-se excessivamente difícil, comprometendo a eficácia do mecanismo de regresso previsto no parágrafo único do art. 934 do Código Civil.
Auditoria Algorítmica como Parâmetro de Culpa
Metodologias de auditoria de algoritmos, previstas em parte no AI Act para sistemas de "risco elevado" — especialmente nos arts. 9º (sistema de gestão de riscos), 10º (dados e governança de dados), 14º (supervisão humana) e 15º (exatidão, solidez e cibersegurança) —, bem como no PL 2.338/2023, para todos os sistemas de IA (art. 19) e para os sistemas considerados de "alto risco" (arts. 20 e 21, sobre medidas de governança, e arts. 22 a 24, sobre avaliação de impacto algorítmico), estabelecem um padrão de diligência esperada dos agentes envolvidos no desenvolvimento e operação de sistemas inteligentes.
Parece-nos que a observância — ou o descumprimento — dessas metodologias de auditoria constitui elemento probatório relevante tanto para a caracterização da culpa do programador-preposto, na ação regressiva, quanto para a aferição da responsabilidade objetiva do empregador perante a vítima. Em outras palavras, a empresa que implanta um sistema de IA sem submetê-lo ao processo de avaliação de impacto algorítmico exigido pelo PL 2.338/2023 não apenas incorre em infração administrativa, mas também fortalece a presunção de responsabilidade pelos danos causados pelo sistema.
A crescente adoção de ferramentas de rastreamento de erros — logs de decisão, registros de versões de código, relatórios de auditoria interna —, impulsionada por exigências regulatórias como as do AI Act, pode amenizar a incerteza probatória, tornando mais viável a apuração de responsabilidade subjetiva do programador, ao menos na relação interna entre empresa e desenvolvedor. Verifica-se, assim, que a regulação setorial cumpre um papel não apenas preventivo, mas também probatório: ao exigir documentação adequada dos processos de desenvolvimento, ela cria a infraestrutura informacional necessária para a responsabilização adequada dos agentes envolvidos.
A Opacidade do Machine Learning e o Nexo de Causalidade
Na prática, a dificuldade de provar o nexo entre o ato culposo do desenvolvedor e o dano tende a gerar controvérsias, pois o sistema autônomo se modifica continuamente, e os registros de seu funcionamento nem sempre são acessíveis ou de fácil compreensão para terceiros. É notório que a própria opacidade de sistemas baseados em machine learning pode dificultar a comprovação de culpa.
Parece-nos que essa opacidade algorítmica — o chamado "problema da caixa-preta" — é um dos principais desafios práticos para a responsabilização civil no contexto da IA. Nos sistemas de aprendizado profundo (deep learning), as decisões do algoritmo resultam de interações complexas entre milhões de parâmetros, que não podem ser reduzidas a uma regra simples ou a uma escolha intencional identificável. Isso significa que, mesmo quando o sistema produz um resultado claramente danoso — como um diagnóstico médico incorreto ou uma decisão discriminatória de concessão de crédito —, pode ser extremamente difícil identificar qual decisão de design, qual conjunto de dados de treinamento ou qual atualização de código deu origem ao erro.
Diante dessa dificuldade, o ordenamento jurídico brasileiro dispõe de instrumentos para facilitar a prova do nexo de causalidade: a inversão do ônus da prova prevista no art. 6º, VIII, do CDC, aplicável quando o lesado for consumidor; a facilitação da produção de prova prevista no art. 373, § 1º, do Código de Processo Civil; e a possibilidade de determinação judicial de acesso aos registros e documentação técnica do sistema de IA, com fundamento no art. 22 do PL 2.338/2023, que prevê o direito à explicação das decisões automatizadas.
A Responsabilidade Objetiva como Garantia da Vítima
Por seu turno, ainda quando não for possível comprovar a negligência ou imperícia do programador no ato em que o dano se manifesta, a resposta no plano externo — perante o lesado — permanece objetiva e recai essencialmente sobre a empresa. É a lógica do mercado tecnológico: quem oferece um produto ou serviço baseado em IA, e se beneficia economicamente de sua eficiência ou inovação, deve garantir a reparação de eventuais danos a terceiros. Dessa forma, não se transfere o risco para o consumidor ou para o lesado, o que preserva a proteção das vítimas e favorece a previsibilidade jurídica.
Verifica-se que essa lógica é coerente tanto com o sistema de responsabilidade objetiva do Código Civil (arts. 927, parágrafo único, e 931) quanto com o regime de responsabilidade pelo defeito do produto previsto no CDC (arts. 12 e 14). Em ambos os casos, o lesado não precisa provar a culpa do produtor ou do fornecedor: basta demonstrar o defeito, o dano e o nexo de causalidade entre ambos. A IA, enquanto produto ou serviço colocado em circulação no mercado, sujeita-se naturalmente a esse regime.
Parece-nos que a combinação entre a responsabilidade objetiva do empregador pelos atos do programador-preposto e a responsabilidade objetiva pelo defeito do produto ou serviço digital constitui o modelo mais adequado para a proteção das vítimas de danos causados por sistemas de IA desenvolvidos em âmbito empresarial — modelo esse que dispensa a problemática analogia com a responsabilidade do incapaz e se ancora em fundamentos normativos sólidos e coerentes com a tradição do direito civil brasileiro.
Freelancers, Startups e Parceiros Tecnológicos como Prepostos
A relação de preposição também se revela em contextos menos formais, quando o programador, mesmo sem vínculo contratual típico, atua em proveito do comitente, sob alguma forma de subordinação ou coordenação. No caso do Brasil, expande-se a concepção de preposto para abarcar situações onde há direção de outrem, ainda que ausente um contrato de trabalho propriamente dito. Em termos práticos, isso significa que startups, parceiros tecnológicos e até mesmo freelancers poderiam se enquadrar como prepostos em determinados cenários, reforçando a responsabilidade objetiva do tomador de serviço.
Parece-nos que, no caso de inteligência artificial, se o desenvolvimento ou a manutenção do algoritmo é executado sob orientação e supervisão de uma empresa — ainda que por meio de contrato de prestação de serviços, parceria estratégica ou programa de aceleração —, essa empresa poderá ser considerada responsável pelos prejuízos vinculados ao código elaborado por aquele profissional ou entidade. A chave para essa imputação reside na existência de subordinação técnica e no exercício de direção sobre o desenvolvimento do sistema, independentemente da forma contratual adotada.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".