Voltar ao Blog
ImputaçãoCapítulo 3

A Responsabilidade do Empregador pelo Empregado: Perspectivas e Desafios

Perspectivas e desafios da responsabilidade civil do empregador por danos de IA: nexo causal, machine learning opaco, compliance, PL 2338/23, AI Act e ação regressiva contra desenvolvedores.

Alessandro Lavorante 13 de agosto de 2025 8 min de leitura

A Opacidade Algorítmica como Desafio Central

Na prática, a dificuldade de provar o nexo entre o ato culposo do desenvolvedor e o dano causado por um sistema de inteligência artificial tende a gerar controvérsias jurídicas de difícil solução, pois o sistema autônomo se modifica continuamente — mediante ciclos de treinamento, atualização e fine-tuning —, e os registros de seu funcionamento nem sempre são acessíveis ou de fácil compreensão para terceiros. É notório que a própria opacidade de sistemas baseados em machine learning pode dificultar, quando não inviabilizar, a comprovação de culpa individual do desenvolvedor que produziu o erro gerativo do dano.

Parece-nos que essa opacidade não é apenas um problema técnico, mas também um problema jurídico estrutural: ela compromete a capacidade do ordenamento de distribuir adequadamente os ônus probatórios entre as partes, de identificar com precisão o momento em que a conduta culposa se deu e de estabelecer o nexo de causalidade entre o comportamento do agente humano e o dano produzido pelo sistema artificial. Sem essa identificação, a ação regressiva do empregador contra o programador — prevista no parágrafo único do art. 934 do Código Civil — torna-se, na prática, de difícil viabilidade.

Verifica-se, nesse contexto, que a regulação setorial cumpre um papel fundamental: ao exigir documentação sistemática dos processos de desenvolvimento, teste e atualização de sistemas de IA — como fazem o art. 9º do AI Act (sistema de gestão de riscos) e o art. 19 do PL 2.338/2023 (medidas de transparência e prestação de contas) —, ela cria a infraestrutura informacional que pode, no futuro, tornar tecnicamente viável a identificação da conduta culposa específica que originou o dano.

Responsabilidade Subjetiva do Programador e Direito de Regresso

Por seu turno, ainda quando não for possível comprovar a negligência ou imperícia do programador no ato em que o dano se manifesta, a resposta no plano externo — perante o lesado — permanece objetiva e recai essencialmente sobre a empresa. É a lógica do mercado tecnológico: quem oferece um produto ou serviço baseado em IA, e se beneficia economicamente de sua eficiência ou inovação, deve garantir a reparação de eventuais danos a terceiros. Dessa forma, não se transfere o risco para o consumidor ou para o lesado, o que preserva a proteção das vítimas e favorece a previsibilidade jurídica.

Parece-nos que o direito de regresso, previsto no parágrafo único do art. 934 do Código Civil, constitui o mecanismo adequado para a responsabilização interna do programador-preposto. Esse mecanismo pressupõe, contudo, a prova da culpa efetiva do desenvolvedor — prova que, como se viu, pode ser extremamente difícil em sistemas de aprendizado profundo. A solução para esse dilema pode residir na inversão do ônus probatório na ação de regresso, especialmente quando o desenvolvedor deixou de observar os protocolos de auditoria e conformidade exigidos pelo AI Act ou pelo PL 2.338/2023.

A metodologia de avaliação de impacto algorítmico prevista nos arts. 22 a 24 do PL 2.338/2023 — e equivalente às disposições dos arts. 9º a 15º do AI Act para sistemas de alto risco — cria, de forma indireta, um padrão de conduta esperada do desenvolvedor. O descumprimento desse padrão pode ser equiparado a uma presunção iuris tantum de culpa, transferindo ao programador o ônus de demonstrar que agiu com a diligência esperada. Verifica-se, assim, que a regulação setorial não apenas cria obrigações administrativas, mas influencia profundamente a dinâmica da responsabilidade civil nas relações internas entre empregador e empregado.

A Relação de Preposição em Contextos Atípicos

A relação de preposição também se revela em contextos menos formais, quando o programador, mesmo sem vínculo contratual típico, atua em proveito do comitente, sob alguma forma de subordinação ou coordenação. No caso do Brasil, expande-se a concepção de preposto para abarcar situações onde há direção de outrem, ainda que ausente um contrato de trabalho propriamente dito. Em termos práticos, isso significa que startups, parceiros tecnológicos e até mesmo freelancers poderiam se enquadrar como prepostos em determinados cenários, reforçando a responsabilidade objetiva do tomador de serviço.

No caso de inteligência artificial, se o desenvolvimento ou manutenção do algoritmo é executado sob orientação e supervisão de uma empresa, esta poderá ser considerada responsável pelos prejuízos vinculados ao código elaborado por aquele profissional. Parece-nos que a chave para essa imputação reside na existência de subordinação técnica e no exercício de direção sobre o desenvolvimento do sistema, independentemente da forma contratual adotada. A jurisprudência do Superior Tribunal de Justiça, ao interpretar o conceito de preposto no âmbito da responsabilidade civil, já reconheceu que o que importa é a existência de relação de autoridade e de atuação no interesse do preponente — critério perfeitamente aplicável às relações entre empresas tomadoras de serviço e desenvolvedores de IA.

Perspectivas: A Multicamada da Responsabilidade Civil pela IA

O debate sobre a responsabilidade civil derivada da inteligência artificial articula-se, como se vê, em múltiplas camadas. Na esfera objetiva, voltada à proteção do lesado, prevalece a obrigação do empresário ou de quem explora comercialmente a tecnologia, dado que a teoria do risco atribui o ônus de indenizar a quem aufere vantagens econômicas do sistema. Na dimensão subjetiva, é possível — porém complexo — identificar a culpa do programador, sobretudo em operações onde se registram cuidadosamente as fases de desenvolvimento e evolução do sistema.

Esse nível técnico e detalhado de aferição de responsabilidade envolve análise de logs, gerenciamento das versões de código, políticas de compliance e outros aspectos que requerem perícia profunda no campo da inteligência artificial. Verifica-se que a construção de um regime de responsabilidade civil eficaz para a IA exige, portanto, não apenas a adequação das normas jurídicas, mas também o desenvolvimento de capacidades técnicas e institucionais que permitam a avaliação independente e confiável dos sistemas artificiais.

Parece-nos que a criação de organismos de certificação e auditoria independente de sistemas de IA — prevista, em linhas gerais, pelo AI Act europeu e discutida no âmbito do PL 2.338/2023 — é um passo essencial nessa direção. A existência de relatórios técnicos produzidos por auditores independentes, com acesso completo ao código, aos dados de treinamento e aos registros de funcionamento do sistema, ofereceria aos tribunais uma base probatória muito mais sólida para a avaliação das responsabilidades individuais envolvidas.

Desafios Normativos e a Necessidade de Adaptações Hermenêuticas

A partir desse panorama, nota-se o desafio de enquadrar sistemas autônomos em modelos de responsabilidade pensados para ações humanas diretas. Nesse cenário, a responsabilidade vicária apresenta potencial de analogia, mas ainda carece de adaptações para lidar com a autonomia e a imprevisibilidade de algoritmos. A experiência doutrinária aponta a lacuna existente e discute soluções que transitam entre a manutenção do modelo de responsabilidade baseado em falha humana e a adoção de regimes híbridos com traços objetivos.

Verifica-se que o ordenamento jurídico brasileiro, com os instrumentos já disponíveis — arts. 932, III, e 933 do Código Civil, arts. 12 e 14 do CDC, art. 42 da LGPD e as futuras disposições do PL 2.338/2023 —, dispõe de um arcabouço suficientemente robusto para responder à maior parte dos casos concretos. O que se impõe, neste momento, não é a criação de um regime inteiramente novo, mas a interpretação criativa e sistemática das normas vigentes à luz dos princípios constitucionais e das exigências práticas da era digital.

Parece-nos que o principal desafio, portanto, não é normativo, mas hermenêutico: trata-se de construir, a partir dos instrumentos disponíveis, soluções que sejam ao mesmo tempo coerentes com os fundamentos do direito civil, sensíveis às particularidades técnicas dos sistemas de IA e capazes de oferecer proteção efetiva às vítimas dos danos causados por algoritmos autônomos.

Conclusão: A Teoria do Risco como Fio Condutor

No Brasil, o Código Civil estruturou a responsabilidade objetiva indireta para pais, tutores e empregadores, e a transposição dessa lógica para sistemas de IA não é um passo natural — tampouco é o mais simples. Entretanto, a conjugação dessas ideias é positiva, pois fortalece a construção de um arcabouço jurídico multifacetado e aberto, que não dispensa o dever de diligência dos projetistas, fabricantes e usuários.

A contribuição dos fundamentos de responsabilidade indireta à imputação de responsabilidade pelos fatos da inteligência artificial reside em sua gênese: a proteção de terceiros a partir do reconhecimento da parte mais apta a prevenir e reparar eventuais danos. Esse princípio — quem está em melhor posição para evitar o dano é quem deve respondê-lo — é o fio condutor que conecta o regime de responsabilidade do empregador pelo empregado ao debate contemporâneo sobre a governança responsável da inteligência artificial.

EmpregadorEmpregadoResponsabilidade Vicária

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.