Voltar ao Blog
ImputaçãoCapítulo 3

A Responsabilidade do Empregador pelo Empregado: Conceitos Fundamentais

Conceitos fundamentais da responsabilidade objetiva do empregador pelo empregado no CC/2002, art. 932 e 933, teoria do risco e analogias com IA. Análise com PL 2338/23 e AI Act.

Alessandro Lavorante 5 de agosto de 2025 7 min de leitura

Fundamentos da Responsabilidade do Empregador pelo Empregado no Direito Brasileiro

As teorias da responsabilidade civil aplicável à inteligência artificial encontram-se em fase de transição e consolidação. Dentre aquelas que se propõem a estruturar esse regime a partir da responsabilidade vicária, surge a necessidade de revisar princípios e calibrar a aplicação de conceitos como culpa in eligendo, nexo causal e risco-proveito. No Brasil, a legislação confere tratamento abrangente à responsabilidade civil do empregador, estabelecendo a responsabilidade objetiva pelos atos de seus empregados — ainda que não se prove culpa na contratação ou supervisão.

Essa sistemática encontra base, em especial, no art. 932, III, do Código Civil, em conjugação com o art. 933, que automatiza a imputação ao empregador quando o dano está relacionado ao exercício do trabalho. Tais dispositivos remontam ao antigo art. 1.521, III, do Código Civil de 1916, mas evoluíram para incorporar a ideia de responsabilidade objetiva, afastando, em larga medida, a necessidade de provas de culpa in eligendo ou in vigilando. Essa mudança, segundo Bruno Miragem, também reflete a adoção de uma teoria do risco: quem se beneficia do trabalho ou dos resultados de uma atividade tem de suportar eventuais prejuízos dela decorrentes.

Evolução do Modelo de Imputação: Da Culpa ao Risco

Parece-nos que a transição do modelo de responsabilidade subjetiva para o modelo objetivo, no que concerne à relação empregador-empregado, representa um dos avanços mais significativos da codificação civil de 2002. O Código Civil de 1916, em seu art. 1.521, III, já previa a responsabilidade dos patrões pelos atos dos seus empregados, mas a doutrina majoritária da época ainda exigia, em alguns casos, a demonstração de culpa in eligendo ou in vigilando por parte do empregador. Com o advento do Código Civil de 2002, o art. 933 encerrou essa discussão ao estabelecer que os responsáveis arrolados no art. 932 "ainda que não haja culpa de sua parte, responderão pelos atos praticados pelos terceiros ali referidos".

Verifica-se, nesse contexto, que o legislador optou por uma solução que privilegia a proteção da vítima em detrimento da lógica punitiva: o empregador não responde porque foi negligente na escolha ou na supervisão do empregado, mas porque se beneficia do trabalho deste e, portanto, deve suportar os riscos inerentes à sua atividade econômica. Essa lógica é coerente com o princípio da função social do contrato (art. 421 do CC/2002) e com o princípio da socialização dos riscos, que informa o regime de responsabilidade objetiva no direito civil brasileiro contemporâneo.

A teoria do risco-proveito, subjacente ao art. 932, III, do CC/2002, encontra reforço no art. 927, parágrafo único, do mesmo diploma, que prevê a obrigação de reparar o dano "independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem". Parece-nos que a atividade de desenvolvimento e implantação de sistemas de inteligência artificial, pelo alto potencial de impacto sobre direitos fundamentais — privacidade, igualdade, liberdade de expressão, saúde —, enquadra-se com precisão nesse conceito de atividade de risco.

A Relação de Preposição no Contexto da IA: Desenvolvedor como Preposto

Sob uma perspectiva técnica, cabe investigar em que medida os programadores e desenvolvedores de IA, individualmente, são responsabilizáveis por erros de codificação, omissões em algoritmos ou falhas de atualização. Em regra, se há vínculo de emprego, o programador é enquadrado como preposto: tudo que realiza em âmbito empresarial faz recair no empregador a obrigação de indenizar. Essa atribuição direta de responsabilidade ao empregador tem por fundamento a teoria do risco, mas não exclui a possibilidade de regresso contra o programador, desde que provada a culpa efetiva deste no desenvolvimento da IA.

A figura do preposto, no direito civil brasileiro, abrange não apenas o empregado com vínculo formal de emprego, mas também aquele que age sob a direção e no interesse de outrem, ainda que sem contrato de trabalho propriamente dito. No caso do Brasil, conforme ressalta Miragem, expande-se a concepção de preposto para abarcar situações onde há direção de outrem, o que significa que startups, parceiros tecnológicos e freelancers poderiam se enquadrar como prepostos em determinados cenários, reforçando a responsabilidade objetiva do tomador de serviço.

Parece-nos que, no contexto da inteligência artificial, essa expansão da figura do preposto é especialmente relevante, dado que o desenvolvimento de sistemas de IA envolve frequentemente cadeias complexas de subcontratação, nas quais é difícil identificar, com precisão, quem detém o controle efetivo sobre o algoritmo e quem deve, portanto, responder pelos danos causados pelo sistema.

A Analogia com o Art. 2049 do Codice Civile Italiano

Em alguns países, como a Itália, questiona-se a possibilidade de aplicar por analogia o art. 2049 do Codice Civile, relativo à responsabilidade do empregador pelos atos de seus empregados — dispositivo que estabelece que "os empregadores e comitentes são responsáveis pelos danos causados por ato ilícito de seus empregados domésticos e prepostos, quando praticados no exercício das atribuições que lhes foram designadas". Obviamente, o primeiro obstáculo a essas teses é o de que as normas que tratam do tema foram concebidas considerando a propensão humana a falhas culposas ou dolosas — e não as falhas de sistemas computacionais dotados de autonomia algorítmica.

Verifica-se que a doutrina italiana, representada por autores como D'Alfonso e Ruffolo, aponta que a analogia com o art. 2049 pressupõe a existência de uma relação de direção e controle entre o preponente e o preposto — relação que, no caso de sistemas de IA de alta autonomia, pode ser profundamente assimétrica ou mesmo inexistente. O sistema de IA não "obedece" ao empregador da mesma forma que um empregado humano: ele processa dados, identifica padrões e toma decisões de acordo com sua arquitetura interna, que pode evoluir de forma imprevisível à medida que o sistema aprende com novos dados.

O PL 2.338/2023 e a Responsabilidade dos Agentes da IA

No Brasil, o PL 2.338/2023 estabelece, em seus arts. 20 e 21, medidas de governança específicas para sistemas de IA de alto risco — categoria que inclui, entre outros, sistemas utilizados em recrutamento e seleção de empregados, avaliação de desempenho, concessão de crédito e tomada de decisões em áreas sensíveis como saúde e segurança pública. Os arts. 22 a 24 do PL tratam da avaliação de impacto algorítmico, exigindo que os agentes de IA identifiquem e mitiguem os riscos de seus sistemas antes de sua implantação.

Parece-nos que essas disposições do PL 2.338/2023 criam, de forma indireta, um padrão de conduta esperada dos desenvolvedores e operadores de IA — padrão cujo descumprimento pode ser invocado como elemento de culpa na ação regressiva do empregador contra o programador que, por negligência ou imperícia, deixou de observar os protocolos de segurança exigidos. De forma similar, o AI Act europeu, em seus arts. 9º, 10º, 14º e 15º, estabelece obrigações de gestão de riscos, governança de dados, supervisão humana e cibersegurança para sistemas de alto risco — obrigações cujo descumprimento pode gerar responsabilidade para o desenvolvedor e, indiretamente, para o empregador.

Síntese: A Teoria do Risco como Fundamento da Responsabilidade Objetiva na Era da IA

Verifica-se, em síntese, que a responsabilidade objetiva do empregador pelos atos do empregado, prevista nos arts. 932, III, e 933 do Código Civil de 2002, oferece um modelo de imputação adequado para os casos em que os danos causados por sistemas de IA são atribuíveis a condutas de desenvolvedores ou operadores que atuam sob a direção e no interesse de uma organização empresarial.

A teoria do risco, que fundamenta esse regime, é coerente com a natureza dos sistemas de IA: quem coloca em circulação um produto ou serviço baseado em inteligência artificial, e se beneficia economicamente de sua eficiência ou inovação, deve garantir a reparação de eventuais danos a terceiros. Essa lógica não apenas preserva a proteção das vítimas, mas também favorece a previsibilidade jurídica e incentiva os agentes da cadeia de IA a adotarem medidas proativas de gestão de riscos — o que, em última análise, contribui para o desenvolvimento seguro e responsável da tecnologia.

Parece-nos que a construção doutrinária e normativa em torno da responsabilidade do empregador pelo empregado no contexto da IA deve, portanto, partir dos fundamentos sólidos estabelecidos pelo Código Civil de 2002 e pela legislação complementar — CDC, LGPD e, futuramente, o marco regulatório do PL 2.338/2023 —, adaptando esses instrumentos às especificidades técnicas e jurídicas dos sistemas autônomos sem romper com a coerência do ordenamento vigente.

EmpregadorEmpregadoResponsabilidade Vicária

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.