Voltar ao Blog
ImputaçãoCapítulo 3

A Responsabilidade do Empregador pelo Empregado: Aplicações e Implicações

Aplicações e implicações da responsabilidade vicária do empregador na IA: risco-proveito, compliance algorítmico, PL 2338/23, AI Act, CDC e perspectivas para o direito civil brasileiro.

Alessandro Lavorante 15 de agosto de 2025 7 min de leitura

Da Teoria à Prática: A Responsabilidade Civil em Múltiplas Camadas

O debate sobre a responsabilidade civil derivada da inteligência artificial articula-se, como demonstrado ao longo desta análise, em múltiplas camadas. Na esfera objetiva, voltada à proteção do lesado, prevalece a obrigação do empresário ou de quem explora comercialmente a tecnologia, dado que a teoria do risco atribui o ônus de indenizar a quem aufere vantagens econômicas. Na dimensão subjetiva, é possível — porém complexo — identificar a culpa do programador, sobretudo em operações onde se registram cuidadosamente as fases de desenvolvimento e evolução do sistema.

Verifica-se que esse nível técnico e detalhado de aferição de responsabilidade envolve análise de logs, gerenciamento das versões de código, políticas de compliance e outros aspectos que requerem perícia profunda no ramo da inteligência artificial. Sem uma infraestrutura de documentação e rastreabilidade adequada — exigida, entre outros instrumentos, pelos arts. 9º a 15º do AI Act europeu e pelos arts. 19 a 24 do PL 2.338/2023 —, a identificação e prova da conduta culposa individual permanece como um dos maiores obstáculos práticos à responsabilização efetiva dos agentes envolvidos no ciclo de desenvolvimento da IA.

Sistemas Autônomos e os Limites da Responsabilidade Vicária

A partir desse panorama, nota-se o desafio central de enquadrar sistemas autônomos em modelos de responsabilidade pensados para ações humanas diretas. Nesse cenário, a responsabilidade vicária apresenta potencial analógico, mas ainda carece de adaptações substanciais para lidar com a autonomia e a imprevisibilidade de algoritmos. A experiência doutrinária aponta para a lacuna existente e discute soluções que transitam entre a manutenção do modelo de responsabilidade baseado em falha humana e a adoção de regimes híbridos com traços objetivos.

Parece-nos que os limites da responsabilidade vicária no contexto da IA são, em grande medida, os limites da própria previsibilidade do comportamento do sistema. A responsabilidade do empregador pelos atos do empregado pressupõe que o dano tenha sido causado "no exercício do trabalho" ou "em razão dele" — expressão que, no caso da IA, corresponderia aos danos causados no contexto funcional para o qual o sistema foi desenvolvido e implantado. Quando o sistema de IA produz danos que decorrem diretamente de sua função programada, a imputação ao empregador-operador é relativamente direta. Quando os danos resultam de comportamentos emergentes do sistema — não previstos nem programados —, a cadeia de imputação torna-se muito mais complexa.

O Risco do Empreendimento e o Defeito do Produto no CDC

A responsabilidade objetiva do empresário que explora comercialmente sistemas de IA encontra fundamento não apenas nos arts. 932, III, e 933 do Código Civil, mas também no art. 931 do mesmo diploma — que prevê a responsabilidade dos empresários pelo dano causado pelos produtos que colocam em circulação — e nos arts. 12 e 14 do Código de Defesa do Consumidor, que regulam a responsabilidade pelo defeito do produto e pelo defeito do serviço.

Verifica-se que, sob a perspectiva do CDC, o sistema de IA pode ser enquadrado tanto como produto — quando comercializado como software ou hardware com funcionalidades determinadas — quanto como serviço — quando oferecido em modalidade de assinatura (SaaS, PaaS, IaaS) ou integrado a outros serviços digitais. Em ambos os casos, o fornecedor responde objetivamente pelos danos causados por defeitos de concepção, fabricação ou informação — incluindo a ausência de alertas adequados sobre os limites e riscos do sistema.

Parece-nos que o conceito de "defeito de concepção" previsto no CDC é particularmente relevante para os danos causados por sistemas de IA treinados com dados enviesados, que produzem resultados discriminatórios ou inequitativos. Nesses casos, o defeito não reside em uma falha técnica do produto, mas em uma escolha de design — a seleção, curadoria e ponderação dos dados de treinamento — que determina o comportamento discriminatório do sistema. Essa é, precisamente, a situação em que a responsabilidade subjetiva do programador-preposto pode ser mais facilmente identificada, pois as escolhas de design são, em regra, documentadas e atribuíveis a indivíduos ou equipes específicas.

Implicações para a Governança Corporativa de IA

As implicações práticas do regime de responsabilidade vicária para a governança corporativa de IA são profundas. Parece-nos que, diante da responsabilidade objetiva do empregador pelos atos do programador-preposto, as empresas que desenvolvem ou operam sistemas de IA têm forte incentivo econômico e jurídico para adotar práticas robustas de compliance algorítmico — incluindo a documentação detalhada dos processos de desenvolvimento, a realização de avaliações de impacto algorítmico, a implementação de mecanismos de supervisão humana e a criação de canais de contestação e correção de decisões automatizadas.

O PL 2.338/2023, em seus arts. 20 e 21, exige que os agentes que desenvolvem ou operam sistemas de IA de alto risco implementem programas de governança que incluam, entre outros elementos: identificação e gestão dos riscos do sistema; documentação técnica adequada; registro das operações do sistema; mecanismos de supervisão humana; e procedimentos para o tratamento de incidentes e reclamações. O descumprimento dessas exigências pode gerar responsabilidade administrativa — incluindo multas e suspensão do sistema — além de fortalecer a presunção de culpa do agente em eventuais ações de responsabilidade civil.

Verifica-se, assim, que o regime de responsabilidade civil pela IA e o regime de governança algorítmica são complementares e mutuamente reforçadores: o compliance reduz o risco de responsabilização civil, enquanto a perspectiva de responsabilização civil cria incentivos para o compliance. Essa dinâmica é essencial para a construção de um ecossistema de IA seguro e responsável.

A Responsabilidade Solidária como Instrumento de Proteção das Vítimas

Em cenários de causalidade múltipla — em que o dano resulta da contribuição de vários agentes na cadeia de desenvolvimento e operação da IA —, a responsabilidade solidária apresenta-se como o instrumento mais eficaz para a proteção das vítimas. Parece-nos que a solidariedade passiva entre os agentes da cadeia de IA — desenvolvedores, fornecedores de dados, operadores e usuários profissionais — é a solução mais adequada para casos em que a contribuição individual de cada parte para o dano não pode ser precisamente determinada.

O art. 942 do Código Civil, ao estabelecer a responsabilidade solidária dos coautores de um ato ilícito, oferece base normativa para essa solução. Já o art. 7º, parágrafo único, do CDC estabelece a solidariedade passiva de todos os participantes da cadeia de fornecimento pelo fato do produto ou do serviço — disposição que é inteiramente aplicável aos casos em que o dano decorre de sistema de IA colocado em circulação no mercado como produto ou serviço de consumo.

Verifica-se que a solidariedade passiva, embora facilite a posição da vítima, cria tensões na distribuição interna dos riscos entre os agentes da cadeia. O PL 2.338/2023, em seus arts. 28 e 29, prevê critérios de imputação proporcional entre os agentes de IA — critérios que devem ser articulados com as disposições do Código Civil sobre regresso e repartição interna dos danos entre coobrigados solidários.

Conclusão: Para um Regime Jurídico Coerente e Eficaz

Em síntese, a responsabilidade do empregador pelos danos causados por sistemas de IA desenvolvidos ou operados por seus empregados constitui um dos pontos de ancoragem mais sólidos do regime de responsabilidade civil pela inteligência artificial no direito brasileiro vigente. Seu fundamento nos arts. 932, III, e 933 do Código Civil — articulado com os arts. 12 e 14 do CDC, o art. 42 da LGPD e as futuras disposições do PL 2.338/2023 — oferece uma base normativa robusta, coerente com os princípios da proteção das vítimas, da socialização dos riscos e da proporcionalidade na distribuição dos ônus entre os agentes.

Parece-nos que o principal desafio, no estágio atual de desenvolvimento doutrinário e jurisprudencial, não é a identificação do fundamento normativo da responsabilidade — que já existe e é adequado —, mas a construção de ferramentas interpretativas e probatórias que permitam a aplicação efetiva desse regime aos casos concretos de danos causados por sistemas de IA. Nesse sentido, a consolidação de padrões técnicos de auditoria e governança algorítmica, a criação de mecanismos processuais adequados para a produção de prova técnica e o desenvolvimento de uma jurisprudência especializada nos tribunais brasileiros são condições indispensáveis para que o regime de responsabilidade civil pela IA cumpra sua função de proteção efetiva das vítimas e de incentivo à inovação responsável.

EmpregadorEmpregadoResponsabilidade Vicária

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.