Fundamento da Responsabilidade Vicária no Direito Brasileiro
A responsabilidade do empregador pelos atos de seu empregado — denominada responsabilidade vicária ou por fato de terceiro — constitui um dos pilares da responsabilidade civil objetiva no ordenamento jurídico brasileiro. Seu fundamento normativo está nos arts. 932, inciso III, e 933 do Código Civil de 2002: o primeiro dispositivo estabelece que são também responsáveis pela reparação civil o empregador ou comitente, por seus empregados, serviçais e prepostos, no exercício do trabalho que lhes competir, ou em razão dele; o segundo determina que as pessoas indicadas no art. 932, ainda que não haja culpa de sua parte, responderão pelos atos praticados pelos terceiros ali referidos.
A redação do art. 933 é eloquente: a responsabilidade é objetiva — "ainda que não haja culpa" —, o que significa que o empregador não pode eximir-se alegando que exerceu adequada supervisão ou que escolheu criteriosamente seus empregados. A responsabilidade decorre da simples relação de preposição e da ocorrência do dano no exercício ou em razão do trabalho.
Historicamente, a responsabilidade vicária encontrava fundamento na presunção de culpa in vigilando (falha na vigilância do empregado) ou culpa in eligendo (falha na escolha do empregado). O Código Civil de 2002, ao adotar a responsabilidade objetiva no art. 933, superou essa fundamentação subjetiva: não se trata mais de presumir culpa do empregador, mas de imputar-lhe objetivamente a responsabilidade pelos riscos que a exploração do trabalho alheio cria para terceiros — o que novamente remete à teoria do risco proveito.
A Subordinação como Elemento Estrutural
A subordinação é o elemento central que justifica a imputação da responsabilidade ao empregador. É a relação de subordinação — que inclui o poder de direção, o controle sobre o modo de execução do trabalho e a possibilidade de dar ordens e instruções — que diferencia o empregado do profissional autônomo e que fundamenta a responsabilização do empregador pelos atos daquele.
Essa subordinação, no caso do vínculo empregatício, decorre de contrato voluntário: o empregador escolheu o empregado, definiu as tarefas que ele deveria executar, determinou o modo de sua execução e auferiu os benefícios econômicos do trabalho realizado. É essa conjunção de escolha, controle e proveito que justifica que o empregador responda pelos danos causados pelo empregado a terceiros — mesmo quando o empregador não deu ordens específicas para a conduta danosa, e mesmo quando a conduta decorreu de erro ou negligência pessoal do empregado.
Aplicação Analógica: Sistemas de IA como "Substitutos Funcionais"
Transportando esses conceitos para o campo da inteligência artificial, um dos fundamentos para a aplicação analógica da responsabilidade civil do "empregador" pelos danos causados por sistemas de IA seria exatamente o da subordinação — reinterpretada para abarcar situações em que a máquina funciona como "substituto funcional" do ser humano. Assim, o hospital ou a empresa de tecnologia que se vale de um sistema autônomo assumiria o ônus de responder pelos danos dele advindos, da mesma forma que o empregador responde pelos atos de seu empregado.
Essa analogia tem suporte na doutrina da equivalência funcional: se um auxiliar humano e uma máquina autônoma desempenham a mesma função — com possibilidade de gerar prejuízos a terceiros —, não há razão para tratar de modo diverso quem aufere os benefícios econômicos da atividade. Assim, se um hospital utiliza um robô cirúrgico controlado por IA e, mesmo cumprindo deveres de cautela, ocorre um dano por falha imprevisível do robô, deve-se reconhecer a responsabilidade objetiva da instituição, pois o art. 933 do Código Civil também prescinde de perquirir a culpa do empregador.
Essa concepção atribui ao empresário, à entidade contratante ou ao desenvolvedor de IA uma responsabilidade ampliada, legitimada pela exploração econômica do sistema e pela relação — ainda que indireta — de subordinação entre o programador ou operador e a empresa que o utiliza.
Culpa in Eligendo e a Escolha do Sistema de IA
Para a aplicação da teoria vicária à IA, torna-se essencial a discussão de parâmetros técnicos para avaliar se o operador fez a melhor escolha possível ao adquirir ou utilizar determinado sistema. Se existirem sistemas de IA mais seguros no mercado — com melhores taxas de acurácia, maior transparência e mais robustos mecanismos de supervisão humana —, o operador pode ser questionado sobre sua opção por um modelo inferior, inclusive no âmbito da culpa in eligendo.
A analogia com a escolha de equipamentos e profissionais mais qualificados é elucidativa. Um hospital que contrata um médico sabidamente desqualificado para determinada especialidade e que, em razão dessa desqualificação, causa dano ao paciente, responde pela culpa in eligendo — além da responsabilidade vicária pelos atos do médico. De modo análogo, um hospital que adquire um sistema de IA para diagnóstico médico sem realizar due diligence adequada sobre sua acurácia, seus limites técnicos e sua adequação ao contexto de uso pode ser responsabilizado pela culpa in eligendo — o que, embora não seja o fundamento principal da responsabilidade vicária, pode servir como elemento complementar de imputação.
Cabe ressaltar que essa análise pressupõe a existência de parâmetros objetivos para avaliar a qualidade dos sistemas de IA — parâmetros que, atualmente, estão em processo de construção. O PL 2.338/23 contribui nessa direção ao estabelecer requisitos mínimos de conformidade para sistemas de alto risco, criando, por via reflexa, um padrão de referência a partir do qual se pode avaliar se o operador fez ou não uma escolha adequada.
Limites da Analogia: Autonomia e Imprevisibilidade
A aplicação analógica da responsabilidade vicária à IA encontra, entretanto, um limite significativo na questão da autonomia. O empregado, ainda que autônomo em certas decisões, age dentro de um quadro de referência estabelecido pelo empregador — recebe ordens, executa tarefas definidas e pode, em tese, ser supervisionado de forma contínua. O sistema de IA, especialmente em suas versões mais avançadas, pode desenvolver comportamentos que escapam completamente ao quadro de referência estabelecido pelo desenvolvedor ou operador — comportamentos emergentes que surgem da complexidade do processo de aprendizado e que não podem ser previstos nem controlados em tempo real.
Essa autonomia radical distingue, em certa medida, os sistemas de IA dos empregados humanos e coloca em questão a adequação do modelo vicário como solução única para a responsabilização por danos de IA. Quando a IA age de forma completamente autônoma e imprevisível, a relação de "subordinação" que fundamenta a responsabilidade vicária pode estar ausente na realidade — ainda que formalmente presente no contrato entre o operador e o fornecedor do sistema.
O Art. 933 como Ponto de Convergência
Não obstante essas limitações, o art. 933 do Código Civil permanece como um dos pontos de convergência mais relevantes para a imputação objetiva de responsabilidade por danos causados por sistemas de IA. A lógica dos dispositivos coincide com as teorias do risco, na medida em que atribui a quem controla, desenvolve ou lucra com a IA a obrigação de responder pelos danos resultantes de sua atuação — independentemente de culpa e independentemente de que o comportamento danoso fosse ou não previsível.
A questão que remanesce é qual parâmetro de exoneração seria admissível nesse regime: pela teoria do risco-proveito, a mera obtenção de benefício econômico com a atividade fundamenta a responsabilidade; pela teoria da equivalência funcional, a substituição do trabalho humano pela máquina produz os mesmos efeitos jurídicos que a relação de emprego; pela teoria do risco do empreendimento, a simples introdução do sistema no mercado é suficiente para imputar responsabilidade ao empresário.
O que parece claro — a partir da análise aprofundada da responsabilidade do empregador pelo empregado e de sua aplicação analógica à inteligência artificial — é que o direito brasileiro dispõe de instrumentos suficientemente flexíveis para garantir a reparação de danos causados por sistemas autônomos, desde que o intérprete esteja disposto a realizar o necessário trabalho de adaptação hermenêutica. A construção desse regime adaptado é tarefa urgente, dado o ritmo acelerado de implantação de sistemas de IA em setores sensíveis da economia e da sociedade — e é precisamente esse trabalho que a doutrina, a jurisprudência e o legislador brasileiro estão sendo chamados a realizar.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".