Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Dimensões Contemporâneas

Dimensões contemporâneas do nexo de imputação pela IA no Judiciário e advocacia: LOMAN, OAB, art. 37 CF, responsabilidade do Estado e limites da responsabilidade subjetiva judicial.

Alessandro Lavorante 28 de fevereiro de 2025 6 min de leitura

A IA nas Carreiras Jurídicas: Advogados e sua Responsabilidade

Situação igualmente delicada coloca-se na adoção de IA nas carreiras jurídicas — privadas ou públicas. O art. 34 do Estatuto da OAB prevê que os advogados são responsáveis pelos atos que, no exercício profissional, praticarem com dolo ou culpa. Essa responsabilidade subjetiva, consagrada há décadas, confronta-se hoje com um cenário em que sistemas de IA são utilizados para pesquisa jurisprudencial, elaboração de peças processuais, análise de contratos e até para a formulação de pareceres jurídicos.

Parece-nos que, nesse contexto, o advogado que adota ferramenta de IA em sua prática profissional não se isenta de responsabilidade por eventuais erros do algoritmo — ao contrário, o uso profissional de IA integra-se à esfera de responsabilidade do causídico, que deve verificar e validar os resultados produzidos pelo sistema antes de apresentá-los ao cliente ou ao tribunal. A delegação irrestrita ao algoritmo, sem supervisão humana qualificada, pode configurar imperícia ou negligência, especialmente quando o erro algorítmico era identificável por um profissional diligente.

Verificou-se, ademais, que o uso de IA generativa na elaboração de peças processuais cria riscos específicos, como a produção de citações jurisprudenciais inexistentes — fenômeno já documentado em casos de tribunais estrangeiros e que começa a surgir no Brasil. A apresentação de citações falsas ao tribunal pode configurar não apenas negligência civil, mas também conduta contrária à ética profissional, sujeita a sanções disciplinares pela OAB.

A Magistratura e os Limites da LOMAN

Pelo lado do Judiciário, a Lei Orgânica da Magistratura Nacional (LOMAN) prevê que o magistrado será responsabilizado, por danos causados, apenas em caso de dolo; pela redação do dispositivo, sequer negligência ou imprudência ensejam sua responsabilização pessoal. Obviamente, à época da elaboração da LC 35/1979, as ideias sobre sistemas autônomos ou tecnologias congêneres não entravam em discussão no âmbito legislativo.

Passados quase cinco décadas, todavia, permanece igual a redação do dispositivo. Por isso, o alerta de Eduardo Tomasevicius Filho: se um software "decide" processos, imputar conduta dolosa a um programa ou ao juiz que o utiliza seria artificial — conduzindo, na prática, a uma irresponsabilidade civil pela tomada de decisões enviesadas ou errôneas mediadas por IA.

Parece-nos que esse paradoxo normativo exige revisão legislativa urgente. A crescente utilização de sistemas de IA pelo Poder Judiciário — para triagem de processos, análise de jurisprudência, elaboração de minutas de decisão e até para julgamento de casos de baixa complexidade — torna insustentável a manutenção de um regime de responsabilidade pessoal dos magistrados que só abrange o dolo. A adaptação da LOMAN às novas realidades tecnológicas não significa expor os juízes a responsabilidade irrestrita; significa, antes, reconhecer que o uso irresponsável de IA na atividade jurisdicional pode causar danos que merecem reparação — e que o sistema jurídico não pode simplesmente ignorar.

A Responsabilidade do Estado pelo Uso de IA na Função Jurisdicional

Indaga-se, igualmente, se, no caso de substituição plena do julgador por IA, seria aplicável o regime subjetivo do magistrado ou a responsabilidade objetiva do Estado, com fulcro no art. 37, § 6º, da Constituição Federal. A norma constitucional estabelece que "as pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa".

Verificou-se que, nessa hipótese, a responsabilidade objetiva do Estado poderia ser invocada pela vítima de decisão judicial algorítmica equivocada, independentemente de qualquer análise de culpa do magistrado ou do programador do sistema. O Estado, ao delegar a função jurisdicional a um sistema automatizado, assume integralmente o risco da atividade — e os danos decorrentes de erros algorítmicos seriam indenizáveis pelo erário, sem necessidade de demonstrar dolo ou culpa de qualquer agente humano específico.

Essa solução — responsabilidade objetiva do Estado pelo uso de IA na função jurisdicional — parece-nos a mais coerente com o sistema constitucional brasileiro e com os princípios de proteção dos jurisdicionados. Ela não dispensa, contudo, o desenvolvimento de mecanismos de controle e auditoria dos sistemas de IA utilizados pelo Judiciário, pois a responsabilidade objetiva do Estado, sem os correspondentes mecanismos preventivos, pode tornar-se um instrumento de socialização irresponsável dos custos de uma inovação tecnológica mal gerida.

O Ministério Público e os Membros das Carreiras de Estado

A situação é similar para os membros do Ministério Público, cujo regime de responsabilidade civil está positivado no CPC, art. 181: o membro do Ministério Público será civil e regressivamente responsável quando agir com dolo ou fraude no exercício de suas funções. Aqui, o mesmo problema se coloca: se um promotor de justiça utiliza sistema de IA para fundamentar uma denúncia ou para recomendar uma medida cautelar, e o sistema produz resultado equivocado que causa dano ao acusado, a demonstração de dolo ou fraude será extremamente difícil — senão impossível — na maioria dos casos.

Parece-nos que a solução passa, mais uma vez, pela distinção entre a responsabilidade pessoal do membro da carreira — que deve ser aferida subjetivamente, como exige a tutela da independência funcional — e a responsabilidade institucional do Estado ou da instituição, que pode ser objetiva quando o dano decorrer de falha de sistema de IA utilizado institucionalmente.

Dimensões Contemporâneas: Algoritmização do Poder e Tutela dos Direitos

As dimensões contemporâneas do nexo de imputação no Judiciário e nas carreiras jurídicas revelam um problema mais profundo: a "algoritmização do poder" — expressão com que a doutrina designa o processo pelo qual decisões que afetam direitos fundamentais são progressivamente transferidas a sistemas automatizados — gera déficits de accountability que o direito da responsabilidade civil, em sua configuração atual, não tem condições de suprir sozinho.

A tutela dos direitos dos cidadãos diante de decisões algorítmicas no âmbito do Poder Público exige não apenas mecanismos reparatórios — indenização ex post —, mas sobretudo instrumentos preventivos: direito à explicação das decisões automatizadas, direito à revisão humana, direito de contestar os dados e os modelos utilizados. Esses instrumentos, em parte já previstos na LGPD (art. 20) e sugeridos pelo PL 2.338/2023, constituem a fronteira entre a responsabilidade reativa e a governança preventiva da IA — dimensão que o direito brasileiro precisa desenvolver com urgência.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.