Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Questões Emergentes

Questões emergentes da responsabilidade por IA no serviço público: servidores como operadores, antinomias do PL 2338/23, uso institucional versus pessoal e evolução histórica da culpa civil.

Alessandro Lavorante 2 de março de 2025 6 min de leitura

Os Servidores Públicos como Operadores de IA

O caso dos servidores públicos em geral apresenta configuração particular: civilmente, no exercício de suas funções, só respondem por atos dolosos ou culposos, conforme o art. 122 da Lei nº 8.112/1990. Em relação ao uso de sistemas de IA, como amplamente reconhecido pela doutrina, é extremamente complexo provar esses nexos subjetivos de conduta. Entretanto, segundo o PL 2.338/2023, ao utilizarem sistemas de IA no desempenho de suas atividades, os servidores também se encontrarão abrangidos pelo conceito de "operador de IA" do art. 4º, III.

Parece-nos que essa equiparação do servidor público ao "operador" de IA abre um campo de tensão normativa de difícil resolução. O regime estatutário do servidor público foi construído sobre a premissa de que a responsabilidade pessoal exige demonstração de dolo ou culpa — princípio que tutela a independência funcional e previne o "engessamento" da administração pública por receio de responsabilização excessiva. Ao sobrepor a esse regime a responsabilidade objetiva ou a presunção de culpa do PL 2.338/2023, corre-se o risco de criar incentivos para que os servidores evitem o uso de IA em suas funções, mesmo quando tal uso seria benéfico para a eficiência do serviço público e para a qualidade das decisões administrativas.

A Antinomia entre o PL 2.338/2023 e os Estatutos Jurídicos dos Agentes Públicos

Aparentemente, haverá conflito, nos casos dos agentes públicos e políticos, entre as disposições do art. 27 do PL 2.338/2023 — responsabilidade objetiva ou presunção de culpa, a depender do nível de risco da IA utilizada — e os respectivos estatutos jurídicos. Além disso, o projeto não faz alusão à prevalência de referidas normas em caso de antinomia, como o faz com o Código de Defesa do Consumidor (art. 29).

Verificou-se, entretanto, que há uma brecha interpretativa relevante: o próprio art. 4º, III, ao cuidar de definir o operador, dispõe que este deverá usar a IA "em seu nome ou benefício". Nesse ponto, se o uso da IA for institucional — e não apenas um recurso empregado individualmente pelo servidor para ganho de tempo ou outra finalidade pessoal —, não se estaria mais cuidando de um uso para "benefício próprio", mas sim da instituição ou da própria coletividade. Tal interpretação, se acolhida pelos tribunais, poderia excluir o servidor público individual do conceito de "operador" quando ele utiliza IA no exercício de função pública regular, transferindo a responsabilidade para a pessoa jurídica de direito público — que responderia objetivamente, nos termos do art. 37, § 6º, da Constituição Federal.

A Distinção entre Uso Institucional e Uso Pessoal de IA pelo Servidor

A distinção entre uso institucional e uso pessoal de IA pelo servidor público é, portanto, crucial para a correta delimitação da responsabilidade. O servidor que utiliza um sistema de IA disponibilizado pela administração pública — como um sistema de reconhecimento facial para controle de acesso, um algoritmo de análise de risco em processos de concessão de benefícios ou um sistema de triagem de processos administrativos — está, em princípio, atuando como representante da instituição, e não como operador individual. Nesses casos, a responsabilidade primária deve recair sobre a pessoa jurídica de direito público, reservando-se a responsabilidade regressiva contra o servidor para os casos de dolo ou culpa grave.

Por outro lado, o servidor que, por iniciativa própria e sem autorização institucional, utiliza ferramenta de IA de terceiros para fundamentar uma decisão administrativa pode estar agindo como operador individual — e, nessa qualidade, sujeito ao regime do PL 2.338/2023. Parece-nos que a elaboração de políticas institucionais claras sobre o uso de IA na administração pública é condição indispensável para que essa distinção possa ser operacionalizada na prática.

A Evolução Histórica da Responsabilidade: do Elemento Moral à Garantia Social

Voltando às considerações teóricas mais amplas, no processo histórico de sua evolução, o componente moral ou "subjetivo" da responsabilidade vai, gradualmente, dando lugar à ideia de violação de deveres gerais de diligência e prudência — cujos conteúdos não são ditados apenas pela lei, mas também pela doutrina e jurisprudência. A partir disso, a responsabilidade subjetiva, embora ainda vinculada à culpa, passa a ter função de garantia, reconhecendo-se deveres de conduta orientados a um padrão social de segurança.

Verificou-se que essa evolução não é linear nem inexorável: diferentes setores do direito preservam o modelo subjetivo em graus variados, conforme as exigências específicas de cada contexto regulatório. O que a trajetória histórica demonstra, entretanto, é que o direito tende a adaptar seus instrumentos de imputação de responsabilidade às transformações econômicas e sociais — e que a inteligência artificial representa, nesse sentido, mais um capítulo de uma longa história de adaptação jurídica à inovação tecnológica.

A Insuficiência do Modelo Subjetivo Frente à Industrialização e à Digitalização

A evolução econômica e social, sobretudo a partir do final do século XIX, demonstrou que o modelo puramente subjetivo era insuficiente para tutelar relações jurídicas na sociedade industrializada. Como bem observou Pietro Trimarchi, o princípio da responsabilidade por culpa se mostrava insuficiente para resolver o problema de danos causados na operação das indústrias, pois, se não se pode evitar tais danos, ao menos deveria se garantir uma compensação, fazendo recair a responsabilidade sobre o empreendedor que aufere lucro da atividade.

Parece-nos que o mesmo raciocínio se aplica, com as devidas adaptações, ao contexto da inteligência artificial. Assim como a industrialização gerou a necessidade de modelos de responsabilidade objetiva para proteger trabalhadores e vítimas de acidentes industriais, a digitalização e a IA geram a necessidade de regimes de responsabilidade que não dependam exclusivamente da demonstração de culpa individual — pois a complexidade técnica dos sistemas e a opacidade dos processos decisórios algorítmicos tornam essa demonstração, em muitos casos, estruturalmente impossível.

Questões Emergentes para a Agenda Regulatória

As questões emergentes aqui identificadas — a responsabilidade dos servidores públicos como operadores de IA, as antinomias entre o PL 2.338/2023 e os estatutos jurídicos dos agentes públicos, e a distinção entre uso institucional e pessoal de IA — compõem uma agenda regulatória que o legislador brasileiro ainda precisa enfrentar de forma sistemática.

A resposta a essas questões não pode ser buscada apenas no direito positivo vigente, mas exige uma reflexão mais ampla sobre os valores que o sistema de responsabilidade civil deve tutelar no contexto da IA: a proteção das vítimas de danos algorítmicos, o incentivo à inovação responsável, a preservação da independência funcional dos agentes públicos e a garantia de que o Estado de Direito não seja comprometido pela "algoritmização" irresponsável das funções públicas.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.