Os Três Regimes do PL 2.338/2023 e suas Tensões Internas
A redação atual do PL 2.338/2023 prevê três regimes de responsabilidade com enorme potencial de choque normativo. O art. 27, § 1º, prescreve que o fornecedor ou operador de sistemas de IA de alto risco ou risco excessivo respondem objetivamente pelos danos causados — e o profissional liberal que utiliza de tecnologia com IA para o desenvolvimento de sua atividade estará abrangido pelo conceito de "operador", conforme o art. 4º, III, que define operador como "pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial". Em sequência, o § 2º do mesmo art. 27 estabelece que, nos demais casos — sistemas que não são considerados de alto risco —, haverá presunção de culpa do agente, com inversão automática do ônus probatório. Por sua vez, o art. 29 do mesmo diploma afirma que danos causados por sistemas de IA nas relações de consumo continuam sob a égide do CDC, devolvendo a responsabilidade pessoal do profissional liberal, nessa ótica, à necessidade de demonstração de culpa que não se presume, nos termos do art. 14, § 4º, do CDC.
Parece-nos que essa arquitetura tríplice, longe de representar uma solução harmônica, cria zonas de ambiguidade que dificultarão a aplicação prática do diploma. A principal tensão reside entre o art. 27, § 1º — que objetiva a responsabilidade do operador de sistemas de alto risco —, e o art. 29 — que preserva o regime subjetivo do CDC para relações de consumo —, sem que o projeto estabeleça critério claro de prevalência.
O Profissional Liberal como Operador de IA
A inclusão do profissional liberal no conceito de "operador" é, sem dúvida, o ponto mais controverso do regime de responsabilidade proposto pelo PL 2.338/2023. Verificou-se que, ao qualificar como operador qualquer pessoa que empregue ou utilize sistema de IA em seu nome ou benefício, o projeto potencialmente abrange médicos, advogados, engenheiros, contadores e demais profissionais que adotem ferramentas de IA como suporte ao exercício de suas atividades.
A consequência mais imediata e perturbadora dessa qualificação é que, em relação a sistemas de IA de alto risco, o profissional liberal poderia ser responsabilizado objetivamente — regime que o CDC, em seu art. 14, § 4º, expressamente excluiu para esses profissionais, preservando a apuração mediante verificação de culpa. A contradição entre os dois diplomas é evidente, e o projeto não a resolve, limitando-se, no art. 29, a declarar que as relações de consumo continuam regidas pelo CDC — sem esclarecer se isso afasta a responsabilidade objetiva do art. 27, § 1º, quando o operador for profissional liberal.
O Paradoxo da Medicina Defensiva Omissiva
Especificamente no campo da medicina, Eugênio Facchini Neto e Augusto Pereira Costa ressaltam o risco de se adotar responsabilidade objetiva do médico pelo uso de IA: a criação de um "efeito paradoxal", em que o profissional que utiliza algoritmos em prol do paciente ficaria sujeito a regime mais severo do que aquele que se recusa a modernizar-se. O receio de maior ônus levaria à adoção de "medicina defensiva de natureza omissiva", em que o profissional preferiria não recorrer à IA, mesmo que fosse útil ao paciente.
Parece-nos que esse paradoxo não é exclusivo da medicina. O mesmo raciocínio aplica-se ao advogado que utiliza IA para pesquisa jurisprudencial, ao engenheiro que emprega algoritmos de otimização estrutural e ao contador que adota sistemas automatizados de análise fiscal. Em todos esses casos, a objetivação da responsabilidade do profissional liberal pelo uso de IA pode produzir incentivos perversos que prejudicarão, em última análise, os próprios clientes que se pretende proteger.
Propostas de Ajuste ao Regime de Responsabilidade
À luz das reflexões expostas, parece-nos possível formular algumas propostas de ajuste ao regime de responsabilidade do PL 2.338/2023. A primeira proposta consiste em distinguir, dentro do conceito de "operador", o operador empresarial — que utiliza IA como instrumento de sua atividade econômica habitual — do profissional liberal que adota IA como ferramenta de apoio ao exercício de sua profissão regulamentada. Para este último, a manutenção do regime subjetivo — ou, no máximo, a presunção relativa de culpa — parece mais coerente com a tradição jurídica brasileira e com os objetivos de política pública de incentivar a adoção de IA nas profissões.
A segunda proposta consiste em criar um regime de responsabilidade diferenciado para o desenvolvedor e para o operador de sistemas de alto risco. O desenvolvedor, que cria e comercializa o sistema, assume maior responsabilidade pelo design do produto e deve responder objetivamente pelos defeitos intrínsecos ao sistema. O operador profissional liberal, que utiliza o sistema como ferramenta, deveria responder pelo uso inadequado — aferido subjetivamente — e ter direito de regresso integral contra o desenvolvedor quando o dano decorrer de defeito do produto.
A Necessidade de Diálogo entre as Fontes Normativas
Verificou-se que o problema central do regime de responsabilidade proposto pelo PL 2.338/2023 não é a insuficiência de cada regra isoladamente considerada, mas a ausência de um mecanismo claro de articulação entre as diferentes fontes normativas. O projeto se sobrepõe ao CDC sem revogá-lo expressamente; cria um regime de responsabilidade objetiva para operadores sem excluir expressamente o profissional liberal; estabelece presunção de culpa para sistemas de risco moderado sem definir critérios objetivos para distingui-los dos sistemas de alto risco.
Parece-nos que a aprovação do PL 2.338/2023 — ou de qualquer outro marco regulatório da IA no Brasil — deve ser acompanhada de um esforço sistemático de harmonização com o CDC, o Código Civil, a LGPD e os regimes setoriais específicos, sob pena de gerar um quadro normativo fragmentado e contraditório que comprometa tanto a proteção das vítimas quanto a segurança jurídica dos agentes inovadores. A articulação entre as diferentes fontes normativas não é tarefa fácil, mas é condição indispensável para que o direito brasileiro possa responder adequadamente aos desafios da inteligência artificial.
Reflexões Conclusivas
As reflexões aqui desenvolvidas apontam para a necessidade de uma abordagem gradualista e diferenciada na regulação da responsabilidade por IA no Brasil. Gradualista porque os regimes de responsabilidade devem evoluir acompanhando o desenvolvimento tecnológico e o acúmulo de experiência jurisprudencial; diferenciada porque os múltiplos contextos de uso da IA — medicina, direito, finanças, administração pública — exigem soluções normativas que respeitem as especificidades de cada setor.
O PL 2.338/2023, em sua redação atual, representa um passo importante nessa direção, mas ainda carece dos ajustes aqui propostos para que possa cumprir adequadamente sua função de proteção das vítimas de danos causados por sistemas de inteligência artificial, sem criar os efeitos perversos que a aplicação irrefletida da responsabilidade objetiva ao profissional liberal certamente produziria.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".