A IA entre Objetos Inanimados e Entidades Autônomas
A inteligência artificial, ao apresentar comportamentos que podem ser simultaneamente previsíveis em seu escopo funcional e imprevisíveis em suas manifestações específicas, ocupa uma posição singular no espectro jurídico das entidades que podem causar danos a terceiros. Parece-nos que essa posição singular — a um só tempo de "coisa que exige manutenção e controle" e de "agente com comportamentos emergentes" — é o que torna tão desafiante a construção de um regime de responsabilidade civil adequado para a era da IA.
As analogias com bens inanimados e com animais, exploradas ao longo desta obra, servem para ilustrar o quanto o direito já conviveu com a necessidade de expandir os critérios de imputação para além da conduta humana direta. O regime de guarda de coisas e animais demonstra que o ordenamento é capaz de atribuir responsabilidade objetiva ao guardião de entidades que apresentam riscos intrínsecos — riscos que decorrem não de uma escolha humana específica e identificável, mas da própria natureza ou configuração do objeto sob guarda.
Verifica-se que essa lógica é plenamente aplicável à IA: o desenvolvedor ou operador que coloca em circulação um sistema de aprendizado autônomo assume, por esse ato, a posição de guardião de um agente potencialmente perigoso — e, como tal, responde objetivamente pelos danos que o sistema causar, independentemente de culpa individualmente identificável. A distinção entre guarda da estrutura — responsabilidade do desenvolvedor — e guarda do comportamento — responsabilidade do operador — que a doutrina francesa elaborou para os casos de guarda de coisas, pode ser adaptada utilmente ao contexto da IA.
O Regime de Responsabilidade Indireta e a IA
Os regimes de responsabilidade indireta demonstram que a legislação objetiva a reparação plena do dano também quando há uma relação de dependência ou subordinação que justifique repassar a outrem a obrigação de indenizar. Em cenários de IA, isso se traduz, por exemplo, na atribuição de responsabilidade ao desenvolvedor ou à organização que emprega a tecnologia em proveito próprio — ainda que o sistema opere de forma parcialmente autônoma. As noções de culpa in eligendo ou in vigilando permanecem relevantes na esfera interna — direito de regresso —, ao passo que, externamente, prevalece a proteção da vítima sob o prisma do risco.
Parece-nos que a responsabilidade indireta, no contexto da IA, encontra seu fundamento mais sólido não na equiparação do sistema autônomo a uma pessoa incapaz ou a um empregado, mas na ideia de que o agente que se beneficia economicamente de um sistema de IA e que exerce controle sobre sua implantação e operação é o mais apto a prevenir os danos que esse sistema pode causar — e, portanto, é aquele que deve suportar o custo residual dos danos que, apesar de seus esforços preventivos, ainda ocorreram.
Essa lógica — quem está em melhor posição para evitar o dano deve respondê-lo — é o fio condutor que une os diferentes regimes de responsabilidade indireta analisados nesta obra e que constitui, a nosso ver, o fundamento mais robusto para o regime de responsabilidade civil pela IA.
O Regime Misto: Responsabilidade Objetiva e Subjetiva em Articulação
Em síntese, o nexo de imputação na IA deixa claro que não basta provar a relação causal entre o evento danoso e o sistema autônomo: é preciso identificar quem deve responder, seja por culpa, por risco ou pelo cumprimento de valores como a sociabilidade e a eticidade. Tanto o ordenamento brasileiro vigente quanto as propostas nacionais e europeias tendem a um regime misto, combinando presunções de responsabilidade, inversão do ônus da prova, classificação de risco por nível de autonomia e reparação integral.
Parece-nos que esse regime misto é o mais adequado para os desafios específicos da IA. A responsabilidade objetiva — prevista nos arts. 927, parágrafo único, e 931 do Código Civil, nos arts. 12 e 14 do CDC, no art. 42 da LGPD e no art. 28 do PL 2.338/2023 — garante que as vítimas não sejam oneradas pela dificuldade de identificar condutas culposas individuais em cadeias complexas de desenvolvimento algorítmico. A responsabilidade subjetiva, por sua vez — aplicável nas relações internas entre os agentes da cadeia de IA, especialmente na ação regressiva do operador contra o desenvolvedor —, preserva os incentivos à adoção de boas práticas de desenvolvimento e evita que o risco seja externalizado de forma irresponsável.
Verifica-se que a interação entre esses dois planos — objetivo e subjetivo — cria um sistema de incentivos adequado: as empresas que exploram comercialmente sistemas de IA têm razão de investir em práticas robustas de governança algorítmica — avaliação de impacto, auditoria independente, supervisão humana, mecanismos de contestação —, pois sabem que sua responsabilidade objetiva perante as vítimas não é afastada pela simples demonstração de que agiram com boa-fé; mas também sabem que, quanto mais rigorosas forem suas práticas de conformidade, menores serão as probabilidades de que o programador-preposto seja encontrado culpado em eventual ação de regresso.
Perspectivas Regulatórias: PL 2.338/2023 e AI Act em Paralelo
O PL 2.338/2023 e o AI Act europeu representam os dois marcos regulatórios mais relevantes para a responsabilidade civil pela IA no horizonte normativo imediato. O AI Act, em vigor desde agosto de 2024, adota uma abordagem baseada em risco que classifica os sistemas de IA em quatro categorias — risco inaceitável, alto risco, risco limitado e risco mínimo — e estabelece obrigações proporcionais para desenvolvedores e operadores. Seus arts. 9º a 15º, dedicados aos sistemas de alto risco, constituem o núcleo duro do regulamento, prevendo exigências de gestão de riscos, governança de dados, transparência, supervisão humana e segurança cibernética.
O PL 2.338/2023, por sua vez, adota abordagem similar, com algumas adaptações às especificidades do contexto brasileiro. Seu art. 4º estabelece os princípios fundamentais — proteção dos direitos fundamentais, não discriminação, transparência, responsabilidade, segurança — que devem orientar o desenvolvimento e a operação de sistemas de IA no Brasil. Seus arts. 20 e 21 definem os critérios para a classificação dos sistemas de IA como de "alto risco" e as medidas de governança exigidas para esses sistemas. E seus arts. 22 a 24 estabelecem o regime de avaliação de impacto algorítmico — instrumento fundamental para a prevenção de danos e para a geração das evidências necessárias à eventual responsabilização civil dos agentes.
Parece-nos que a convergência entre o PL 2.338/2023 e o AI Act, no que respeita à estrutura de deveres e à distribuição de responsabilidades, é altamente positiva para o Brasil: ela favorece a harmonização normativa entre o direito brasileiro e o direito europeu — que representa o principal referencial regulatório mundial para a IA —, facilita a operação de empresas multinacionais em ambos os mercados e contribui para a construção de um ecossistema global de governança responsável da inteligência artificial.
Desafios para a Doutrina e a Jurisprudência Brasileiras
Os desafios que se colocam para a doutrina e a jurisprudência brasileiras, a partir do panorama traçado nesta obra, são numerosos e de diferentes naturezas. No plano doutrinário, o principal desafio é o de construir uma teoria coerente e abrangente da responsabilidade civil pela IA que seja ao mesmo tempo fiel aos fundamentos do direito civil brasileiro e sensível às especificidades técnicas dos sistemas inteligentes — sem cair nem na armadilha de tratar a IA como uma simples coisa, ignorando sua autonomia e imprevisibilidade, nem na armadilha de personificá-la, atribuindo-lhe uma subjetividade jurídica que ela não possui e que criaria problemas sistêmicos de imprevisível extensão.
No plano jurisprudencial, o desafio é o de desenvolver ferramentas processuais e probatórias adequadas para os casos de danos causados por IA — incluindo a admissão e a valoração de provas técnicas complexas, o recurso a peritos especializados em inteligência artificial, a determinação judicial de acesso a informações sobre o funcionamento dos sistemas e a gestão dos conflitos de interesse que inevitavelmente surgem quando o perito é um especialista contratado por uma das partes.
Verifica-se que a construção dessas ferramentas é urgente: os casos de danos causados por sistemas de IA já chegam aos tribunais brasileiros — em áreas como crédito ao consumidor, seleção de pessoal, concessão de benefícios previdenciários e moderação de conteúdo em plataformas digitais —, e o judiciário precisa estar preparado para enfrentá-los com critérios claros e metodologias adequadas.
Conclusão: A Responsabilidade Civil à Altura da Era Digital
Conclui-se, por fim, que a imputação da responsabilidade civil aos "fatos" da inteligência artificial não expõe verdadeiras "lacunas" no ordenamento jurídico brasileiro, mas se constrói, sobretudo, a partir de releituras coerentes dos institutos já consolidados, ajustadas aos riscos e às dinâmicas próprios da era digital.
Parece-nos que o direito civil brasileiro, ao incorporar os princípios da eticidade, da sociabilidade e da operabilidade que nortearam a elaboração do Código Civil de 2002, já dispõe dos fundamentos hermenêuticos necessários para enfrentar os desafios da inteligência artificial com criatividade, rigor e responsabilidade. O que se impõe, agora, é a construção coletiva — por juristas, tecnólogos, legisladores, julgadores e representantes da sociedade civil — de um repertório de soluções normativas e judiciais que sejam à altura da magnitude e da complexidade do desafio que a inteligência artificial coloca para o direito e para a sociedade brasileira.
É salutar que esses critérios sejam sempre rediscutidos e abertos à contribuição de toda a sociedade — pois a regulação da IA, como toda regulação de tecnologias transformadoras, é um processo contínuo de aprendizado coletivo, no qual o direito deve ser simultaneamente guia e espelho das escolhas que a sociedade faz sobre o futuro que deseja construir.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".