Discute-se, ainda, o impacto das inovações trazidas pela inteligência artificial no arcabouço tradicional do dever de indenizar, especialmente quando se colocam em xeque a conduta humana direta e a linearidade do nexo de causalidade. A responsabilidade civil clássica foi construída sobre o pressuposto de que é possível identificar um agente humano — ou uma pessoa jurídica composta por agentes humanos — cuja ação ou omissão produziu o dano. Quando um sistema de IA toma uma decisão autônoma que causa prejuízo, essa cadeia causal tradicional se fragmenta, exigindo abordagens interpretativas mais sofisticadas e, em certos casos, reformas legislativas expressas.
No Capítulo 3, o foco recai sobre os critérios de imputação de responsabilidade, a partir da premissa de que o nexo de imputação constitui um elemento que exige dedicação própria dentro da responsabilidade civil. Coloca-se em revisão a dicotomia entre responsabilidade subjetiva — calcada na culpa, nos termos do art. 186 do Código Civil — e responsabilidade objetiva — baseada no risco, conforme o parágrafo único do art. 927 do mesmo diploma —, principalmente frente às complexidades que as tecnologias de hoje impõem. A pergunta central desse capítulo é: qual desses regimes oferece a melhor solução para os danos causados por sistemas autônomos de IA, ou seria necessário construir um terceiro caminho?
Nesse percurso, buscam-se os fundamentos que as diferentes teorias do risco oferecem nos cenários em que a inteligência artificial, por suas características de autonomia e novidade, escapa da subsunção imediata à letra da lei. O risco-proveito — segundo o qual aquele que obtém benefício econômico de uma atividade deve suportar os ônus dela decorrentes — parece oferecer uma base sólida para a responsabilização de desenvolvedores e operadores de sistemas de IA com fins comerciais. O risco-criado, por sua vez, fundamenta a responsabilização de quem introduz no mercado uma tecnologia que, por sua própria natureza, cria riscos acima do patamar ordinário tolerado pela sociedade.
Isso se dá, também, através da verificação das nuances de participação e responsabilização de diversos agentes — desenvolvedores, fabricantes, operadores, Estado, particulares —, considerando, sobretudo, situações em que a intervenção humana no momento do dano se revela mínima ou inexistente. A cadeia de fornecimento de um sistema de IA complexo pode envolver dezenas de atores: empresas que fornecem os dados de treinamento, pesquisadores que desenvolvem os algoritmos, empresas que constroem a infraestrutura computacional, integradores que adaptam o sistema para aplicações específicas e usuários finais que o implantam em contextos concretos. Como distribuir a responsabilidade entre esses agentes quando um dano ocorre?
Por fim, analisa-se a viabilidade, em nosso ordenamento, da adoção de teorias que flexibilizam arcabouços específicos de imputação da responsabilidade civil — como culpa in eligendo ou in vigilando, responsabilidade indireta, fato da coisa inanimada e até o fato do animal —, na tentativa de encontrar um regime definitivo que se adeque à IA. Parece-nos que nenhuma dessas teorias, isoladamente considerada, resolve todos os problemas colocados pelos sistemas autônomos. Contudo, uma abordagem combinada e contextual — que aplique a teoria mais adequada às características específicas de cada tipo de sistema de IA e de cada cenário de dano — pode oferecer soluções juridicamente coerentes sem demandar a criação imediata de um regime inteiramente novo.
Em relação às proposições regulatórias relacionadas à inteligência artificial, os Capítulos 2 e 3 trazem, em meio às discussões teóricas, um panorama das principais iniciativas normativas tanto em âmbito nacional quanto europeu. O AI Act (Regulamento UE 2024/1689), aprovado pelo Parlamento Europeu em março de 2024 e em vigor desde agosto do mesmo ano, representa a primeira regulação abrangente de IA no mundo, adotando uma abordagem baseada em risco para categorizar os sistemas de IA e estabelecer obrigações correspondentes. No Brasil, o Projeto de Lei n. 2.338/2023, de autoria do Senador Rodrigo Pacheco, encontra-se em tramitação e representa a iniciativa legislativa mais estruturada até o momento para a regulação da IA no país.
O objetivo dessa análise regulatória é identificar tendências normativas, apontar lacunas jurídicas ainda existentes e sugerir caminhos para uma regulação equilibrada — que assegure simultaneamente a proteção dos direitos individuais e o incentivo ao desenvolvimento tecnológico. Cabe ressaltar que não existe modelo perfeito de regulação da IA: tanto a sub-regulação quanto a sobre-regulação geram custos sociais significativos. A sub-regulação deixa as vítimas de danos desprotegidas e cria incentivos perversos para o desenvolvimento irresponsável de sistemas de alto risco. A sobre-regulação, por sua vez, pode inibir a inovação tecnológica, deslocar investimentos para jurisdições com marcos normativos menos exigentes e, paradoxalmente, reduzir a segurança ao concentrar o desenvolvimento em poucos atores com maior capacidade de absorver os custos de conformidade.
Verificou-se, no exame comparativo entre os sistemas brasileiro e europeu, tanto convergências relevantes quanto divergências que merecem atenção. Ambos os sistemas adotam, em essência, uma abordagem de responsabilidade objetiva para atividades de risco elevado, fundada no princípio da proteção da confiança legítima dos usuários e terceiros afetados. As divergências, porém, residem sobretudo nos mecanismos de fiscalização, nas sanções aplicáveis e na extensão das obrigações de transparência impostas aos desenvolvedores e operadores de sistemas de IA. Essas diferenças têm implicações práticas diretas para empresas que operam em ambos os mercados simultaneamente.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".