Além do levantamento bibliográfico, foi realizada uma pesquisa documental abrangente, envolvendo tratados internacionais, legislações e propostas regulatórias, com destaque para as desenvolvidas no Brasil e na União Europeia. A análise incluiu decisões judiciais e pareceres relevantes para compreender as práticas jurídicas em ambos os sistemas, identificando como os tribunais têm enfrentado — ou evitado — as questões de responsabilidade civil por danos causados por sistemas de IA. Por fim, empregou-se uma abordagem analítica e comparativa, examinando jurisprudência e teorias do risco, identificando convergências e divergências entre o ordenamento jurídico brasileiro e as propostas elaboradas especificamente para o contexto da IA no âmbito europeu.
A discussão teórica foi intercalada, sempre que possível, com exemplos práticos extraídos de casos reais ou de situações hipotéticas suficientemente verossímeis para ilustrar os problemas concretos de imputação. Essa escolha metodológica decorre da convicção de que o Direito, para ser útil, precisa dialogar com a realidade que pretende regular. Análises puramente abstratas dos institutos da responsabilidade civil, embora necessárias como ponto de partida, perdem relevância se não forem capazes de responder às perguntas que médicos, engenheiros, magistrados e advogados enfrentam no cotidiano de suas práticas profissionais.
O trabalho está dividido em três capítulos principais, cada qual com uma função específica no conjunto da argumentação. No Capítulo 1, é realizada uma introdução conceitual e técnica da inteligência artificial, com foco no detalhamento de suas bases tecnológicas. Inicialmente, são apresentadas distintas definições de IA — desde as clássicas propostas por Alan Turing e John McCarthy até as formulações contemporâneas adotadas pelo Regulamento Europeu de IA —, até se chegar a uma conceituação que atenda às necessidades específicas do estudo. Após abordar a trajetória histórica da IA, que enfatiza a dinamicidade de seus avanços e os chamados "invernos da IA", adentra-se nas principais categorias e aspectos técnicos fundamentais, explorando elementos como as redes neurais artificiais, o aprendizado profundo e outras técnicas avançadas que compõem as infraestruturas tecnológicas a sustentar a autonomia dos sistemas de IA.
Tais esclarecimentos técnicos são necessários para fornecer embasamento sólido às discussões jurídicas dos capítulos subsequentes. Não é possível discutir, com rigor, a responsabilidade civil por danos causados por um sistema de aprendizado por reforço sem compreender minimamente como esse sistema toma decisões e por que pode falhar. Tampouco é possível avaliar a adequação das propostas regulatórias em tramitação sem entender a distinção entre IA preditiva e IA generativa, entre sistemas de alto risco e sistemas de risco limitado, categorias estas que o próprio AI Act europeu adota como estruturantes de seu regime de responsabilidade.
No Capítulo 2, são examinados os elementos objetivos que compõem a responsabilidade civil — conduta ilícita ou antijurídica, dano e nexo causal —, considerando as intensas transformações por que passaram no século XX, agora intensificadas pelo advento dos sistemas autônomos. Analisa-se de que modo esses elementos podem ser reinterpretados e ajustados para abarcar decisões e ações realizadas por tecnologias altamente complexas e, muitas vezes, imprevisíveis. A questão do dano merece atenção particular: como quantificar e qualificar os danos causados por vieses algorítmicos, por exemplo, quando eles afetam não apenas indivíduos identificados, mas categorias inteiras de pessoas de forma difusa?
Discute-se, nesse mesmo capítulo, o impacto das inovações trazidas pela IA no arcabouço tradicional do dever de indenizar, especialmente quando se colocam em xeque a conduta humana direta e a linearidade do nexo de causalidade. A causalidade múltipla e a causalidade alternativa — problemas já conhecidos da doutrina civilista — ganham novas dimensões quando o dano resulta de uma cadeia de decisões tomadas por um sistema autônomo ao longo de meses ou anos de operação, sem que nenhum ser humano específico tenha deliberado sobre o resultado final. Como aplicar, nesse cenário, o art. 403 do Código Civil, que limita a indenização aos danos que sejam efeito direto e imediato do inadimplemento?
No Capítulo 3, o foco recai sobre os critérios de imputação de responsabilidade, a partir da premissa de que o nexo de imputação constitui um elemento que exige dedicação própria dentro da responsabilidade civil — colocando em revisão a dicotomia entre responsabilidades subjetiva (calcada na culpa) e objetiva (baseada no risco), principalmente frente às complexidades que as tecnologias de hoje impõem. Nesse percurso, busca-se os fundamentos que as diferentes teorias do risco — como o risco-proveito e o risco-criado — oferecem nos cenários em que a inteligência artificial, por suas características de autonomia e novidade, escapa da subsunção imediata à letra da lei.
A análise passa ainda pela verificação das nuances de participação e responsabilização de diversos agentes — desenvolvedores, fabricantes, operadores, Estado, particulares —, considerando, sobretudo, situações em que a intervenção humana no momento do dano se revela mínima ou inexistente. Por fim, examina-se a viabilidade, em nosso ordenamento, da adoção de teorias que flexibilizam arcabouços específicos de imputação da responsabilidade civil — como culpa in eligendo e culpa in vigilando, responsabilidade indireta, fato da coisa inanimada e, até mesmo, por aproximação analógica, o regime do fato do animal — na tentativa de encontrar um regime que se adeque às especificidades da IA sem demandar uma ruptura legislativa imediata.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".