A partir dos casos concretos que emergem da difusão acelerada da inteligência artificial — diagnósticos médicos equivocados gerados por algoritmos de aprendizado profundo, decisões creditícias discriminatórias produzidas por sistemas de pontuação automatizada, acidentes envolvendo veículos autônomos — percebe-se a necessidade de aprofundar a análise dos elementos fundamentais da responsabilidade civil. Dano, nexo causal, conduta e nexo de imputação constituem os pilares sobre os quais se edifica a obrigação de reparar, e é justamente sua aplicação às realidades trazidas pela IA que desafia os operadores do direito contemporâneo.
Cabe ressaltar, de início, que a questão não é meramente acadêmica. O Brasil conta com mais de 50 milhões de usuários ativos de serviços mediados por algoritmos, e a ausência de um marco regulatório específico e consolidado impõe um ônus crescente sobre a doutrina e a jurisprudência, que precisam adaptar categorias jurídicas tradicionais a contextos para os quais não foram originalmente concebidas. O Projeto de Lei 2.338/2023, em tramitação no Senado Federal, representa o esforço legislativo mais estruturado até o momento, ao propor princípios de transparência, accountability e avaliação de impacto para sistemas de IA de alto risco. Contudo, sua aprovação não elimina a necessidade de compreender como os institutos já vigentes — notadamente o Código Civil, a Lei Geral de Proteção de Dados (Lei 13.709/2018) e o Código de Defesa do Consumidor — se articulam com as especificidades tecnológicas em questão.
Poder-se-ia objetar que as ferramentas jurídicas existentes são suficientes para dar conta das novas realidades, bastando interpretá-las com criatividade hermenêutica. Esse argumento não deve ser descartado sem análise. Afinal, o Código Civil brasileiro, especialmente após a reforma introduzida pelo Código de 2002, contempla cláusulas gerais suficientemente abertas — como a função social do contrato (art. 421), a boa-fé objetiva (art. 422) e a responsabilidade por atividade de risco (art. 927, parágrafo único) — que permitem acolher situações não previstas pelo legislador histórico. O Supremo Tribunal de Justiça português e o Bundesgerichtshof alemão já aplicaram raciocínios análogos a casos envolvendo plataformas digitais, sem necessidade de legislação específica.
Todavia, parece-nos que essa perspectiva, embora não desprezível, subestima as peculiaridades dos sistemas de IA modernos. A opacidade dos modelos de aprendizado profundo — o chamado problema da "caixa-preta" — dificulta a identificação de quem, exatamente, deu causa ao resultado danoso: foi o desenvolvedor do algoritmo base, o empresa que o treinou com determinado conjunto de dados, o operador que o implantou em ambiente específico, ou o usuário que forneceu os dados de entrada? Essa multiplicidade de agentes potencialmente responsáveis não encontra resposta satisfatória nas regras tradicionais de responsabilidade solidária, tampouco nas normas de responsabilidade objetiva pelo fato do produto, quando a IA opera de forma emergente e imprevisível.
O AI Act europeu (Regulamento UE 2024/1689), já em vigor desde agosto de 2024, oferece uma abordagem instrutiva ao classificar os sistemas de IA em categorias de risco — inaceitável, alto, limitado e mínimo — e atribuir obrigações distintas a cada categoria. Os sistemas de alto risco, como aqueles utilizados em saúde, justiça criminal e infraestrutura crítica, sujeitam-se a avaliações de conformidade prévia, registro em banco de dados público e mecanismos de supervisão humana obrigatória. Essa arquitetura regulatória orienta a distribuição de responsabilidade: quanto maior o risco potencial, maior o dever de diligência exigido do desenvolvedor e do operador, aproximando-se de um regime de responsabilidade objetiva.
No ordenamento brasileiro, a LGPD já introduz lógica semelhante ao exigir, no art. 20, que o titular de dados pessoais possa solicitar revisão humana de decisões automatizadas que afetem seus interesses — disposição que, indiretamente, reconhece que tais decisões podem causar dano juridicamente relevante e que existe um agente humano responsável por sua supervisão. O PL 2.338/2023, por sua vez, vai além ao prever avaliações de impacto obrigatórias e a figura do "agente de IA", categoria que abrange desenvolvedores, operadores e usuários com responsabilidades diferenciadas conforme o grau de controle exercido sobre o sistema.
Será examinado, nos capítulos subsequentes, como cada um desses elementos — conduta, dano, nexo causal e imputação — se manifesta nas hipóteses concretas de uso de IA. A análise partirá dos regimes de responsabilidade subjetiva e objetiva, investigando em que medida princípios tradicionais podem ou não se adaptar às particularidades dos sistemas autônomos. A indagação central que perpassa toda a investigação é: como evitar que situações de dano causado por IA permaneçam envoltas em incertezas jurídicas ou, ainda pior, resultem em completa ausência de responsabilização?
Há, nesse ponto, uma tensão normativa fundamental que não pode ser ignorada. De um lado, a previsibilidade e a segurança jurídica exigem que o responsável pelo dano seja identificável e que os critérios de imputação sejam claros e estáveis. De outro, a inovação tecnológica demanda um ambiente regulatório que não sufoque o desenvolvimento de tecnologias potencialmente benéficas. Como conciliar proteção da vítima e fomento à inovação? A resposta não está em escolher um dos polos, mas em construir um regime de responsabilidade graduado, proporcional ao risco, transparente quanto aos critérios de imputação e capaz de distribuir os custos do dano entre os agentes que efetivamente se beneficiaram da tecnologia — premissa que orienta tanto o AI Act europeu quanto a discussão legislativa brasileira em curso.
A análise que se segue busca contribuir para esse debate, oferecendo um mapeamento sistemático dos fundamentos jurídicos aplicáveis e das lacunas que ainda precisam ser endereçadas, seja pela via legislativa, seja pela construção doutrinária e jurisprudencial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".