A Inteligência Artificial como Fenômeno Jurídico Transversal
A partir do panorama traçado ao longo desta obra, podemos observar que a inteligência artificial não só acumula décadas de pesquisa e desenvolvimento, como também se revela um fenômeno em constante evolução, marcado por distintos enfoques — IA simbólica versus subsimbólica, IA fraca versus IA forte —, diferentes metodologias — aprendizado supervisionado, não supervisionado, por reforço — e múltiplas modalidades funcionais — IA preditiva, generativa, caixas-brancas, caixas-pretas. A compreensão histórica e conceitual, ainda que necessariamente panorâmica, permite constatar que a IA não é um tema geracional ou passageiro: foi gradativamente, ao longo de décadas, sendo aperfeiçoada e incorporada ao cotidiano da sociedade, influenciando setores tão diversos quanto mercados financeiros, sistemas de transporte, serviços de saúde e produção de conteúdo.
Parece-nos que esse caráter transversal e pervasivo da IA é precisamente o que torna sua regulação jurídica tão complexa. Diferentemente de tecnologias setoriais, cujo impacto se circunscreve a domínios específicos, a inteligência artificial permeia praticamente todas as áreas da vida social e econômica, desafiando as categorias jurídicas tradicionais — que foram concebidas para regular relações humanas dotadas de agência, intencionalidade e previsibilidade.
Os Riscos Sistêmicos da IA e a Necessidade de Resposta Normativa
Ao mesmo tempo em que possibilita avanços notáveis, a IA carrega riscos relacionados a erros sistêmicos — enviesamentos de dados, alucinações ou deficiências no treinamento — e a ações imprevistas, sobretudo quando lida com algoritmos complexos ou com formas de aprendizado autônomo. Fica clara, pois, a necessidade de se discutir quem deve responder pelos resultados lesivos decorrentes de decisões tomadas por sistemas que, muitas vezes, fogem ao controle e à compreensão até mesmo de seus desenvolvedores.
Verifica-se que os casos concretos analisados ao longo desta obra — abrangendo desde falhas em algoritmos de hedge funds até incidentes com veículos autônomos e o funcionamento de plataformas de IA generativa — revelam como as mais distintas ramificações dessas tecnologias desafiam a construção de critérios satisfatórios e gerais para a definição, ex ante, de atribuição de responsabilidade pelos danos que possam gerar. Tais dificuldades normativas são agravadas, na prática, não só pela crescente autonomia desses sistemas, mas pela complexidade inerente — e que, paradoxalmente, só aumenta à medida que o sistema se expande — em se assegurar a transparência de todos os processos lógicos que os constituem.
Parece-nos que a resposta normativa a esses riscos não pode ser improvisada ou meramente reativa. Ela exige a construção deliberada de um arcabouço regulatório que antecipe os principais vetores de dano, distribua adequadamente os riscos entre os agentes da cadeia de desenvolvimento e operação da IA, e ofereça às vítimas mecanismos efetivos de reparação. É nesse espírito que devem ser interpretados tanto o Projeto de Lei nº 2.338/2023, em tramitação no Senado Federal, quanto o Regulamento (UE) 2024/1689 — AI Act —, aprovado pela União Europeia em 2024.
Os Elementos Clássicos da Responsabilidade Civil Frente à IA
A análise dos elementos clássicos da responsabilidade civil à luz da evolução normativa brasileira revela que tais categorias, embora robustas, precisam ser permanentemente reinterpretadas diante das especificidades da inteligência artificial. A análise da conduta humana — seja em ação ou em omissão — confirmou que, mesmo diante de sistemas autônomos de IA, a responsabilidade permanece circunscrita às decisões e deveres impostos a desenvolvedores, fornecedores e operadores. O direito ancora a imputação, em última medida, na voluntariedade dos atos — ilícitos ou simplesmente antijurídicos — de pessoas físicas ou jurídicas.
Em complemento, o dano — abarcando tanto prejuízos materiais quanto imateriais, individuais ou coletivos — assume papel central na definição de quais situações de fato exigem reparação, sobretudo quando os sistemas algorítmicos reproduzem vieses, violam direitos de privacidade ou ensejam comportamentos inesperados. O conceito de dano extrapatrimonial coletivo, reconhecido pela jurisprudência do Superior Tribunal de Justiça, é especialmente relevante nos casos em que um sistema de IA produz resultados discriminatórios de forma sistemática, afetando grupos inteiros de pessoas de maneira uniforme.
Parece-nos que a LGPD (Lei nº 13.709/2018), em seus arts. 42 a 45, e o PL 2.338/2023, em seus arts. 28 e 29, oferecem importantes parâmetros para a configuração do dano em contextos de IA: o tratamento irregular de dados pessoais, a tomada de decisão automatizada sem base legal ou sem a possibilidade de contestação pelo titular, e a produção de resultados discriminatórios não justificados constituem hipóteses em que o dano é presumido ou de fácil comprovação.
O Nexo de Causalidade como Nó Crítico
O estudo do nexo de causalidade mostrou-se especialmente sensível no contexto da IA: a pluralidade de agentes — programadores, proprietários, usuários, fornecedores de dados — e a autonomia dos algoritmos podem fragmentar a cadeia causal, dificultando a prova do liame entre o ato humano e o dano. As várias teorias de causalidade — desde a equivalência das condições até os enfoques da causalidade adequada, do dano direto e imediato, da imputação objetiva — apresentam saídas para a alocação de responsabilidade, mas nenhuma delas elide, isoladamente e por completo, a natureza híbrida e multifacetada dos sistemas de IA.
Verifica-se que o ordenamento brasileiro — Código Civil, Código de Defesa do Consumidor e o PL 2.338/2023 —, bem como as regulamentações internacionais — notadamente o AI Act e a Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA —, caminham no sentido de reforçar deveres de diligência, inversões ou facilitações do ônus da prova e classificações de risco, de modo a proteger a vítima diante da opacidade e do dinamismo técnico dos algoritmos.
Parece-nos que a inversão do ônus da prova — prevista no art. 6º, VIII, do CDC para as relações de consumo — constitui o instrumento mais imediato e eficaz para mitigar as dificuldades probatórias geradas pela opacidade algorítmica. No âmbito do PL 2.338/2023, a previsão de facilitação do acesso da vítima às informações sobre o funcionamento do sistema de IA — incluindo o direito à explicação das decisões automatizadas, previsto no art. 22 — complementa esse instrumento, criando condições para que o lesado possa construir sua prova de forma mais adequada.
As Excludentes de Responsabilidade e a Autonomia da IA
As hipóteses excludentes — caso fortuito ou força maior, fato exclusivo da vítima ou de terceiro e demais causas de rompimento do nexo de causalidade — permanecem relevantes no contexto da IA, mas precisam ser reinterpretadas à luz de fatores como a autonomia contínua e a possibilidade de "aprendizado" das máquinas. A teoria das concausas — concorrentes, cumulativas ou supervenientes — ganhou projeção ao evidenciar que danos tecnológicos, em geral, resultam de combinações de falhas humanas, lacunas algorítmicas e condições externas muitas vezes imprevisíveis.
Parece-nos que a principal dificuldade na aplicação das excludentes de responsabilidade ao contexto da IA reside na caracterização do "comportamento imprevisível" do sistema: quando um sistema de IA produz um resultado danoso que não estava nos padrões de comportamento esperados pelo desenvolvedor ou pelo operador, surge a questão de saber se esse resultado constitui caso fortuito interno — que não exclui a responsabilidade — ou caso fortuito externo — que a exclui. A distinção, que já é complexa no direito comum, torna-se ainda mais delicada quando o "comportamento imprevisível" é, na verdade, uma manifestação das capacidades emergentes de aprendizado do sistema.
A Solidariedade como Instrumento de Segurança Jurídica
Em cenários de causalidade múltipla, a responsabilidade solidária se torna um instrumento de segurança jurídica para a vítima — ainda que seja essencial estabelecer critérios de repartição interna de riscos e possibilidade de regresso entre os diversos agentes envolvidos no ciclo de vida de um sistema de IA.
O art. 942 do Código Civil e o art. 7º, parágrafo único, do CDC fornecem a base normativa para essa solidariedade passiva. A aplicação desses dispositivos ao contexto da IA pressupõe, contudo, a identificação de todos os agentes que contribuíram causalmente para o dano — tarefa que, como se viu, pode ser extremamente difícil nos casos de sistemas de aprendizado profundo. A solução para esse desafio pode residir na adoção de uma presunção de solidariedade entre todos os agentes da cadeia de IA que tiveram participação no ciclo de desenvolvimento e operação do sistema causador do dano, com a posterior repartição interna dos riscos segundo os critérios previstos nos arts. 28 e 29 do PL 2.338/2023.
Verifica-se, em conclusão, que o ordenamento jurídico brasileiro já dispõe de instrumentos normativos suficientes para enfrentar os principais desafios trazidos pela inteligência artificial ao campo da responsabilidade civil. O que se impõe, no estágio atual, é a construção de uma hermenêutica jurídica capaz de articular esses instrumentos de forma coerente e eficaz, à luz dos princípios constitucionais e das exigências da era digital.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".