Considerações Críticas sobre a Responsabilidade Civil e os Riscos da Atividade
O esforço regulatório contemporâneo voltado aos sistemas de inteligência artificial revela, em profundidade, as tensões latentes entre a proteção das vítimas de danos tecnológicos e a preservação de um ambiente normativo favorável à inovação. Parece-nos que a simples categorização dos sistemas de IA em graus de risco — procedimento já adotado tanto pelo PL 2338/23 quanto pelo AI Act europeu — não resolve, por si só, os dilemas de imputação de responsabilidade que emergem da complexidade técnica desses sistemas.
A Resolução 20/2020 do Parlamento Europeu, ainda que de caráter não vinculante, lançou propostas pioneiras para um regime de responsabilidade civil aplicável à IA que, ao mesmo tempo, ampliasse a proteção das vítimas e mantivesse um ambiente normativo favorável ao desenvolvimento tecnológico. Entre outras disposições diretamente relacionadas à responsabilidade civil derivada de sistemas de inteligência artificial, o texto prevê dois regimes distintos: a responsabilidade objetiva (art. 4º), para operadores de sistemas considerados de alto risco, e a responsabilidade subjetiva (art. 8º), para os demais. Chama particular atenção a regra que estabelece que somente após a compensação integral da vítima pode o operador demandado buscar o respectivo direito de regresso contra os demais responsáveis (art. 12º) — disposição que tutela, com efetividade, a posição do lesado na relação processual.
Responsabilidade Objetiva e o Art. 927 do Código Civil
No plano do direito civil brasileiro, o art. 927, parágrafo único, do Código Civil de 2002, constitui a principal base normativa para a responsabilidade objetiva derivada de atividades de risco. A amplitude da cláusula geral ali consagrada é, ao mesmo tempo, sua virtude e o principal ponto de crítica doutrinária: ao não especificar quais atividades são consideradas de risco para fins de imputação objetiva, o dispositivo confere ao julgador ampla margem interpretativa, o que pode gerar insegurança jurídica em determinados contextos.
Verificou-se, ao longo da evolução doutrinária, que a aplicação do parágrafo único do art. 927 exige que o risco seja inerente à natureza da atividade — e não meramente eventual ou acidental. Essa distinção é crucial quando se trata de sistemas de inteligência artificial: nem todo sistema dotado de aprendizado de máquina implica, por si só, risco juridicamente relevante capaz de justificar a responsabilidade objetiva. É necessário aferir, em cada caso concreto, se a atividade desenvolvida é, por sua natureza intrínseca, portadora de um grau de perigo que supera o risco ordinário imposto pela convivência social.
Quando interpretado de modo amplo, o parágrafo único do art. 927 pode abranger sistemas de IA considerados "bens perigosos" em razão de sua potencialidade de causar danos significativos e numerosos, tangenciando a concepção de "atividade de risco" que a norma visa regular. Contudo, como alertam Monteiro Filho e Rosenvald, uma aplicação indiscriminada da responsabilidade objetiva pode gerar o chamado "risco do risco da atividade", ao desincentivar avanços tecnológicos socialmente benéficos — hipótese em que o remédio jurídico produziria efeito colateral mais nocivo do que o problema que se propõe a solucionar.
A Questão da Categorização dos Riscos
Categorizar níveis de risco e regimes de responsabilidade civil envolvendo inteligência artificial não é tarefa simples. A dificuldade reside, fundamentalmente, no caráter dinâmico e evolutivo dos sistemas de IA: um sistema que opera de forma segura em determinado contexto pode tornar-se fonte de danos imprevistos quando submetido a dados ou situações para as quais não foi treinado. Essa imprevisibilidade estrutural desafia os instrumentos tradicionais de imputação de responsabilidade, que em geral pressupõem uma cadeia causal mais direta e verificável entre a conduta do agente e o dano produzido.
A doutrina especializada divide-se quanto ao critério mais adequado para definir quais sistemas de IA devem ser submetidos ao regime objetivo. Uma corrente, liderada por autores como Maia e Tepedino e Silva, advoga pela aplicação da responsabilidade objetiva apenas a soluções efetivamente dotadas de risco maior — aquelas que, em razão do grau de autonomia, da irreversibilidade dos danos potenciais e da escala de uso, superam o patamar de normalidade que o direito tolera sem imputação objetiva. Outra corrente, mais protetiva, sustenta que o simples emprego de sistemas de IA em domínios sensíveis deveria ser suficiente para ativar o regime objetivo, independentemente de uma análise casuística do grau de perigo.
Limites e Insuficiências do Regime Atual
Parece-nos que nenhuma das duas abordagens, tomada isoladamente, oferece resposta satisfatória às complexidades do fenômeno. A aplicação casuística e irrestrita da responsabilidade objetiva pode, de fato, inibir o desenvolvimento de soluções tecnológicas benéficas — especialmente em campos como o diagnóstico médico assistido por IA, onde os benefícios coletivos da tecnologia são inegáveis e os riscos, embora reais, são passíveis de mitigação por meio de governança adequada. Por outro lado, limitar a responsabilidade objetiva apenas aos sistemas expressamente listados em lei especial deixaria desprotegidas as vítimas de danos causados por tecnologias emergentes ainda não abarcadas pelo rol legal.
O PL 2338/23 tenta equilibrar essas tensões ao combinar um rol específico de domínios de alto risco com critérios de atualização periódica da lista. Ainda assim, a mera categorização regulatória não resolve a questão da distribuição dos ônus probatórios nem define com precisão os parâmetros de nexo causal aplicáveis a sistemas de IA — lacunas que a jurisprudência brasileira inevitavelmente precisará suprir.
A análise crítica dos fundamentos normativos revela, portanto, que o regime jurídico da responsabilidade civil aplicável às atividades envolvendo inteligência artificial está em formação, demandando esforço interpretativo criativo e tecnicamente rigoroso por parte dos operadores do direito. Mais do que a simples transposição de categorias doutrinárias consolidadas, o momento exige o desenvolvimento de parâmetros próprios, capazes de dar conta da especificidade técnica e dos riscos inéditos que a IA traz consigo.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".