Considerações Introdutórias
Os impactos e as consequências das teorias da causalidade sobre o regime de responsabilidade civil por danos causados por sistemas de inteligência artificial são de primeira grandeza para o operador do direito contemporâneo. Parece-nos que a análise dessas repercussões práticas exige, além do domínio das teorias clássicas, a compreensão das principais iniciativas regulatórias em vigor e em elaboração, tanto no plano nacional quanto no plano internacional.
Verificou-se que a teoria do escopo da norma — também denominada teoria da finalidade da norma ou Schutzzweck der Norm — ocupa posição cada vez mais relevante nesse debate, por sua capacidade de articular as exigências do nexo causal com os fins protetivos das normas regulatórias aplicáveis a cada setor de atividade. O cotejo entre essa teoria e os marcos normativos da inteligência artificial revela impactos e consequências de grande alcance para a distribuição de responsabilidades na cadeia produtiva do setor.
A Teoria do Escopo da Norma: Fundamentos e Função
A teoria do escopo da norma fundamenta-se na proposição de que a responsabilidade civil só se configura quando o dano sofrido pela vítima se insere no âmbito de proteção da norma violada pelo agente. Em outros termos, não basta que a conduta do agente tenha causado materialmente o dano; é necessário que esse dano seja exatamente o tipo de resultado que a norma pretendia prevenir ao impor a obrigação violada.
Na sequência causal, a teoria da finalidade da norma enfatiza que o evento danoso deve ser diretamente vinculado ao risco que a lei desejava prevenir. Parece-nos que essa formulação tem a virtude de conferir coerência sistemática à análise causal, impedindo que normas de proteção específica sejam invocadas para fundamentar a reparação de danos que não se inserem em seu âmbito teleológico.
A aplicação da teoria do escopo da norma ao direito da inteligência artificial é particularmente fecunda, pois os marcos regulatórios emergentes — AI Act, PL 2338/23, LGPD — definem com relativa precisão os riscos que pretendem prevenir, oferecendo ao intérprete um ponto de referência normativo para a delimitação do nexo causal.
Impactos e Consequências: O Caso dos Sistemas de Triagem Médica por IA
Para ilustrar os impactos e consequências da teoria do escopo da norma em sua interação com os marcos regulatórios da inteligência artificial, recorre-se ao seguinte caso hipotético. Uma startup desenvolve um sistema de IA para triagem e aconselhamento médico, comercializado a clínicas e plataformas de telemedicina. Essa solução utiliza algoritmos de aprendizado de máquina para analisar dados de pacientes — incluindo histórico de sintomas e sinais vitais —, fornecendo orientações iniciais e indicando, por exemplo, a necessidade de consultas presenciais ou exames complementares.
Por lidar com dados sensíveis e saúde, o sistema poderia ser enquadrado como de "risco elevado" pelo art. 6º do AI Act europeu (Regulamento UE 2024/1689) e como de "alto risco" pelos arts. 17 e 18 da redação atual do PL 2338/23, além de se submeter às regras do Código de Defesa do Consumidor e do Código Civil. O PL 2338/23, em seu art. 17, IX, expressamente inclui entre os sistemas de alto risco aqueles destinados a "auxiliar diagnósticos e procedimentos médicos", e seu art. 18 prevê a atualização da lista conforme critérios como o potencial de impactar negativamente direitos e liberdades dos usuários.
Num cenário verossímil, alguma clínica de telemedicina confia excessivamente nas análises preditivas do sistema, dispensando a avaliação presencial de um paciente com sintomas atípicos que o algoritmo classifica como de "baixo risco". O paciente, que na verdade apresentava quadro emergencial, não recebe atendimento adequado e sofre danos graves à saúde.
Sob a perspectiva da teoria do escopo da norma, a pergunta central é: as normas violadas — requisitos do AI Act, obrigações do PL 2338/23, deveres de qualidade do CDC — tinham como finalidade prevenir exatamente esse tipo de dano? A resposta, parece-nos, é afirmativa: as obrigações de testagem, validação e monitoramento impostas para sistemas de IA de alto risco em aplicações de saúde existem precisamente para evitar que pacientes sejam prejudicados por triagens algorítmicas incorretas. O dano sofrido pelo paciente se insere plenamente no âmbito de proteção dessas normas, fundamentando a responsabilização do desenvolvedor do sistema.
Consequências para a Distribuição de Responsabilidades
Os impactos da teoria do escopo da norma sobre a distribuição de responsabilidades na cadeia produtiva da inteligência artificial são significativos. Verificou-se que a teoria permite uma alocação mais precisa de responsabilidades entre os diferentes agentes: o desenvolvedor responde pelos danos que decorrem da violação de normas de desenvolvimento e testagem; o operador responde pelos danos que decorrem da violação de normas de implantação e monitoramento; o usuário comercial responde pelos danos que decorrem da violação de normas de uso adequado.
Essa distribuição é especialmente relevante no contexto do PL 2338/23, que distingue entre "fornecedor" e "operador" de sistemas de IA, atribuindo a cada um obrigações específicas. A consequência prática da teoria do escopo da norma, combinada com essa distinção regulatória, é que a vítima poderá acionar aquele dos agentes cujas obrigações específicas visavam prevenir o tipo de dano por ela sofrido.
O AI Act europeu reforça esse modelo ao estabelecer obrigações diferenciadas para fornecedores (providers), distribuidores (distributors) e utilizadores (deployers) de sistemas de IA de risco elevado, criando um mapa de responsabilidades que pode ser utilizado como referência interpretativa no direito brasileiro.
Impactos sobre o Ônus da Prova
Uma das consequências mais relevantes da aplicação da teoria do escopo da norma em combinação com os marcos regulatórios da inteligência artificial diz respeito ao ônus da prova do nexo causal. Parece-nos que a demonstração de que o desenvolvedor violou obrigações específicas impostas para prevenir determinado tipo de dano cria, no mínimo, uma presunção relativa de causalidade entre a violação e o dano sofrido pela vítima.
O Código de Defesa do Consumidor, em seu art. 6º, VIII, autoriza a inversão do ônus da prova quando for verossímil a alegação do consumidor ou quando ele for hipossuficiente. Em casos envolvendo sistemas de IA de alta complexidade técnica, a verossimilhança da alegação causal — reforçada pela demonstração de descumprimento das normas regulatórias — justifica a inversão, deslocando para o desenvolvedor ou operador o ônus de demonstrar a ausência de nexo causal.
Conclusão
Verificou-se que os impactos e consequências da teoria do escopo da norma sobre o regime de responsabilidade civil por danos causados por sistemas de inteligência artificial são de grande alcance e precisam ser compreendidos em articulação com os marcos normativos vigentes e em elaboração. Parece-nos que a teoria oferece instrumentos metodológicos valiosos para a delimitação do nexo causal em contextos tecnologicamente complexos, permitindo tanto a proteção adequada das vítimas quanto a distribuição equânime de responsabilidades entre os agentes da cadeia de IA. O diálogo entre a teoria do escopo da norma, o PL 2338/23, o AI Act europeu, a LGPD e o Código de Defesa do Consumidor representa, nesse sentido, a fronteira mais promissora para o desenvolvimento da responsabilidade civil da inteligência artificial no Brasil.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".