Tendências Regulatórias em Responsabilidade Civil e Inteligência Artificial
As tendências regulatórias contemporâneas no campo da inteligência artificial revelam uma movimentação normativa convergente em direção à objetivação da responsabilidade civil para sistemas de alto risco, sem, contudo, alcançar — ao menos no estágio atual — o regime do risco integral. A análise dessas tendências exige que o intérprete compreenda tanto os fundamentos teóricos das teorias do risco quanto as opções normativas que os legisladores nacionais e supranacionais têm adotado diante dos desafios impostos pela IA.
O debate sobre a aplicação do risco integral a sistemas de inteligência artificial ganha especial acuidade quando se considera hipóteses-limite. Imagine-se um sistema de IA autônomo — designemo-lo "Sistema X" — integrado a uma infraestrutura crítica de saúde pública, responsável pela distribuição automatizada de fármacos em larga escala. A eventual falha desse sistema — seja por defeito intrínseco, por interferência externa ou por limitação dos dados de treinamento — poderia causar danos em massa de difícil reversão. Em tais circunstâncias, argumenta-se que um regime de responsabilidade integral aos desenvolvedores, fornecedores e, eventualmente, ao próprio Estado seria juridicamente justificável: qualquer defeito no Sistema X tenderia a ser irrelevante para afastar o nexo de causalidade, pois a adoção de um aparato tão autônomo e de risco tão elevado já seria, por si só, suficiente para imputar a obrigação de reparar quaisquer danos com ele relacionados.
Da Atividade ao Produto: A Transição Teórica Necessária
A complexidade crescente das atividades que envolvem inteligência artificial — sobretudo quando dotadas de elevados graus de autonomia — demonstra a necessidade de diferenciar riscos comuns (inerentes à própria natureza da atividade) de riscos excepcionais ou até mesmo integrais. Essa distinção, embora fundamental, não esgota as possibilidades de responsabilização, pois se concentra primordialmente no perigo derivado da atividade em si — sem necessariamente considerar o papel do produto como elemento desencadeador do dano.
Surge, assim, uma questão de crescente relevância regulatória: deve a inteligência artificial ser equiparada a uma atividade perigosa, nos termos do art. 927, parágrafo único, do Código Civil, ou a um produto defeituoso, nos termos dos arts. 12 e 14 do Código de Defesa do Consumidor? Parece-nos que a dicotomia não é excludente: dependendo do contexto de uso e do papel desempenhado pelo sistema de IA na cadeia de causação do dano, ambos os regimes podem ser aplicáveis — e, em alguns casos, cumulativamente.
A inteligência artificial é, em sua essência, um produto lógico-matemático cuja periculosidade deriva não de uma substância física ou de uma força mecânica, mas da imprevisibilidade dos resultados que produz. Essa imprevisibilidade, segundo autores como Mollicone, torna praticamente inviável a comprovação de que foram adotadas medidas preventivas realmente adequadas, dado que nem mesmo o operador pode antecipar todos os potenciais desvios de comportamento de um sistema de aprendizado profundo.
O Art. 931 do Código Civil e a Teoria do Risco do Empreendimento
Quando se analisa o art. 931 do Código Civil em conjunto com as regras do Código de Defesa do Consumidor, emerge outro parâmetro de imputação: a responsabilidade objetiva que decorre não apenas da conduta arriscada, mas também da simples colocação de produtos no mercado. O art. 931 estabelece que "ressalvados outros casos previstos em lei especial, os empresários individuais e as empresas respondem independentemente de culpa pelos danos causados pelos produtos postos em circulação". Essa norma institui, em linhas gerais, a teoria do risco do empreendimento — também referida como teoria do fato do produto —, segundo a qual o empresário que coloca um produto em circulação assume o risco pelos danos que ele venha a causar, independentemente de defeito específico demonstrado.
A transição da análise do risco da atividade para o risco do empreendimento é, portanto, não apenas teoricamente relevante, mas normativamente indispensável para uma compreensão abrangente da responsabilidade civil por danos causados por sistemas de inteligência artificial. Enquanto a teoria do risco da atividade foca no exercício contínuo e profissional de uma atividade perigosa, a teoria do risco do empreendimento centra-se no ato de colocar um determinado produto em circulação — ato que, por si só, independentemente da continuidade ou da natureza da atividade do agente, pode ser fonte de responsabilidade objetiva.
Tendências Normativas e Perspectivas Futuras
As tendências regulatórias identificadas no PL 2338/23, no AI Act europeu e nos trabalhos preparatórios da Diretiva europeia de Responsabilidade em IA apontam, de forma consistente, para a consolidação de um modelo híbrido: responsabilidade objetiva para sistemas de alto risco, com excludentes restritas e ônus probatório invertido em favor da vítima; e responsabilidade subjetiva — com inversão do ônus da prova em hipóteses específicas — para sistemas de risco moderado.
Verificou-se que nenhum dos ordenamentos analisados adotou, até o momento, o regime do risco integral como regra geral aplicável a todos os sistemas de IA. A cautela dos legisladores reflete tanto a preocupação com os incentivos ao desenvolvimento tecnológico quanto a dificuldade prática de definir critérios operacionais para a aplicação de um regime que, por sua severidade, deve ser reservado a hipóteses verdadeiramente excepcionais.
A tendência predominante aponta, portanto, para a consolidação do modelo do risco do empreendimento — com suas derivações no CDC e no Código Civil — como o principal instrumento de imputação de responsabilidade civil para os danos causados por sistemas de IA no ordenamento brasileiro, complementado pelo regime especial do PL 2338/23 para os sistemas classificados como de alto risco. Essa convergência normativa, ainda em construção, demandará da doutrina e da jurisprudência esforço interpretativo criativo e tecnicamente fundamentado para assegurar a adequada proteção das vítimas sem comprometer o ambiente de inovação responsável que o Brasil necessita fomentar.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".