Fundamentos Jurídicos da Responsabilidade pelo Risco do Desenvolvimento em Sistemas de Inteligência Artificial
O exame dos fundamentos jurídicos da responsabilidade civil aplicada aos sistemas de inteligência artificial impõe uma análise crítica das categorias tradicionais do direito do consumidor e do direito civil, confrontando-as com as especificidades técnicas e econômicas da produção tecnológica contemporânea. Parece-nos que o debate, longe de ser meramente acadêmico, tem consequências práticas imediatas para fabricantes, desenvolvedores, distribuidores e, sobretudo, para os consumidores que se expõem cotidianamente aos riscos inerentes a esses sistemas.
A Solidariedade na Cadeia de Fornecimento e suas Tensões
O Código de Defesa do Consumidor (Lei nº 8.078/1990) institui, em seus arts. 12 e 14, um regime de responsabilidade objetiva e solidária que vincula todos os integrantes da cadeia de fornecimento — fabricante, produtor, construtor e importador —, independentemente de culpa ou de participação direta no defeito que causou o dano. Tal arquitetura normativa reflete a opção legislativa pela socialização do risco: o consumidor, parte hipossuficiente da relação de consumo, não deve suportar os ônus de identificar com precisão qual elo da cadeia produziu o defeito.
Entretanto, quando não se consideram as características de design que cumprem os exemplares da série — isto é, quando um defeito de fabricação decorre da ausência de um atributo que deveria estar presente em todos os produtos do lote —, a atribuição de responsabilidade torna-se problemática em cadeias produtivas altamente fragmentadas, como as que caracterizam o desenvolvimento de sistemas de IA (Castells I Marques, 2017b, p. 116). Verificou-se, nessas situações, que a responsabilidade solidária pode, paradoxalmente, desincentvar a investigação das causas reais do defeito, na medida em que cada integrante da cadeia tem razões estratégicas para apontar o elo anterior como responsável.
A esse respeito, a lei de proteção ao consumidor espanhola (Ley General para la Defensa de los Consumidores y Usuarios, Real Decreto Legislativo 1/2007) traz, em seu art. 140.2, uma causa de exoneração que merece atenção: "O produtor de uma parte integrante de um produto acabado não será responsabilizado se provar que o defeito é imputável ao projeto do produto no qual foi incorporado ou às instruções fornecidas pelo fabricante desse produto" (tradução livre). Tal dispositivo rompe, em certa medida, a rigidez da solidariedade passiva, permitindo que o fornecedor de componentes demonstre que o defeito é atribuível a decisões de design ou de integração tomadas por outro elo da cadeia.
Parece-nos que uma disposição análoga seria valiosa para o ordenamento brasileiro, especialmente diante do cenário de desenvolvimento fragmentado de sistemas de IA — no qual modelos de linguagem, módulos de percepção, interfaces de usuário e infraestruturas de dados frequentemente provêm de fornecedores distintos. Fosse aplicada ao CDC uma lógica similar, sem abdicar da proteção ao consumidor individual, seria possível viabilizar a correta imputação interna dos custos, preservando o direito de regresso entre os agentes envolvidos. Nas ações difusas, coletivas ou individuais homogêneas, essa discussão poderia ser detidamente explorada, com ganhos em termos de eficiência processual e de responsabilização precisa.
Defeitos de Informação: Prova e Alcance
Os defeitos de informação são, sob perspectiva probatória, mais acessíveis do que os defeitos de design ou de fabricação, pois não exigem a perícia de sistemas computacionais complexos nem o exame de milhões de linhas de código. Em vez disso, lastreiam-se na análise de se as informações fornecidas ao consumidor foram suficientes, claras e adequadas para que este pudesse exercer conscientemente seu direito de escolha — princípio consagrado no art. 6º, III, do CDC e reiterado no art. 9º, que impõe ao fornecedor o dever de informar sobre a periculosidade de produtos e serviços (Castells I Marques, 2017b, p. 120).
Produtos digitais, por sua natureza, podem apresentar riscos impossíveis de eliminar completamente. A esse respeito, o AI Act (Regulamento UE 2024/1689) estabelece, em seu art. 13, obrigações específicas de transparência para sistemas de IA de alto risco, exigindo que os usuários sejam informados sobre as capacidades, as limitações e os cenários de uso não recomendado. O PL 2.338/2023, em tramitação no Senado Federal, adota orientação semelhante ao impor, em seus arts. 10 e 11, deveres de transparência e de explicabilidade aos agentes de IA que ofereçam produtos ou serviços ao público.
Sistemas de inteligência artificial sofisticados exigem, portanto, um nível mais elevado de precisão nas advertências e instruções fornecidas pelo fabricante. Informações personalizadas — baseadas em análises de dados massivos e adaptadas ao perfil do usuário — podem facilitar a compreensão dos riscos envolvidos, mas também suscitam preocupações quanto à proteção de dados pessoais, regulada pela LGPD (Lei nº 13.709/2018), em especial em seus arts. 6º e 46.
O Caso dos Algoritmos de Otimização em Veículos Autônomos
Um exemplo particularmente ilustrativo das consequências do defeito de informação é o dos "algoritmos de otimização de colisão" (crash-optimization algorithms) em veículos autônomos. Se o fabricante não avisar que esse algoritmo nem sempre priorizará a integridade física do ocupante do veículo — podendo adotar soluções que minimizem danos coletivos a expensas do usuário individual —, o consumidor pode sofrer lesões em acidentes cujas circunstâncias não foram antecipadas pelo sistema (Gurney, 2016, p. 234, apud Castells I Marques, 2017b, p. 120).
Além disso, é essencial alertar o condutor para não intervir manualmente enquanto o veículo executa tarefas de condução autônoma — salvo quando expressamente solicitado pelo sistema —, em razão do diferencial de cognição situacional entre o algoritmo e o motorista humano: nesse estágio, o sistema pode dispor de informações provenientes de múltiplos sensores que o condutor simplesmente não consegue processar em tempo real. Outro defeito de informação recorrente na literatura diz respeito à ausência de aviso sobre as limitações dos sensores na detecção de objetos em movimento, ciclistas e pedestres, ou em condições de pouca luz e forte reflexo solar (Castells I Marques, 2017b, p. 120).
A omissão dessas informações configura, segundo o art. 12, § 1º, III, do CDC, defeito do produto, caracterizando-se a ausência de advertências adequadas quanto à utilização e aos riscos que regularmente apresenta. A responsabilidade objetiva do fornecedor é, nesse cenário, inafastável — independentemente de qualquer discussão sobre a cognoscibilidade do risco ao tempo do desenvolvimento.
A Tese da "Dupla Irresponsabilidade" e suas Críticas
Oportuno mencionar, neste contexto, que a responsabilidade pelo fato do produto sofre adaptações relevantes no que se refere às tecnologias emergentes. Caitlin Mulholland (2019, p. 15.4) apresenta a denominada "dupla irresponsabilidade", que reflete dois níveis distintos de exoneração: em primeiro lugar, argumenta-se que a IA — ainda que dotada de alguma forma de personalidade jurídica, hipótese hoje descartada pelo PL 2.338/2023 e pelo AI Act — não poderia ser responsabilizada como sujeito de direito; em segundo lugar, afirma-se que os agentes humanos envolvidos em seu desenvolvimento também não poderiam ser responsabilizados, pois o dano decorreria de uma autonomia decisória imputável ao próprio sistema, e não a uma conduta humana identificável.
Verificou-se que tal tese, embora academicamente instigante, não encontra respaldo no ordenamento brasileiro vigente. O art. 12 do CDC imputa responsabilidade objetiva ao fabricante pelo produto que coloca em circulação, independentemente de qualquer discussão sobre a origem interna do defeito. O art. 931 do Código Civil, por seu turno, estende essa lógica às atividades empresariais em geral, presumindo a responsabilidade do empresário pelos danos causados pelos produtos postos em circulação. A Resolução do Parlamento Europeu de 2017 (2015/2103(INL)) reforçou, no plano internacional, que a responsabilidade pelos danos causados por sistemas de IA recai necessariamente sobre agentes humanos — fabricantes, desenvolvedores, operadores ou usuários —, desde que seja possível estabelecer uma relação de previsibilidade e controle sobre o dano.
Fundamentos Dogmáticos e Perspectivas Legislativas
Em síntese, os fundamentos jurídicos da responsabilidade civil aplicável ao risco do desenvolvimento em sistemas de IA articulam-se em torno de três eixos principais: (i) a responsabilidade objetiva e solidária da cadeia de fornecimento, prevista nos arts. 12 e 14 do CDC; (ii) o dever de informação qualificado, que impõe ao fornecedor a comunicação clara e precisa das limitações, riscos e condições de uso seguro do sistema; e (iii) a possibilidade de discussão, no plano das relações internas entre os agentes da cadeia, sobre a distribuição dos custos indenizatórios, especialmente nas ações coletivas e difusas.
Parece-nos que a construção de um regime jurídico adequado para a IA no Brasil passa, necessariamente, pela compatibilização dessas categorias com as peculiaridades técnicas dos sistemas inteligentes — tarefa que o PL 2.338/2023 apenas inicia e que demandará um esforço doutrinário e jurisprudencial de longo prazo.
Referências
- CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 15. ed. São Paulo: Atlas, 2023.
- CASTELLS I MARQUES, Miguel. Vehículos Autónomos y Semiautónomos. In: NAVARRO, Suzana Navas (Coord.). Inteligencia Artificial: Tecnologia, Derecho. Valência: Tirant lo Blach, 2017b.
- GURNEY, Jeffrey. Crashing into the Unknown: an Examination of Crash-Optimization Algorithms Through the Two Lanes of Ethics and Law. Albany Law Review, vol. 79, núm. 1, 2016.
- MULHOLLAND, Caitlin. Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de Inteligência Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Coord.). Inteligência Artificial e Direito. São Paulo: Revista dos Tribunais, 2019.
- NAVARRO, Suzana Navas. Daños Ocasionados por Sistemas de Inteligencia Artificial. Granada: Ed. Comares, 2022.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".