o dispositivo ou o coloca em circulação de maneira inadequada. Também a expectativa legítima implica um dever de cuidado dos desenvolvedores e operadores para que a IA funcione segundo padrões razoáveis de segurança e eficiência, não extrapolando os limites técnicos e éticos esperados. E, no tema da responsabilidade estrutural, a reiterada ocorrência de falhas expõe a omissão ou a imperícia dos criadores, transferindo-lhes a responsabilidade pelos danos que decorrem do projeto e da manutenção deficientes. 231 A breve incursão teórica nos abre caminho para compreender que, ainda no campo da inteligência artificial, a regra da conduta humana voluntária não se rompe. O robô não é, por si, um “ator” civilmente responsável; o ponto nevrálgico reside em saber se, e em que medida, o projetista, o fornecedor ou o usuário do software – entre outros possíveis envolvidos – infringiram deveres de cautela ou violaram padrões técnicos e jurídicos. Dessa forma, a análise da responsabilidade não termina na verificação de culpa subjetiva: ela pode estender-se a estruturas objetivas de imputação, mas sempre retornando à atuação de seres humanos que deram causa, direta ou indireta, ao dano. Em consequência, a distinção entre ato ilícito e comportamento antijurídico também se mantém atual e com relevo. Embora a culpa seja o aspecto clássico na configuração da responsabilidade subjetiva, as hipóteses de responsabilidade objetiva e a admissão de atos formalmente lícitos, mas contrários à boa-fé e aos valores do ordenamento, revelam que a obrigação de indenizar pode nascer mesmo na ausência de um ato culposo em sentido estrito. A cobertura jurídica deve atender as situações em que a circulação e o uso de tecnologias de IA conduzem a resultados danosos, sem que tenha havido uma atitude maliciosa do agente. Se, por um lado, a doutrina propõe critérios objetivos que deslocam a noção de culpa da análise, por outro, resta inequívoco que a responsabilidade não repousa na IA em si, mas na supervisão e na configuração humana que a legitimou. Do mesmo modo, o ordenamento brasileiro, ao exigir a presença de um ato ou omissão voluntários, ainda que seja uma omissão na guarda ou na vigilância, fortalece a visão de que somente as pessoas – físicas ou jurídicas – podem ser responsáveis pelos danos causados por decisões autônomas de sistemas de inteligência artificial. 231 Bonnet, 2015, pp. 40-42.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".