mico) –, e a crescente adoção de ferramentas de rastreamento de erros, podem amenizar essa incerteza, tornando mais viável a apuração de responsabilidade subjetiva (ao menos na relação interna entre empresa e programador). Na prática, contudo, a dificuldade de provar o nexo entre o ato culposo do desenvolvedor e o dano tende a gerar controvérsias, pois o sistema autônomo se modifica continuamente, e os registros de seu funcionamento nem sempre são acessíveis ou de fácil compreensão para terceiros. É notório que a própria opacidade de sistemas baseados em machine learning pode dificultar a comprovação de culpa664. Por seu turno, ainda quando não for possível comprovar a negligência ou imperícia do programador no ato em que o dano se manifesta, a resposta no plano externo (perante o lesado) permanece objetiva e recai essencialmente sobre a empresa. É a lógica do mercado tecnológico: quem oferece um produto ou serviço baseado em IA, e se beneficia economicamente de sua eficiência ou inovação, deve garantir a reparação de eventuais danos a terceiros. Dessa forma, não se transfere o risco para o consumidor ou para o lesado, o que preserva a proteção das vítimas e favorece a previsibilidade jurídica. A relação de preposição também se revela em contextos menos formais, quando o programador, mesmo sem vínculo contratual típico, atua em proveito do comitente, sob alguma forma de subordinação ou coordenação. No caso do Brasil, se expande a concepção de preposto para abarcar situações onde há direção de outrem, ainda que ausente um contrato de trabalho propriamente dito665. Em termos práticos, isso significa que startups, parceiros tecnológicos e até mesmo freelancers poderiam se enquadrar como prepostos em determinados cenários, reforçando a responsabilidade objetiva do tomador de serviço. No caso de inteligência artificial, se o desenvolvimento ou manutenção do algoritmo é executado sob orientação e supervisão de uma empresa, esta poderá ser considerada responsável pelos prejuízos vinculados ao código elaborado por aquele profissional. Assim, o debate sobre a responsabilidade civil derivada da IA articula-se em múltiplas camadas. Na esfera objetiva, voltada à proteção do lesado, prevalece a obrigação do empresário ou de quem explora comercialmente a tecnologia, dado que a teoria do risco atribui o ônus de indenizar a quem au664 Mulholland, 2019, p. 15.4. 665 Miragem, 2020, p. 242.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".