Voltar ao Blog
Teorias do RiscoCapítulo 3

3.2.4. O Risco Criado e os Riscos da Atividade: Visão Comparada

dem excluir a responsabilidade, em razão da inexistência de nexo entre a atuação do agente e o fato danoso (um proprietário, por exemplo, que conserve adequadamente uma área verde, não deveria...

Alessandro Lavorante 18 de maio de 2025 2 min de leitura

dem excluir a responsabilidade, em razão da inexistência de nexo entre a atuação do agente e o fato danoso (um proprietário, por exemplo, que conserve adequadamente uma área verde, não deveria responder por danos causados por um raio que destruísse árvores na propriedade, sob pena de gerar cenários ilógicos e irrazoáveis)541. Em relação à inteligência artificial, parece-nos ser um pouco prematuro falar em responsabilidade integral para quem desenvolve o e comercializa esses sistemas. Entretanto, por ser um teoria baseada na experiência com os danos causados em certas situações, não nos surpreenderia se certos tipos de aplicações venham a ser submetidas ao rígido regime. Podemos, entretanto, cogitar de certos cenários “para o futuro”: imaginemos que, daqui a alguns anos, laboratórios de engenharia genética passem a empregar sistemas de IA avançado – chamemos um desses de “Sistema X” – especificamente desenvolvidos para projetar, sintetizar e testar organismos geneticamente modificados de maneira autônoma. Diferentemente de sistemas “comuns”, baseados em algoritmos de aprendizado supervisionado para tarefas pontuais (como classificação de imagens ou otimização de processos), o Sistema X se apoiaria em aprendizado por reforço profundo (deep reinforcement learning) e em redes neurais generativas, tendo acesso irrestrito a bancos de dados genômicos globais, a plataformas automatizadas de cultura celular e a módulos robóticos de manipulação genética. O grande diferencial técnico do Sistema X seria a capacidade de autogerar hipóteses científicas e executar, por si mesmo ou com pouquíssima supervisão humana, experimentos em altíssima velocidade: ele conceberia novas sequências de DNA, sintetizaria esses trechos em laboratório por meio de impressoras biológicas e testaria os resultados em microambientes controlados. A natureza do risco extraordinário surge porque o Sistema X não se limitaria a rodar simulações: ele atuaria fisicamente na engenharia de organismos celulares. Uma falha de programação ou um desvio de rota nas estratégias de aprendizado poderiam originar bactérias multirresistentes ou vírus modificados de rápida disseminação – ameaçando não só as pessoas envolvidas no laboratório, mas potencialmente toda a sociedade. Esse potencial de dano é tão colossal que a simples opção por lançar tal sistema no mercado de biotecnologia, para uso em pesquisas e desenvolvimento 541 2011, p. 181.

Risco CriadoAtividadeRisco ExcepcionalRisco Integral

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco