Já na segunda espécie de omissão, basta que o agente tenha assumido, de fato, a posição de garantidor – seja por um vínculo contratual explícito ou por uma relação fática estreita com o bem jurídico. Cavalieri Filho nos traz o exemplo do médico de plantão em um hospital: ao iniciar o atendimento a um paciente, ele não pode abandoná-lo até assegurar o cuidado necessário, e o mesmo se aplica a uma enfermeira, que deve permanecer no serviço até a chegada da substituta. Nesses casos, a omissão específica é configurada quando o agente, devido à sua posição de garantidor, negligencia o dever de agir em favor da segurança do bem jurídico, que, neste caso, é a vida e a saúde dos pacientes204. No desenvolvimento de IA, isso se aplicaria aos profissionais responsáveis pela manutenção e atualização de sistemas de IA em determinados setores, como saúde e transportes. Por exemplo, um engenheiro responsável por supervisionar a segurança de uma IA empregada em cirurgias automatizadas estaria na posição de garantidor; ao assumir essa responsabilidade, ele não pode se omitir no monitoramento e correção de falhas potenciais que poderiam colocar o paciente em risco. Aqui, a omissão específica se configura quando o engenheiro, em sua posição de garantidor, negligencia o dever de agir em favor da segurança do bem jurídico, que, neste caso, é a vida e a saúde dos pacientes que estão sendo de alguma maneira tratados ou operados com o auxílio da tecnologia. A terceira situação omissiva relevante decorre de uma ação anterior do próprio omitente que gera um risco, o qual ele tem a obrigação de mitigar. Exemplos práticos incluem o indivíduo que atira um cigarro aceso em um local inadequado, iniciando um incêndio, ou o organizador de uma excursão a uma área perigosa, como uma floresta, onde um participante se perde. Nestes casos, o agente que criou a situação de perigo é juridicamente compelido a intervir, pois sua omissão em impedir o agravamento do risco assume uma relevância específica na responsabilidade civil205. No contexto tecnológico, podemos citar os exemplos das empresas que lançam sistemas de reconhecimento facial para segurança pública sem prever os riscos de vieses e falhas de identificação que podem gerar falsas acusações, criando um risco potencial ao público. Caso ocorra uma falha 204 Cavalieri Filho, 2023, p. 81. 205 Idem.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".