A distinção entre omissão genérica e omissão específica ocupa posição central na teoria da responsabilidade civil, e sua transposição para o universo dos sistemas de inteligência artificial revela nuances que merecem exame cuidadoso. Na omissão genérica, a responsabilidade do agente decorre diretamente de imposição legal — como ocorre com o motorista que, ao presenciar um acidente, não presta socorro e, por isso, incorre nas consequências previstas no art. 135 do Código Penal e no art. 186 do Código Civil. Já na segunda espécie de omissão, basta que o agente tenha assumido, de fato, a posição de garantidor — seja por um vínculo contratual explícito ou por uma relação fática estreita com o bem jurídico.
Cavalieri Filho nos traz o exemplo do médico de plantão em um hospital: ao iniciar o atendimento a um paciente, ele não pode abandoná-lo até assegurar o cuidado necessário, e o mesmo se aplica a uma enfermeira, que deve permanecer no serviço até a chegada da substituta. Nesses casos, a omissão específica é configurada quando o agente, em virtude de sua posição de garantidor, negligencia o dever de agir em favor da segurança do bem jurídico — a vida e a saúde dos pacientes. A transposição dessa lógica para o desenvolvimento e a operação de sistemas de IA é não apenas possível, como juridicamente necessária.
No desenvolvimento de IA, a figura do garantidor se aplicaria, por exemplo, aos profissionais responsáveis pela manutenção e atualização de sistemas empregados em setores críticos, como saúde e transportes. Um engenheiro responsável por supervisionar a segurança de uma IA empregada em cirurgias automatizadas estaria na posição de garantidor: ao assumir essa responsabilidade, ele não pode se omitir no monitoramento e na correção de falhas potenciais que possam colocar o paciente em risco. A omissão específica se configura quando o engenheiro, em sua posição de garantidor, negligencia o dever de agir em favor do bem jurídico tutelado — a integridade física dos pacientes submetidos a procedimentos assistidos por tecnologia.
Cabe ressaltar que essa posição de garantidor não nasce exclusivamente de contratos formais. O AI Act europeu (Regulamento UE 2024/1689) adota entendimento semelhante ao impor ao "operador" de sistemas de IA de alto risco obrigações de supervisão humana ativa, monitoramento contínuo e adoção de medidas corretivas quando o sistema apresentar comportamento divergente do esperado. O art. 26 do referido regulamento é explícito ao exigir que os operadores implementem medidas técnicas e organizacionais adequadas — o que, no plano da responsabilidade civil, equivale a reconhecer que a posição fática de quem controla um sistema de IA gera, por si só, deveres específicos de cautela.
A terceira situação omissiva relevante decorre de uma ação anterior do próprio omitente que gera um risco, o qual este tem a obrigação de mitigar. Exemplos práticos incluem o indivíduo que atira um cigarro aceso em local inadequado, iniciando um incêndio, ou o organizador de excursão a área perigosa onde um participante se perde. Nesses casos, o agente que criou a situação de perigo é juridicamente compelido a intervir, pois sua omissão em impedir o agravamento do risco assume relevância específica na responsabilidade civil — conforme ensina Cavalieri Filho.
No contexto tecnológico, essa hipótese manifesta-se com clareza nas empresas que lançam sistemas de reconhecimento facial para segurança pública sem prever os riscos de vieses e falhas de identificação que podem gerar falsas acusações. Verificou-se, em estudos conduzidos pelo MIT Media Lab publicados em 2018, que determinados algoritmos comerciais de reconhecimento facial apresentavam taxas de erro significativamente superiores para mulheres negras em comparação com homens brancos — evidência empírica de que a implantação descuidada desses sistemas cria, por si mesma, um risco que seus responsáveis estão obrigados a mitigar. Caso ocorra uma falha que prejudique indevidamente um cidadão, o desenvolvedor que criou ou implementou o sistema estará juridicamente obrigado a intervir.
Poder-se-ia objetar que impor ao desenvolvedor um dever de monitoramento perpétuo seria economicamente inviável e juridicamente desproporcional. O argumento merece consideração: há, de fato, uma tensão entre a segurança jurídica das vítimas e a viabilidade dos projetos de inovação. Contudo, parece-nos que essa objeção perde força quando se considera que o dever de mitigação do risco criado pela própria conduta anterior não é ilimitado — ele é proporcional à magnitude do risco gerado e à capacidade técnica e econômica do agente. O PL 2.338/2023, nesse sentido, prevê avaliações de impacto periódicas e a atualização contínua dos sistemas de alto risco, o que traduz, no plano regulatório, exatamente esse dever proporcional de vigilância.
No âmbito da responsabilidade civil em relações de consumo, o dever de informar também assume dimensão omissiva central. Conforme Cavalieri Filho, a omissão em fornecer informações claras e completas sobre o funcionamento de produtos e serviços limita a capacidade do consumidor de fazer escolhas informadas. Imagine-se uma empresa que comercializa dispositivos de IA doméstica — assistentes virtuais — sem esclarecer as potenciais limitações de privacidade e segurança. Ao deixar de informar adequadamente o consumidor sobre, por exemplo, o compartilhamento de dados com terceiros ou a possibilidade de que conversas sejam utilizadas para treinamento de modelos, a empresa compromete a autonomia do usuário e coloca em risco suas expectativas legítimas. Essa omissão de informações essenciais representa violação do dever de informar consagrado no art. 6º, III, do Código de Defesa do Consumidor, afetando a possibilidade de um consentimento realmente informado.
O conjunto dessas situações revela que, no contexto jurídico, a omissão não é uma simples ausência de ação, mas uma inação relevante quando contraposta a uma obrigação normativa de agir — seja derivada de imposição legal, da posição de garantidor ou de uma situação de risco criada pelo próprio agente. A crítica que se formula, portanto, não é à insuficiência do conceito de omissão para capturar as realidades da IA, mas à frequente falta de rigor na sua aplicação: é preciso identificar, com precisão, qual dever específico foi descumprido, por quem e em que momento da cadeia de desenvolvimento e uso do sistema.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".