Voltar ao Blog
Responsabilidade CivilReconhecimento Facial

Uma avó, um algoritmo e seis meses de cadeia: e aí, alguém vai responder por isso?

Reconhecimento facial, responsabilidade civil por IA e o vácuo entre o dano e a reparação. Análise do caso Angela Lipps e a defesa da responsabilidade objetiva solidária para sistemas de IA de alto risco.

Alessandro Lavorante 12 de abril de 2026 18 min de leitura

Uma avó, um algoritmo e seis meses de cadeia: e aí, alguém vai responder por isso?

Reconhecimento facial, responsabilidade civil por IA e o vácuo entre o dano e a reparação

Alessandro C. Lavorante, Prof. Me. USP · OAB/SP

digital.adv.br · março de 2026


Existe um tipo de injustiça que não nasce da maldade de ninguém. Nasce da preguiça de todos. Nenhum dos policiais que prenderam Angela Lipps queria destruir a vida de uma avó de cinquenta anos no Tennessee. Nenhum promotor tramou para mandá-la a um presídio no Dakota do Norte por crimes que ela não cometeu, em um estado onde nunca esteve. Nenhum juiz assinou o mandado pensando que aquilo arruinaria alguém. Cada elo da corrente fez o mínimo. E o mínimo, quando se confia em uma máquina sem conferir o resultado, é o suficiente para tirar seis meses da vida de uma inocente.

Os fatos são estes: em Fargo, no Dakota do Norte, câmeras de segurança flagraram uma mulher utilizando identidade militar falsa para sacar dezenas de milhares de dólares em bancos. Investigadores alimentaram as imagens em um software de reconhecimento facial operado pela polícia de West Fargo; o sistema devolveu o nome de Angela Lipps como correspondência provável. Um detetive, então, comparou fotos de redes sociais, concluiu que o penteado e o tipo físico "pareciam bater" e requereu mandado de prisão. Em julho de 2025, agentes federais armados entraram na casa de Angela enquanto ela cuidava de quatro crianças.

Ela ficou 108 dias no Tennessee sem direito a fiança, classificada como foragida. Foi transferida ao Dakota do Norte. Ninguém, em momento algum, verificou seus registros bancários, que mostravam compras rotineiras no Tennessee nas exatas datas dos crimes em Fargo; ninguém checou se ela possuía passaporte, cartão de embarque ou qualquer indício de deslocamento. Quando um defensor público finalmente fez essa verificação elementar, Angela já havia perdido a casa, o carro e o cachorro. Foi solta na véspera de Natal sem dinheiro, sem passagem de volta, sem pedido de desculpas. A polícia de Fargo reconheceu "alguns erros".

Alguns erros. Seis meses de cadeia. Uma vida desfeita. E a pergunta que nos move a escrever estas linhas: quem paga por isso?

O caso não é isolado; a tendência é piorar

Quem trabalha com direito digital e acompanha o noticiário norte-americano sobre reconhecimento facial já não se surpreende com o caso Lipps; surpreende-se, quando muito, com a lentidão da verificação. Porcha Woodruff, grávida de oito meses, foi presa em Detroit em 2023 após o mesmo tipo de falha: o software DataWorks Plus apontou seu rosto; um detetive organizou reconhecimento fotográfico com seis mulheres negras; e a vítima do crime "confirmou" o que o algoritmo já havia sugerido. Robert Williams, também de Detroit, passou uma noite na cadeia em 2020 pela mesma razão. No Reino Unido, no início de 2026, um homem de origem sul-asiática foi preso por roubo cometido a 160 quilômetros de distância, após confusão de sistema de escaneamento facial. Em todos esses casos, as vítimas eram inocentes. E em todos eles, o denominador comum não é propriamente o erro da máquina, que é estatisticamente previsível e documentado, mas a ausência de qualquer verificação humana posterior.

O fenômeno tem nome técnico: automation bias; trata-se da tendência humana, amplamente estudada em engenharia de fatores humanos, de aceitar resultados gerados por máquinas como definitivos, mesmo quando as evidências observáveis indicam o contrário. Um estudo de 2022 do Center on Privacy & Technology da Georgetown Law, intitulado America Under Watch, já apontava que, apesar de duas décadas de uso, os sistemas de reconhecimento facial mantêm taxas de erro significativas, agravadas por imagens de baixa qualidade e por viés algorítmico que afeta desproporcionalmente pessoas negras e mulheres. A IA forneceu um resultado probabilístico; os humanos o trataram como certeza. E entre a probabilidade e a certeza, vale lembrar, cabe uma vida inteira.

O direito norte-americano: muito litígio, pouca estrutura

Nos Estados Unidos, a responsabilidade por prisões indevidas decorrentes de reconhecimento facial opera num terreno fragmentado. Não existe legislação federal que regule especificamente o uso dessa tecnologia por forças de segurança. A Fourth Amendment, que protege contra buscas e apreensões arbitrárias, oferece fundamento constitucional; sua aplicação, contudo, depende de litígio individual.

Os caminhos processuais são essencialmente dois: ações sob a Section 1983 do Title 42 U.S.C., que permite processar agentes estaduais e municipais por violação de direitos civis, e as chamadas Bivens actions, aplicáveis a agentes federais. No caso Lipps, cujo mandado foi executado por federal marshals, a distinção é relevante porque as Bivens actions enfrentam restrições crescentes na jurisprudência da Suprema Corte. Em ambos os casos, o obstáculo central é a doutrina da qualified immunity, que protege agentes estatais de responsabilidade pessoal salvo quando a violação de direito constitucional era "claramente estabelecida" no momento da conduta. Como o uso de reconhecimento facial em investigações criminais é relativamente recente, tribunais ainda não consolidaram que confiar exclusivamente nessa tecnologia, sem investigação complementar, constitui violação flagrante. O resultado prático é previsível: vítimas como Angela Lipps enfrentam anos de litígio para obter reparação, quando a obtêm.

Contra entidades municipais, existe a via aberta por Monell v. Department of Social Services (1978), que permite responsabilizar o município quando a violação decorre de política ou costume institucional. Se a polícia de Fargo adotou como prática o uso de resultados algorítmicos sem verificação independente, a tese Monell é, ao menos em princípio, viável. Mas trata-se de litígio caro, lento e incerto.

No plano estadual, a situação é igualmente irregular. Illinois possui o Biometric Information Privacy Act (BIPA), que exige consentimento informado para a coleta de dados biométricos e prevê indenização por violação; alguns estados, como Massachusetts e Califórnia, impuseram moratórias ou restrições ao uso policial de reconhecimento facial; outros, como Dakota do Norte, onde o caso Lipps ocorreu, não possuem qualquer regulamentação.

O modelo norte-americano, em síntese, é reativo: espera o dano acontecer, litiga caso a caso e distribui a responsabilidade de forma desigual, favorecendo o agente público e onerando a vítima.

O direito brasileiro: muito silêncio, alguma promessa

A comparação se impõe não para importar soluções, mas para identificar onde o Brasil pode errar menos. E a situação brasileira tem uma particularidade que, a depender do ângulo, pode ser vantagem ou risco: estamos adotando a tecnologia em larga escala antes de ter qualquer marco regulatório específico.

Os números são eloquentes. Segundo levantamento do Centro de Estudos de Segurança e Cidadania (Cesec), vinculado à Universidade Candido Mendes, mais de 360 municípios brasileiros já utilizam câmeras com reconhecimento facial para fins de segurança pública, abrangendo cerca de 82 milhões de pessoas vigiadas. Somente em São Paulo, foram instaladas mais de 23 mil câmeras desde 2024, no âmbito do programa Smart Sampa, conforme informações da própria Prefeitura. Na Bahia, berço da adoção policial dessa tecnologia no Brasil, mais de 90% das prisões por reconhecimento facial do país foram realizadas. E em operação teste no Maracanã, no Rio de Janeiro, em 2019, o resultado foi alarmante: 63% das detenções baseadas no sistema revelaram-se equivocadas; sete de onze pessoas detidas eram inocentes.

E qual o amparo legal para tudo isso? Pouco. A Lei nº 13.709/2018 (LGPD) classifica dados biométricos como dados pessoais sensíveis (art. 5º, II), mas exclui expressamente de seu escopo o tratamento de dados para fins de segurança pública e investigação criminal (art. 4º, III). A própria LGPD determina, em seu § 1º do mesmo artigo, que essa matéria seja regulada por legislação específica; legislação que, oito anos após a promulgação da lei, ainda não foi editada. O chamado "anteprojeto da LGPD Penal", elaborado por comissão de juristas presidida pelo Min. Nefi Cordeiro, foi entregue à Câmara dos Deputados em novembro de 2020 e desde então não avançou. Tramita também o Projeto de Lei nº 3.069/2022, que propõe regulamentar o uso policial de reconhecimento facial e exige confirmação por especialista antes de qualquer restrição à liberdade baseada na tecnologia. Também não foi votado.

Quem atua na área sente o peso desse vácuo na prática quotidiana. Já nos deparamos, em mais de uma ocasião, com contratos administrativos de fornecimento de sistemas de videomonitoramento com reconhecimento facial que não continham uma única cláusula sobre taxas de acurácia, thresholds de confiança configurados ou metodologia de treinamento do modelo. Não é incomum que o edital sequer exija certificação de conformidade com padrões internacionais de avaliação biométrica, como os do NIST (National Institute of Standards and Technology). O resultado é que ninguém sabe, com precisão, o quão confiável é o sistema que está sendo usado para justificar abordagens policiais; e ninguém é contratualmente obrigado a responder quando ele erra. O caso Lipps é americano, mas o cenário contratual e regulatório brasileiro é, sob muitos aspectos, mais vulnerável.

O resultado é um cenário que, a nosso ver, apresenta riscos superiores aos do modelo norte-americano: lá, ao menos, existe a possibilidade de litígio estruturado e a cultura da class action; aqui, temos uso massivo, sem regulação, sem protocolo operacional padronizado, sem auditabilidade pública dos algoritmos utilizados e sem clareza sobre quem responde quando o sistema erra. No Piauí, em 2021, um pedreiro foi confundido com um fraudador de cartões de crédito do Distrito Federal e conduzido pela polícia a outro estado sem explicações; ficou preso três dias até que o erro fosse admitido. A Angela Lipps brasileira já existe. Só ainda não virou manchete.

Responsabilidade civil por IA: o que defendemos

Permitam-nos, neste ponto, recorrer à doutrina que temos construído ao longo dos últimos anos. Em Responsabilidade Civil por Inteligência Artificial (Lumen Juris, 2025), sustentamos que a alocação de responsabilidade por danos causados por sistemas de IA deve ser analisada a partir de três eixos: a cadeia de agentes; a natureza do risco; e a rastreabilidade da decisão. O caso Lipps funciona, nesse sentido, quase como caso-escola para os três.

O primeiro eixo exige mapear quem participa do ciclo de vida do sistema. No caso concreto, identificamos: a empresa desenvolvedora do software de reconhecimento facial (cujo nome, aliás, não foi divulgado pelas autoridades de Fargo, o que por si só já revela um problema de transparência); a polícia de West Fargo, que adquiriu e operou o sistema sem comunicar formalmente à agência vizinha; a polícia de Fargo, que recebeu o resultado e o utilizou sem verificação independente; o Ministério Público (prosecutor) que requereu o mandado; e o juiz que o deferiu. Cada um desses agentes exerceu algum grau de controle sobre o resultado; cada um deles poderia ter interrompido a cadeia causal. Ninguém o fez. A pergunta que se coloca, então, é se a distribuição da culpa entre tantos agentes não produz, na prática, a diluição da responsabilidade até o ponto em que ninguém é efetivamente responsabilizado. A nosso ver, é exatamente para evitar esse resultado que a responsabilidade solidária se impõe.

O segundo eixo diz respeito à natureza do risco. Reconhecimento facial aplicado a investigação criminal é, por qualquer critério razoável, sistema de IA de alto risco. O PL nº 2.338/2023, aprovado pelo Senado em dezembro de 2024 e em tramitação na Câmara, adota classificação inspirada no Regulamento (UE) 2024/1689 (AI Act europeu, em vigor desde 1º de agosto de 2024, com aplicação escalonada até 2027) e expressamente enquadra sistemas de identificação biométrica remota em tempo real para fins de segurança pública na categoria de risco excessivo, em princípio vedado. A classificação é acertada: o potencial de dano à liberdade individual é máximo e, como o caso Lipps demonstra de forma visceral, frequentemente irreversível. A casa perdida não volta; os meses na cadeia não voltam; o trauma da prisão armada diante de crianças não se repara com sentença.

O terceiro eixo é talvez o mais revelador: a rastreabilidade da decisão. O chefe de polícia de Fargo, Dave Zibolski, admitiu em coletiva de imprensa que desconhecia o sistema de reconhecimento facial utilizado por West Fargo, que não sabia como funcionava e que não teria autorizado seu uso. O resultado do software foi transmitido de uma agência a outra como dado objetivo, não como probabilidade; ninguém documentou o grau de confiança do match; ninguém registrou quais alternativas foram descartadas pelo algoritmo. A decisão algorítmica entrou na cadeia investigativa como se fosse fato e, a partir daí, contaminou toda a persecução. Quando o sistema é opaco e a cadeia de responsabilidade é difusa, o risco de que ninguém responda cresce na mesma proporção do risco de que alguém sofra sem ter feito nada. Esse fenômeno, que no livro chamamos de "dispersão causal por opacidade", é precisamente o que torna insuficiente o regime clássico de responsabilidade subjetiva para sistemas de IA autônomos ou semiautônomos.

A tese: responsabilidade objetiva solidária

Defendemos, nesse cenário, a incidência de responsabilidade civil objetiva, independente de culpa, nos termos do art. 927, parágrafo único, do Código Civil (Lei nº 10.406/2002), que impõe obrigação de reparar quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem. O uso policial de reconhecimento facial é atividade de risco por definição: opera sobre dados biométricos sensíveis; tem taxa de erro estatisticamente documentada; afeta diretamente a liberdade individual; e, quando falha, produz danos que nenhuma retratação repara.

A responsabilidade objetiva, neste caso, não exime o agente humano: o detetive que não verificou o álibi, o promotor que não exigiu prova corroborativa. Complementa, todavia, a cadeia de imputação, alcançando o desenvolvedor do software e a administração pública que o empregou sem os devidos protocolos de governança. A cumulação de responsabilidades, subjetiva do agente negligente e objetiva do operador da atividade de risco, é a que melhor responde à complexidade do fenômeno. É, também, a que mais se aproxima da orientação adotada pelo AI Act europeu, cujo art. 9º impõe aos fornecedores de sistemas de alto risco a obrigação de implementar gestão de riscos contínua, e cujo descumprimento pode fundamentar pretensões indenizatórias nos ordenamentos nacionais dos Estados-membros.

No plano da responsabilidade estatal, a Constituição Federal de 1988 (art. 37, § 6º) já consagra a responsabilidade objetiva do Estado por danos causados por seus agentes. Se o Estado escolhe adotar uma ferramenta tecnológica com taxa de erro conhecida, em atividade que restringe a liberdade individual, sem regulamentação específica e sem protocolos de verificação, assume o risco do resultado. A alegação de que "o sistema errou" não é excludente de responsabilidade; é, ao contrário, a própria configuração do nexo causal entre a atividade de risco e o dano.

O que precisa mudar; e rápido

O caso Angela Lipps é norte-americano, mas o cenário brasileiro já reúne todos os ingredientes para produzir casos idênticos, ou piores, considerando a escala de adoção da tecnologia e a ausência de qualquer regulação.

Entendemos que três medidas são urgentes. A primeira é a aprovação de legislação específica que regule o uso de reconhecimento facial na segurança pública, nos termos do art. 4º, § 1º, da LGPD, com exigência de avaliação de impacto algorítmico prévia, auditabilidade periódica, vedação de uso como prova isolada e previsão expressa de responsabilidade objetiva solidária entre desenvolvedor e operador.

A segunda é a regulamentação, pelo PL nº 2.338/2023 ou pelo PL nº 2.688/2025 (que institui o Sistema Nacional de Inteligência Artificial e designa a ANPD como autoridade coordenadora), da classificação do reconhecimento facial biométrico remoto como sistema de alto risco ou risco excessivo, com as consequências operacionais que daí decorrem: supervisão humana obrigatória, documentação de acurácia e proibição absoluta de restrição de liberdade baseada exclusivamente em resultado algorítmico.

A terceira, e talvez a mais difícil porque depende menos de caneta legislativa e mais de mudança cultural, é que operadores da segurança pública compreendam que inteligência artificial não é oráculo. É ferramenta estatística. Indica probabilidades, não culpados. E quando tratada como certeza, produz Angela Lipps. No Brasil, com 23 mil câmeras em São Paulo e 63% de erro no teste do Maracanã, a questão não é se vamos ter o nosso caso Lipps. É quando.

A pergunta que abre este artigo tem, a nosso ver, resposta clara no direito brasileiro vigente: responde quem desenvolve, quem opera e quem se beneficia do sistema de IA, solidariamente, nos termos da responsabilidade objetiva por atividade de risco. Mas a resposta jurídica só terá efetividade se acompanhada de vontade política para regulamentar, capacidade institucional para fiscalizar e, antes de tudo, humildade epistêmica para reconhecer que, quando a liberdade de uma pessoa depende de um algoritmo, o mínimo que se exige é que alguém confira.


Notas

1. O caso foi reportado inicialmente pela emissora WDAY News (Fargo, ND) em março de 2026 e coberto em seguida pela CNN, TechSpot e InForum. Conferência de imprensa do chefe de polícia de Fargo, Dave Zibolski, em 25 de março de 2026. 2. Comunicado oficial da polícia de Fargo, 25 mar. 2026. Página GoFundMe verificada em nome de Angela Lipps. 3. HILL, Kashmir. "Wrongfully Accused by an Algorithm". The New York Times, 24 jun. 2020 (caso Robert Williams). Sobre Porcha Woodruff: HILL, Kashmir. "Eight Months Pregnant and Arrested After False Facial Recognition Match". The New York Times, 6 ago. 2023. Woodruff moveu ação contra a Prefeitura de Detroit, tornando-se a sexta pessoa negra erroneamente acusada com base em reconhecimento facial naquela cidade. 4. Idem (caso Williams). 5. Reportagem de março de 2026, diversos veículos britânicos e internacionais. Homem de origem sul-asiática preso no Reino Unido por roubo em cidade que nunca visitou, com base em software de escaneamento facial. 6. PARASURAMAN, Raja; MANZEY, Dietrich. "Complacency and Bias in Human Use of Automation: An Attentional Integration". Human Factors, v. 52, n. 3, p. 381-410, 2010. O conceito de automation bias tem larga aplicação em aviação e medicina; sua transposição para o uso policial de IA é objeto de estudo crescente. 7. GARVIE, Clare; BEDOYA, Alvaro M.; FRANKLE, Jonathan. The Perpetual Line-Up: Unregulated Police Face Recognition in America. Center on Privacy & Technology, Georgetown Law, 2016 (atualizado em 2022). Disponível em: https://www.perpetuallineup.org. 8. Cf. Egbert v. Boule, 596 U.S. 482 (2022), em que a Suprema Corte restringiu significativamente a extensão de Bivens actions a novos contextos. 9. Monell v. Department of Social Services of the City of New York, 436 U.S. 658 (1978). A responsabilidade municipal sob Section 1983 exige demonstração de que a violação decorreu de política, costume ou prática institucional, e não de ato isolado de um agente. 10. NUNES, Pablo; SILVA, Mariah. O Panóptico: mapa do reconhecimento facial no Brasil. Centro de Estudos de Segurança e Cidadania (Cesec), Universidade Candido Mendes. Disponível em: https://cesecseguranca.com.br/opanoptico. Dados atualizados até 2025. 11. "Com milhares de prisões, reconhecimento facial avança pelo Brasil". Gazeta do Povo, 22 mar. 2025. Dados atribuídos à Prefeitura de São Paulo. 12. Rede de Observatórios da Segurança. Relatório de monitoramento do uso de reconhecimento facial no Carnaval do Rio de Janeiro, 2019. Dos onze casos de detenção baseados no sistema no Estádio do Maracanã, sete resultaram em identificação errônea. Cf. também NUNES, Pablo. "Reconhecimento facial da segurança pública: por que banir?". Fundação Heinrich Böll Brasil, abr. 2023. 13. O anteprojeto da LGPD Penal foi elaborado por comissão de juristas instituída pelo Ministério da Justiça e Segurança Pública (Portaria nº 793/2019), presidida pelo Min. Nefi Cordeiro (STJ, aposentado), e entregue à Câmara dos Deputados em 5 de novembro de 2020. 14. Caso amplamente noticiado em veículos regionais e nacionais em 2021. Pedreiro residente no Piauí confundido por reconhecimento facial com fraudador de cartões de crédito do Distrito Federal; conduzido a outro estado e preso por três dias até admissão do erro. Cf. NUNES, Pablo. "Reconhecimento facial da segurança pública: por que banir?". Fundação Heinrich Böll Brasil, abr. 2023. 15. O Regulamento (UE) 2024/1689 (AI Act) entrou em vigor em 1º de agosto de 2024, com aplicação escalonada: proibições e regras de alfabetização em IA desde 2 de fevereiro de 2025; obrigações para modelos de propósito geral desde 2 de agosto de 2025; normas para sistemas de alto risco com efeito pleno previsto para agosto de 2026. O art. 5º do Regulamento veda, em princípio, o uso de sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei, com exceções taxativas. 16. Conferência de imprensa de Dave Zibolski, chefe de polícia de Fargo, 25 mar. 2026. Conforme reportado pela CNN.

Alessandro C. Lavorante é advogado especializado em Direito Digital, professor, mestre pela USP, sócio sênior da LF Sociedade de Advogados e cofundador de Advogando.AI, Minuta.Tech, JogoLimpo.com.br e CadernoDigital.ai. Autor de Responsabilidade Civil por Inteligência Artificial (Lumen Juris, 2025).

Contato: digital.adv.br | @oalessandrolavorante

Reconhecimento FacialResponsabilidade CivilInteligência ArtificialDireitos FundamentaisSegurança PúblicaLGPDAI Act

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.