
Estudo da DPU e do CESeC revela 376 projetos de vigilância ativa e alerta para erros, discriminação e uso sem controle das tecnologias biométricas
Sorria: seu rosto pode estar sendo filmado, classificado e identificado — sem seu conhecimento. Essa é a realidade apontada por um novo relatório da Defensoria Pública da União (DPU) e do Centro de Estudos de Segurança e Cidadania (CESeC), divulgado nesta quarta-feira (7), que expõe a crescente adoção de tecnologias de reconhecimento facial (TRFs) por órgãos públicos no Brasil, principalmente na segurança pública.
Segundo o relatório Mapeando a Vigilância Biométrica, o uso dessas tecnologias se intensificou após o Brasil sediar a Copa do Mundo em 2014 e os Jogos Olímpicos em 2016. Hoje, o país se tornou um campo fértil para a expansão da vigilância digital. Em abril de 2025, havia pelo menos 376 projetos de reconhecimento facial ativos, com potencial para monitorar quase 83 milhões de brasileiros — o equivalente a 40% da população. O investimento público já soma R$ 160 milhões, embora nem todos os estados tenham fornecido informações.
Falta de regulação e riscos à cidadania
Apesar da rápida expansão, o Brasil ainda não possui uma legislação específica para disciplinar o uso dessas tecnologias. Segundo os pesquisadores, há falta de transparência, controle externo e padronização técnica, o que amplia o risco de erros, violações de privacidade, discriminação racial e mau uso de recursos públicos.
Entre 2019 e abril de 2025, o CESeC mapeou 24 casos de falhas nos sistemas de reconhecimento facial. O mais emblemático ocorreu em Aracaju (SE), em abril de 2024, quando o personal trainer João Antônio Trindade Bastos, um jovem negro, foi retirado de um estádio pela polícia militar após o sistema o confundir com um foragido. Após constrangimento e revista, foi comprovada a falha. O episódio gerou repercussão nacional e levou à suspensão do uso da tecnologia pela PM de Sergipe.
O relatório destaca que mais da metade das abordagens motivadas por TRFs no Brasil resultaram em erros de identificação. E os erros atingem desproporcionalmente pessoas negras, indígenas e asiáticas, conforme estudos internacionais. Em alguns casos, essas taxas de erro são até 100 vezes maiores em comparação a indivíduos brancos.
Legislação em debate
O Senado aprovou, em dezembro de 2024, o Projeto de Lei nº 2338/2023, que tenta regulamentar o uso da inteligência artificial, incluindo sistemas biométricos. No entanto, o texto, agora em debate na Câmara dos Deputados, prevê diversas exceções, como o uso em investigações, flagrantes, busca por desaparecidos e recaptura de foragidos — o que, segundo os especialistas, cria uma autorização ampla e imprecisa para uso da vigilância em tempo real.
“Essa abertura mantém a possibilidade de um estado de vigilância e de violação de direitos”, alerta o relatório.
Propostas e recomendações
O relatório recomenda a aprovação de uma lei nacional específica, com protocolo padronizado, auditorias independentes, transparência nos contratos e limite temporal para armazenamento de dados biométricos. Também sugere autorização judicial prévia para uso investigativo das informações e forte controle sobre empresas privadas que operam os sistemas.
“Esperamos que esses achados não só orientem a tramitação do PL 2338, mas também sirvam de alerta aos órgãos reguladores e de controle”, afirma Pablo Nunes, coordenador-geral do CESeC.
O relatório destaca ainda a importância de debate público qualificado, com participação da sociedade civil, da academia e de organismos internacionais, para que o avanço tecnológico não se sobreponha aos direitos fundamentais.