Aracaju (SE), 14 de novembro de 2025
POR: Gabriel Damásio
Fonte: Ascom Unit
Em: 14/11/2025 às 08:55
Pub.: 14 de novembro de 2025

Tecnologias de reconhecimento por IA podem conflitar com direitos fundamentais

Uma pesquisa de aluna do curso de Direito da Unit avaliou a compatibilidade dos sistemas de videomonitoramento com a Lei Geral de Proteção de Dados (LGPD)

Naomy Samara Santos, bacharel em Direito pela Universidade Tiradentes (Unit) e pós-graduanda na área de Direito Digital - Foto: Ascom Unit

O funcionamento dos sistemas digitais de segurança que adotam a Inteligência Artificial (IA), incluindo os de videomonitoramento com reconhecimento facial em espaços públicos, não garante totalmente a privacidade de dados e imagens, entre outros direitos previstos na Lei Geral de Proteção de Dados (LGPD). Esta questão foi abordada em uma pesquisa de iniciação científica conduzida por Naomy Samara Santos, bacharel em Direito pela Universidade Tiradentes (Unit) e pós-graduanda na área de Direito Digital. 

O estudo, realizado entre setembro de 2023 e agosto de 2024, foi orientado pela professora Fernanda Oliveira Santos, do curso de Direito da Unit, com apoio do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). Ele investigou a implantação e o funcionamento dos sistemas de segurança que já funcionam atualmente em Sergipe. O objetivo foi avaliar a conformidade dessas tecnologias com a LGPD (Lei nº 13.709/2018) e com o direito constitucional à privacidade. 

Além da análise técnica e jurídica dos sistemas, a pesquisa também reuniu referências bibliográficas — como livros, artigos e documentos — voltadas à proteção de dados e aos direitos fundamentais. Para Naomy, o estudo aponta falhas e “preocupações significativas” quanto à proteção da privacidade e à eficácia da legislação vigente. “Embora a LGPD tenha um papel crucial na proteção dos direitos dos cidadãos e na promoção de uma economia da informação mais justa, a sua aplicação efetiva ainda enfrenta desafios, como a necessidade de uma mudança cultural que valorize a proteção de dados pessoais”, avalia Naomy.

Os resultados do trabalho indicam que o uso do reconhecimento facial por IA pode gerar conflitos diretos com direitos fundamentais, sobretudo o direito à privacidade. A pesquisadora observou que a vigilância digital, muitas vezes imperceptível ao cidadão, pode causar violações graves e ampliar desigualdades sociais e raciais. E alerta para a falta de uma regulamentação clara sobre o uso, alcance e armazenamento das imagens capturadas pelas câmeras.

“Além disso, a ineficácia do reconhecimento facial como ferramenta de segurança pública é evidente, com taxas alarmantemente baixas de conversão de alertas em prisões efetivas. Essa tecnologia, quando mal utilizada, não só falha em cumprir sua função de segurança, mas também reforça preconceitos existentes, direcionando a vigilância de maneira desproporcional a grupos marginalizados”, afirma ela, acrescentando que este problema “representa uma ameaça à liberdade individual e à privacidade”. 

Para a autora, é urgente a criação de espaços de debate público e inclusivo sobre o uso dessas ferramentas, assegurando o respeito aos direitos humanos e a escuta das comunidades afetadas. “A construção de uma arquitetura regulatória robusta e transparente é fundamental para garantir que a implementação de sistemas de reconhecimento facial não se torne uma ferramenta de opressão, mas sim uma medida que respeite e proteja os direitos de todos os cidadãos”, conclui Naomy Samara, que vem aprofundando seus estudos e pesquisas nas áreas de Direito Digital, Proteção de Dados e Novas Tecnologias.

WhatsApp

Entre e receba as notícias do dia

Matérias em destaque

Click Sergipe - O mundo num só Click

Apresentação