Pernambuco

tecnologia

Câmeras com reconhecimento facial no Recife podem agravar racismo e ameaçar direitos

O sistema, que já resultou em várias prisões ilegais no mundo, tem taxa de erro maior em pessoas negras e trans

Brasil de Fato | Recife (PE) |
Proposta da Prefeitura do Recife é de instalar 108 relógios eletrônicos que, entre suas funções, está a de exercer monitoramento via reconhecimento facial - Divulgação/ Prefeitura de Porto Alegre

A proposta controversa da Prefeitura da Cidade do Recife (PCR) de instalar câmeras de monitoramento com reconhecimento facial segue levantando questionamentos da sociedade civil. Entidades que se opõem ao projeto apontam que a aplicação dessa tecnologia na segurança pública da cidade pode acarretar no cerceamento de direitos dos cidadãos e prejudicar, sobretudo, populações historicamente marginalizadas. Isso porque os algoritmos de reconhecimento facial, que já possuem altas taxas de erro, têm uma acurácia ainda menor na hora de identificar pessoas negras e trans. Nessa quinta-feira (17), o Ministério Público de Pernambuco (MPPE) abriu um inquérito civil para apurar a possível discriminação racial resultante do uso da ferramenta.

A utilização da tecnologia não é contestada só na capital pernambucana. Outras cidades que aderiram a essa política encararam tantos problemas que precisaram abolir ou pelo menos rever sua aplicação. São inúmeros casos no mundo inteiro em que as câmeras acusaram “falso positivo”; isto é, falharam ao identificar corretamente um rosto e designá-lo ao indivíduo certo. As consequências disso, quando se trata de segurança pública, são prisões e detenções ilegais e injustas de pessoas inocentes, que foram confundidas pelos algoritmos.

Leia também: Cerca de 90% das pessoas presas com uso de reconhecimento facial são negras

Leia também: Como o Brasil cria um "Big Brother" da vigilância e por que isso ameaça a democracia

Entre as cidades que abandonaram o uso da tecnologia com essa finalidade estão as estadunidenses Oakland, Califórnia, Massachusetts, Boston e o polo de inovação São Francisco. Os motivos são os mesmos: a ameaça às liberdades individuais que a ferramenta de vigilância representa e seu caráter discriminatório. Também por isso, empresas da tecnologia, como IBM, Microsoft e Amazon, inclusive, deixaram de fornecer softwares de reconhecimento facial para a polícia desde 2020. Na Europa, o Comitê Europeu de Proteção de Dados (EDPB) e a Autoridade Europeia para a Proteção de Dados (EDPS) já recomendaram a proibição do uso do sistema na aplicação da lei. 

Apesar do posicionamento das autoridades e do histórico de tentativas malogradas, - inclusive em capitais brasileiras, como no Rio de Janeiro, onde a Polícia deteve uma mulher após a Inteligência Artificial (IA) confundi-la por uma foragida, em 2019 -, Recife quer incorporar o sistema. A ideia da PCR é, por meio de Parceria Público Privada, instalar 108 relógios eletrônicos que, entre suas funções, está a de exercer o monitoramento via reconhecimento facial. Organizações da sociedade civil se colocaram contrárias à medida desde que foi anunciada, em outubro do ano passado. 


Projeto foi discutido em audiência pública na última quarta-feira (16) / Câmera do Recife

De que forma as câmeras estão relacionadas à discriminação racial?

A pesquisadora Raquel Saraiva, presidente do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec), uma dessas entidades, alerta para o aprofundamento das desigualdades mediante a adoção do sistema no Recife. “Há um problema claro de racismo da tecnologia. Quando utilizada em massa, que é como a prefeitura quer fazer, e com essa finalidade [de segurança pública], ela pode agravar condições sociais que já são muito difíceis”, pontua a especialista.

Ela explica que a disparidade na taxa de exatidão do reconhecimento facial por etnia é resultado de um problema generalizado no treinamento dos algoritmos. “A tecnologia é baseada em IA, e aí existe a dificuldade de fazer o treinamento desses algoritmos de forma igualitária e que represente toda a população”, detalha.

O fato de que a tecnologia seria importada, e que seus bancos de dados não são feitos no Brasil, muito menos no Recife, é mais um fator que diminuiria a precisão da ferramenta.   “A importação seria do Norte Global, que tem uma composição social completamente diferente da nossa. Com a representatividade diferente da dos bancos de dados, o algoritmo se torna ainda mais mal treinado”, acrescenta.

Leia também: Artigo | O racismo que estrutura as tecnologias digitais de informação e comunicação

Leia também: Racismo digitalizado: como funciona o preconceito impresso nos algoritmos?

O advogado José Vitor Pereira Neto, integrante da Articulação Negra de Pernambuco (Anepe) - mais um movimento que se opõe ao projeto da PCR -,  pondera que as tecnologias, por si só, não são neutras. “O conceito de tecnologia sempre foi sequestrado pela branquitude, como se pessoas negras ou não brancas não produzissem tecnologia e como se ela tivesse sido criada pela branquitude durante a Revolução Industrial”, levanta.

Nesse caso específico, os bancos de dados que alimentam o sistema de reconhecimento facial são fundamentados no racismo estrutural. “Não tem diversidade, há pouca variabilidade de rostos de faces negras, ele é majoritariamente branco. Quando a máquina vai criar padrões do que um rosto humano [com base no banco de dados], ela cria um padrão a partir do que é um rosto branco, não tem reconhecimento de faces negras ou trans”, pontua.

Tanto a Anepe quanto a IP.rec são umas das várias entidades signatárias do documento “Carta Aberta: Política de reconhecimento facial da PCR ameaça direitos de todos os cidadãos e cidadãs”. 


De acordo com dados do Anuário Brasileiro de Segurança Pública de 2021, 66,3% da população inserida no sistema prisional brasileiro é negra / Agência Brasil

As consequências para as vidas negras 

As câmeras de reconhecimento facial podem ser um instrumento novo, mas não seria a primeira vez que ferramentas tecnológicas se tornam mecanismos de discriminação racial nas mãos da polícia. Nas delegacias do Brasil, a prática de realizar prisões com base no reconhecimento fotográfico de suspeitos induz ao erro que recai principalmente sobre a população negra. Um relatório de 2021 produzido pelo Colégio Nacional de Defensores Públicos Gerais (Condege) e Defensoria Pública do Rio de Janeiro (DP-RJ) com dados de dez estados levantou 90 prisões injustas feitas com reconhecimento fotográfico; dos 79 inquéritos que incluíam informações de raça, 81% eram sobre pessoas pretas e pardas.

Considerando que 66,3% das pessoas no sistema prisional brasileiro são pretas ou pardas, de acordo com dados do Anuário Brasileiro de Segurança Pública de 2021, o que a adoção de mais uma política de segurança pública falha significaria para a população negra? Para José Vitor Pereira Neto, a resposta é cada vez mais controle e encarceramento. “A tecnologia de reconhecimento facial é a reatualização do pensamento lombrosiano lá do século XIX, que considerava a criminalidade, a periculosidade do indivíduo, a partir do traços biológicos que ele tinha. O que a gente vê no reconhecimento facial hoje é uma transformação do analógico para o digital desse pensamento nos dias atuais”, afirma.

Leia também: Entrevista | "O racismo não é um ato isolado, é estrutural, está na gênese de nossa sociedade"

Leia também: Coluna | Lutar pelo fim do cárcere é lutar contra o genocídio

Além do levantamento do Condege com DP-RJ, o advogado citou ainda o monitoramento da Rede de Observatórios de Segurança, lançado em 2019, que mostrou que 90,5% das 191 pessoas presas através da tecnologia de reconhecimento facial e identificáveis pela cor da pele eram negras. O estudo analisou números da Bahia, Ceará, Paraíba, Santa Catarina e Rio de Janeiro.

Já preocupantes, os dados podem ainda esconder uma subnotificação, diz José Vítor. “Precisamos destacar que pesquisar Segurança Pública no Brasil já não é uma coisa fácil, seja por dificuldade de acesso a dados, seja por ameaças sofridas pelos pesquisadores. Se esses dados que a gente tem hoje, que são restritos e a gente coleta com imensa dificuldade, já são alarmantes, você imagina o que poderia ter de informação e estatística se tivéssemos uma abertura maior dos dados da polícia”, argumenta.

Segurança de dados e hipervigilância

Outra perspectiva levantada pelas organizações a respeito do reconhecimento facial diz respeito à proteção de dados dos indivíduos. Raquel Saraiva, do IP.rec, destaca que a Prefeitura do Recife não deixou claro qual seria a política de coleta, tratamento, uso e armazenamento dos dados por meio das câmeras. “Ela só diz que os concessionários - as empresas que vão ser contratadas para isso - não vão ter acesso a esses dados. Mas a prefeitura também tem responsabilidade. Quais serão as medidas de segurança implantadas?”, questiona.

A Lei Geral de Proteção de Dados (LGPD), principal mecanismo de regulamentação sobre o tratamento de dados pessoais no Brasil, não trata sobre casos de segurança pública. O texto diz que uma outra lei (que ainda não existe) deverá regular o tratamento de dados em sede de segurança pública. A falta de legislação sobre o tema, por si só, já coloca o projeto da PCR em situação de insegurança jurídica.

Além disso, Raquel lembra que a publicação, em fevereiro deste ano, da Emenda Constitucional 115, alçou a proteção de dados à condição de direito fundamental. “Precisamos considerar que os dados fazem parte da dignidade da pessoa humana. No nosso entendimento, estão inserido nos direitos à personalidade. Os dados falam muito sobre seus titulares, então é preciso que o tratamento de dados pessoais esteja intimamente ligado a finalidades específicas e a bases legais que dão autorizações”, defende.

Um agravante da questão é que o reconhecimento facial lida com dados biométricos, que são definidos como dados sensíveis pela LGPD. “A biometria consegue revelar mais sobre a gente, e, por isso, precisa de uma proteção muito mais robusta, diferente do tratamento de dados de forma geral”, coloca.

Raquel ainda levanta outra problemática relacionada ao uso das câmeras com reconhecimento facial: a da possível instituição de um estado de vigilantismo constante. “Existe uma diferença em relação às câmeras normais [como as que já são usadas pela prefeitura, a exemplo das de monitoramento de trânsito]. Essa tecnologia faz com que o Estado a todo tempo saiba onde a gente está. Isso gera um problema muito grande de vigilância, que a gente acredita que não combina com os princípios do estado democrático de direito, dos direitos fundamentais.”

Segundo a pesquisadora, essa condição de vigilância resulta em efeitos específicos na sociedade, como o inibitório. “Quando as pessoas sabem que estão sendo monitoradas, passam a agir de forma diferente. Isso tem impacto tanto na privacidade das pessoas quanto na liberdade de expressão”, diz.

Diálogo com poder público

A PCR lançou por iniciativa própria, ainda em 2021, uma Consulta Pública e uma audiência pública subsequente para discutir a implantação das câmeras. Uma segunda audiência pública foi realizada na última quarta-feira (16), dessa vez por demanda das entidades e com articulação da Câmara dos Vereadores. 

Leia também: Opinião | Por que discutir a proteção de dados pessoais durante a pandemia?

Leia também: Vazamento de dados: Brasil “vê a banda passar” e não garante direito dos consumidores

Na ocasião, as organizações expuseram os motivos pelos quais são contra a medida e fizeram questionamentos à prefeitura, que comunicou que chegou a fazer mudanças no edital com base nas discussões anteriores.

“Uma das respostas que eles deram é que essa funcionalidade do reconhecimento facial só será ativada depois que houver processo de regulamentação do poder legislativo [seja a nível municipal, estadual ou federal]. Eles colocaram essa condicionante, e disseram que não afeta o modelo de negócio que querem implementar com os relógios”, recorda a presidenta do IP.rec.

Raquel frisa que os grupos não se opõem aos relógios digitais em si, apenas à tecnologia de reconhecimento facial que possuem. “Se o não uso dessa ferramenta não impacta o modelo de negócio que estão desenhando, se é um detalhe que não faz diferença para o fim específico que querem implementar, então por que não removem? Eles não souberam responder isso. Eles não querem remover, e tem algum motivo para isso”, fala.

Ministério Público investiga racismo

Seguido à audiência pública, o movimento negro se reuniu com o Ministério Público de Pernambuco na quinta-feira (17) e expôs casos de racismos relacionados ao uso do reconhecimento facial. 

Após a sessão, a Promotoria de Defesa da Cidadania do órgão abriu inquérito civil para investigar “possível discriminação racial contra a população negra resultante da utilização, instalação e manutenção de câmeras de monitoramento com tecnologia de reconhecimento facial, para fins de segurança pública, nas unidades e instalações do Município do Recife e/ou em outros espaços públicos da cidade”.

A publicação no Diário Oficial do MPPE elenca, entre as considerações para a decisão, que o uso de equipamento de reconhecimento facial na sede da PCR “já comprometeu o ingresso de alguns servidores e servidoras negras em seus ambientes de trabalho”.

A decisão prevê a realização de nova audiência com secretarias municipais, MPPE e as entidades da sociedade civil que assinaram a Carta Aberta.

 

Edição: Rani de Mendonça