fbpx
Início > Pazolini, sem dialogar com população, gastará R$ 15 milhões em câmeras de monitoramento facial

Pazolini, sem dialogar com população, gastará R$ 15 milhões em câmeras de monitoramento facial

O município que o prefeito administra precisa da contratação de médicos especialistas, uma vez que até centros de referência estão sem médicos. Os R$ 15 milhões para comprar um equipamento que aponta cidadãos negros como criminosos, é polemizado em todo o mundo civilizado, poderia ser empregado na contratação de profissionais de saúde

Através do monitoramento, prefeito saberá tudo da vida de quem está sendo bisbilhotado | Foto: Reprodução/Internet

Como é de seu hábito, sem nenhum diálogo com a população, para saber se apoia ou não as suas ideias de monitoramento dos passos de cada morador da capital do Espírito Santo, o prefeito de Vitória (ES), Lorenzo Pazolini, anunciou na tarde desta quinta-feira (3) que vai gastar R$ 15 milhões para comprar e instalar câmeras de monitoramento facial. Serão 150 pontos de bisbilhotice da vida alheia, onde quem passar em frente terá todos os seus dados expostos para o prefeito e seus assessores, como nome, endereço, profissão, quanto ganha, quais os números dos documentos, entre outros detalhes.

Pazolini é um prefeito que ignora os graves problemas de saúde do município onde é prefeito. Há necessidade de contratação de médicos especializados em unidades de saúde e em centros de referência, como o que é voltado para pacientes com HIV. Ao invés de solucionar os problemas de saúde, opta em desperdiçar dinheiro público na aquisição de um equipamento de monitoramento, que é considerado falho nos países mais desenvolvidos. Estatísticas recentes apontam que cerca de 90,5% dos presos por monitoramento facial no Brasil foram negros, sendo que a maioria foi prisão arbitrária, onde a pessoa foi “reconhecida” como criminosa apenas pela sua cor.

Em todo o mundo há um movimento contrário a essas câmeras que usam algoritimos para usar uma foto digital e fazere buscas em cadastros dos governos federal, estaduais e municipais, e, na maioria das vezes interpretando errado quem está bisbilhotando. As pessoas negras são asa principais vítimas e são tratadas como criminosos, promovendo injustiça e danos morais à pessoa tratada tida como bandido.

Algoritmo e racismo

No dia 2 de janeiro deste ano, o doutor em Ciência Política pelo Iesp/Uerj e coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC), no Rio de Janeiro, Pablo Nunes, escreveu um artigo para a revista Piaui, sob o tema “O algoritmo e racismo nosso de cada dia”.

No seu texto, ele diz: Apesar do movimento mundial ser de crítica, banimento ou moratória ao uso de reconhecimento facial pelas polícias, no Brasil temos visto o movimento contrário. Desde 2019, o interesse de parlamentares, governadores, prefeitos e policiais por essa tecnologia tem aumentado, levando à disseminação de projetos em vários estados.

A direita vitoriosa nas eleições de 2018 queria o reconhecimento facial no Brasil para dar mais velocidade ao trabalho da polícia de prender procurados pela justiça. E para algumas pessoas progressistas, o reconhecimento facial poderia ser uma solução, tirando das polícias o papel de escolher quem será abordado ou não. O prefeito de Vitória é um bolsonarista de direita, eleito no mesmo roldão que elegeu o presidente de extrema direta Jair Bolsonaro (PL).

Só na Bahia houve 190 prisões injustas

No carnaval de 2019, lembra o articulista da revista Piaui, em Salvador (BA), um grupo de foliões participava de um bloco de rua sem imaginar que câmeras de alta resolução capturavam suas imagens. Marcos Vinicius, de 19 anos, estava no bloco fantasiado de melindrosa, com peruca, maquiagem e fantasia, mas esses acessórios não atrapalharam o algoritmo usado pela polícia baiana e o sistema o reconheceu como um procurado pela justiça. Ele foi o primeiro preso com o uso desse tipo de tecnologia no Brasil, e não seria o último. Segundo o último levantamento da Secretaria de Segurança Pública baiana, o estado já prendeu 199 pessoas com o uso de reconhecimento facial desde a prisão de Marcos Vinicius.

Em julho daquele mesmo ano, foi a hora da polícia do Rio iniciar seu projeto de reconhecimento facial. Escolheu-se o bairro de Copacabana como área de testes, e diversos postes foram instalados em pontos espalhados pelo bairro, devidamente equipados com câmeras nas suas extremidades. No segundo dia de testes, uma mulher foi reconhecida como sendo Maria Lêda Félix da Silva, condenada por homicídio e procurada pela polícia. Imediatamente os policiais conduziram a mulher que dizia não ser a procurada, mas estava sem documentação, até a delegacia. O erro foi resolvido quando familiares da mulher conseguiram encontrá-la na delegacia e, de posse dos seus documentos, conseguiram provar que ela não era a mulher procurada.

Erros do algoritmo e do banco de dados da Polícia

O caso é mais um de uma série de erros que essas tecnologias cometem, mas tem um agravante: Maria Lêda, a “procurada”, já estava cumprindo pena em presídio havia quatro anos. Não só os algoritmos erraram, mas também a polícia que utilizou um banco de dados desatualizado. Os projetos foram avançando por estados e municípios sem encontrar muita resistência.

No final de 2019 eu já tinha coletado mais de 150 prisões com o uso de reconhecimento facial, e nos casos onde havia informações, mais de 90% das pessoas eram negras, a maioria presas por crimes sem violência. As poucas vozes que se colocaram de maneira crítica à adoção desses algoritmos pelas polícias brasileiras não foram suficientes para que um debate nacional fosse pautado. Mas quais são os problemas?

Banco de dados para aprender o que é um rosto

Algoritmos são como receitas de bolo, instruções a serem seguidas para atingir o resultado final. O que acontece é que muitos desses códigos são criados com base em grandes bancos de dados por meio do aprendizado de máquina. No caso do reconhecimento facial, um grande banco de imagens de rostos é usado para ensinar o algoritmo a identificar o que é um rosto.

O que acontece nesses softwares de reconhecimento facial, como o usado pela Joy no seu espelho tecnológico, é que boa parte dos bancos de imagens utilizados para treinar esses algoritmos são compostos por pessoas brancas. Assim, quando a câmera capta a imagem de uma pessoa negra ou asiática ela não as identifica como sendo rostos humanos, mas já reconheceu dois homens negros como gorilas. Apesar de esse ser um grande problema, a criação de bancos de dados mais diversos não resolve a questão completamente. Algoritmos são dados, e dados são produtos da nossa história. Por mais que se tente cercar de todos os lados, sempre teremos defasagens e vieses nesse tipo de tecnologia.

Uso de imagens sem autorização

Os projetos de reconhecimento facial têm se baseado na instalação de câmeras que capturam imagens 24 horas em ruas, terminais rodoviários e estações de metrô, aliados a algoritmos que processam um número altíssimo de imagens de rostos combinando com bancos de dados diversos, muitas vezes sem o conhecimento do público. O potencial de dano é muito maior, uma vez que milhares de pessoas são escaneadas por hora. Para se ter ideia, a primeira fase do projeto de reconhecimento facial em Copacabana capturou 3 milhões de faces.

E toda essa montanha de dados foi produzida antes mesmo da Lei Geral de Proteção de Dados (LGPD) ser sancionada, que, apesar de ter sido um avanço em termos de proteção de dados pessoais, não estabeleceu parâmetros para a área de segurança pública. Um anteprojeto de lei foi elaborado por uma comissão de juristas, mas deixou de fora temas importantes, como mecanismos de avaliação de impacto e monitoramento do uso dessas tecnologias, e outros dispositivos que seriam importantes para a garantia de que o direito à privacidade dos cidadãos não seja violado.

Enquanto patinamos em relação a leis e normativas que regulem o uso dessas tecnologias no Brasil, a experiência internacional pode servir de inspiração. Patrick Doyle, ex-comandante da Polícia Estadual de New Jersey, nos Estados Unidos, tem se dedicado a estudar o uso desse tipo de tecnologia nas polícias e elenca quatro recomendações simples para esse uso: informe totalmente o público sobre o uso da tecnologia, quais dados serão processados, por quem, em que lugar, com que tipo de segurança; estabeleça parâmetros de uso, ou o conhecido procedimento operacional padrão; divulgue a eficácia da tecnologia, ou seja, quantos reconhecimentos, quantas prisões, quantos erros cometidos; e por fim crie princípios e políticas de boas práticas. Depois de acompanhar esses projetos brasileiros nos últimos anos, posso dizer que praticamente nenhum segue essas quatro simples recomendações.

E mesmo que o Brasil já tivesse uma LGPD Penal, que as recomendações internacionais fossem seguidas, que os algoritmos tivessem 100% de acerto, ainda assim teríamos um problema que é anterior a qualquer tecnologia. Hoje o Brasil tem 773.151 pessoas cumprindo pena de privação de liberdade, uma taxa de crescimento da população carcerária entre as maiores do mundo; essas pessoas, a maioria negras, estão presas em grande parte por crimes sem violência. E por mais que o número de presos cresça a cada ano, não vemos redução da criminalidade. Nesse cenário bem conhecido, os proponentes do uso de reconhecimento facial pela polícia parecem estar esperando resultados distintos, mas apostam em acelerar ainda mais o encarceramento, a mesma lógica que tem guiado a segurança pública em todos esses anos.

Nina da Hora, cientista da computação, tem se dedicado a trazer mais gente para o debate por meio de uma comunicação didática e fácil, e o Tarcízio Silva, que compila uma linha do tempo do racismo algorítmico, tem discutido o tema em fóruns diversos. Essas novas vozes têm sido fundamentais, mas o caminho será longo. Sem nenhum tipo de controle, com a participação ativa do governo federal no financiamento desse tipo de uso de tecnologia pelas polícias, estamos caminhando para termos uma câmera de reconhecimento facial em cada rua e esquina do país. É necessário um freio nesse processo para que possamos debater profundamente os riscos e os potenciais dessa tecnologia para a população, principalmente a população negra, que mais uma vez tem sido mais uma vez vítima preferencial dos algoritmos “isentos”.