fbpx
Início > Pazolini anuncia instalação das controversas câmeras de reconhecimento facial em Vitória

Pazolini anuncia instalação das controversas câmeras de reconhecimento facial em Vitória

As câmaras são polêmicas por serem racistas e discriminar negros, onde todos são tidos como bandidos | Foto: Reprodução/internet

Às 15 horas desta quinta-feira (3) o prefeito de Vitória, o delegado licenciado da Polícia Civil Lorenzo Pazolini (Republicanos) vai anunciar a instalação das polêmicas câmaras de reconhecimento fácil, um equipamento imperfeito que é acusado internacionalmente de praticar o racismo ao generalizar que todo negro é criminoso. O valor de quanto o prefeito vai gastar de dinheiro público com a instalação dessas cãmaras, onde no Estado americano da Califórnia instituiu lei estadual para proibir seu uso, somente será dita durante a entrevista coletiva.

Como sempre ocorre em ações de vigilância e monitoramento do cidadão, a desculpa, trazida no convite à imprensa para o anuncio, é que é uma medida “para combater o crime com eficácia e continuar reduzindo os índices de violência”. O convite à imprensa ainda complementa e diz que “Vitória será a primeira capital do país a utilizar um ‘super computador’ capaz de analisar e processar mais de 1.000 imagens de câmeras de videomonitoramento, de forma simultânea”. E complementa dizendo que “por meio de Inteligência Artificial, o sistema possui reconhecimento facial e vai proporcionar segurança para a população nas ruas, nas escolas e nas unidades de saúde“.

Segurança que Vitória não tem e de acordo com as estatísticas oficiais da Secretaria de Estado da Segurança e Defesa Social (Sesp) conta que no ano passado, primeiro ano da gestão do delegado-prefeito a capital do Espírito Santo teve 69 homicídios dolosos e 11.450 crimes contra o patrimônio. E destaca o relatório da Sesp que o campeão de roubo foram os celulares. Um total de 19.342 aparelhos roubados no primeiro ano da administração Pazolini. E o surpreende número de 3.290 carros roubados em Vitória, o que desqualifica o gasto milionário no Cerco Eletrônico, sistema acusado de monitorar os passos de oposicionistas.

O lançamento do sistema de câmaras de reconhecimento facial vai ocorrer nesta tarda de quinta-feira, na Sala de Reuniões da Prefeitura de Vitória com a presença de  Pazolini e dos secretários envolvidos no projeto, “que terá fases de desenvolvimento para atender as demandas da Capital”. Em maio do ano passado, um artigo publicado no Jornal da USP e assinado pela autora Margarete Artur analisou a questão do racismo nas câmaras de reconhecimento facial, que permitem ao prefeito e seus assessores saber tudo e mais um pouco sobre as pessoas que circulam nas ruas, como nome, endereço, profissão, CPF, quanto ganha, quantas viagens fez ao exterior, números de todos os documentos, entre outras informações.

Artigo do Jornal da USP

O artigo assinado por Margarete Artur, no Jornal da USP é o seguinte: Muita gente já ouviu falar em big data e algoritmo, mas poucos podem dizer que entendem o que significam essas palavras. De forma geral, pode-se dizer que a big data, por exemplo, é a formação de um banco imenso de dados que normalmente são utilizados como um dispositivo que distribui informações para empresas, à primeira vista. O algoritmo, também em termos gerais, é um conjunto de instruções, passo a passo, para alcançar um determinado objetivo. A ideia do artigo Vigilância negra: O dispositivo de reconhecimento facial e a disciplinaridade dos corpos, publicado na revista Novos Olhares, não é aprofundar-se nesses conceitos, mas sim discutir como esses dispositivos são usados atualmente e para quê, pois, segundo os autores, “a tecnologia não é neutra”.

Uma prova disso são as informações, muitas vezes confidenciais e comprometedoras, que passamos pelas redes sociais, seja no Facebook ou em buscadores como o Google, que geram um banco de dados e, a partir daí os algoritmos alcançam seu objetivo – oferecer ao sujeito aquilo que ele gosta. Mas depois começam a aparecer, insistentemente, sites, muitas vezes falsos, com o propósito de “fisgar” o sujeito. Esses dispositivos tecnológicos são capazes de controlar e manipular o que vemos ou o que queremos ver. Esse contexto é base para entender o objetivo do artigo.

O texto foca nos dispositivos de reconhecimento facial, mostrando que, apesar de serem, a princípio, uma leitura biométrica, como a impressão digital, considerada útil “para praticidade e segurança”, seja substituindo chaves, por exemplo, ou na proteção de animais em risco de extinção, também são usados pela polícia para rastrear possíveis criminosos.

Instrumento de vigilância do cidadão

Trata-se, de fato, de reconhecer que a tecnologia, para as populações que sofrem de instabilidade social e econômica, é instrumento de vigilância e controle, pois, segundo dados do artigo, “90% das 151 pessoas detidas com base em câmeras de reconhecimento facial são negras”. A análise dessa questão parte da perspectiva do filósofo francês Michel Foucault – vigilância e disciplinaridade dos corpos; do conceito de mediação em que se cruzam cultura, política e comunicação do filósofo espanhol Martín Barbero; e da problemática da vigilância negra abordada pela educadora Simone Browne.

Muita gente já ouviu falar em big data e algoritmo, mas poucos podem dizer que entendem o que significam essas palavras. De forma geral, pode-se dizer que a big data, por exemplo, é a formação de um banco imenso de dados que normalmente são utilizados como um dispositivo que distribui informações para empresas, à primeira vista. O algoritmo, também em termos gerais, é um conjunto de instruções, passo a passo, para alcançar um determinado objetivo. A ideia do artigo Vigilância negra: O dispositivo de reconhecimento facial e a disciplinaridade dos corpos, publicado na revista Novos Olhares, não é aprofundar-se nesses conceitos, mas sim discutir como esses dispositivos são usados atualmente e para quê, pois, segundo os autores, “a tecnologia não é neutra”.

Uma prova disso são as informações, muitas vezes confidenciais e comprometedoras, que passamos pelas redes sociais, seja no Facebook ou em buscadores como o Google, que geram um banco de dados e, a partir daí os algoritmos alcançam seu objetivo – oferecer ao sujeito aquilo que ele gosta. Mas depois começam a aparecer, insistentemente, sites, muitas vezes falsos, com o propósito de “fisgar” o sujeito. Esses dispositivos tecnológicos são capazes de controlar e manipular o que vemos ou o que queremos ver. Esse contexto é base para entender o objetivo do artigo.

O texto foca nos dispositivos de reconhecimento facial, mostrando que, apesar de serem, a princípio, uma leitura biométrica, como a impressão digital, considerada útil “para praticidade e segurança”, seja substituindo chaves, por exemplo, ou na proteção de animais em risco de extinção, também são usados pela polícia para rastrear possíveis criminosos.

Trata-se, de fato, de reconhecer que a tecnologia, para as populações que sofrem de instabilidade social e econômica, é instrumento de vigilância e controle, pois, segundo dados do artigo, “90% das 151 pessoas detidas com base em câmeras de reconhecimento facial são negras”. A análise dessa questão parte da perspectiva do filósofo francês Michel Foucault – vigilância e disciplinaridade dos corpos; do conceito de mediação em que se cruzam cultura, política e comunicação do filósofo espanhol Martín Barbero; e da problemática da vigilância negra abordada pela educadora Simone Browne.

Comparação de imagem digital com identidade

O reconhecimento facial é o resultado de um mapeamento de linhas faciais. Por meio de algoritmos, ele realiza uma comparação com “uma imagem digital, reconhecendo (ou negando) a identidade de alguém”. Como a tecnologia “ainda não apresenta eficiência completa no reconhecimento de pessoas negras de pele mais escura, principalmente mulheres”, as populações mais carentes estão mais expostas a constrangimentos e violências.

O artigo relata que um dispositivo de reconhecimento facial foi aplicado na Bahia, no Rio de Janeiro, em Santa Catarina e na Paraíba e, segundo o Departamento Penitenciário Nacional, “foram detidas 108.395 pessoas, das quais 66.419 são negras ou pardas, um total de 61,27%”, na clara evidência do preconceito racista do sistema criminal. Para os autores, “há um dispositivo de segurança que, com a face da neutralidade, aplica um algoritmo racista capaz de legalizar e culpabilizar robôs por práticas humanas: o genocídio do povo negro”.

As tomadas de decisão baseadas nesses dispositivos são motivo de desconfiança, pois quais são os critérios para rotular um indivíduo? O artigo aponta que “no Brasil, a violência, a criminalização e a pobreza continuam a ter uma cor“, segundo Rita Izsák, relatora das Nações Unidas sobre questões de minorias.

Finalizando, os autores deixam claro que se o reconhecimento facial é visto como ferramenta necessária capaz de oferecer praticidade e facilidades das quais o século 21 não mais pode prescindir, também é essencial estarmos cientes de que esse dispositivo “tem relações nítidas com a vigilância e o controle” e precisamos estar atentos, olhar sempre criticamente para eles com o intuito de compreender e questionar “as mensagens utópicas e os pesadelos latentes que podem ser encontrados” nessas tecnologias.