Estadão Expresso
  • Na Perifa
    • Home
    • Ação social
    • A voz é delas
    • Cidadania e Política
    • Ciência e Saúde
    • Colunas
      • Barkus
      • Gerando Falcões
      • Joel Luiz Costa
      • Mulheres da periferia, Nós
    • Crianças
    • Cultura e Lazer
    • Direitos Humanos
    • Educação
    • Esporte
    • Finanças
    • Meio Ambiente e Sustentabilidade
    • Mobilidade
    • Mulheres da Periferia
    • Podcast Expresso na Perifa
    • Segurança Pública
    • Artigos
      • Embarque no Direito
      • Lá da Favelinha
      • PerifaConnection
      • PerifaConnection
  • Expresso São Paulo
No Result
View All Result
  • Na Perifa
    • Home
    • Ação social
    • A voz é delas
    • Cidadania e Política
    • Ciência e Saúde
    • Colunas
      • Barkus
      • Gerando Falcões
      • Joel Luiz Costa
      • Mulheres da periferia, Nós
    • Crianças
    • Cultura e Lazer
    • Direitos Humanos
    • Educação
    • Esporte
    • Finanças
    • Meio Ambiente e Sustentabilidade
    • Mobilidade
    • Mulheres da Periferia
    • Podcast Expresso na Perifa
    • Segurança Pública
    • Artigos
      • Embarque no Direito
      • Lá da Favelinha
      • PerifaConnection
      • PerifaConnection
  • Expresso São Paulo
No Result
View All Result
Estadão Expresso
No Result
View All Result
Conteúdo sobre as periferias pelo olhar de quem vive nelas
Home Na Perifa Coletivos

Mulheres negras sofrem mais erros em abordagens de reconhecimento facial do que brancos

Beatriz de Oliveira, Nós Mulheres da Periferia Por Beatriz de Oliveira, Nós Mulheres da Periferia
29 de fevereiro de 2024
em Coletivos, Mulheres da periferia, Nós, Na Perifa
0 0
1
Mulheres negras sofrem mais erros em abordagens de reconhecimento facial do que brancos

Foto: Prostock-studio/Adobe Stock

Share on FacebookShare on Twitter

Enquanto curtia uma festa ao ar livre com suas amigas, Gildeane Taislaine Santos foi abordada duas vezes por policiais após ter sido erroneamente identificada por câmera de reconhecimento facial como uma possível suspeita foragida da Justiça. Embora a identificação tenha sido considerada incorreta, isso não anula o constrangimento e a abordagem truculenta que a mulher teve de enfrentar. O caso ocorreu em Aracaju (SE) no fim de 2023 e pode ilustrar como o uso de câmeras de reconhecimento facial na segurança pública impacta de maneira desproporcional as mulheres negras, tornando-se mais um instrumento de repressão numa sociedade marcada pelo racismo.

De modo geral, essas ferramentas monitoram pessoas em locais públicos, comparando seus rostos com bancos de dados de cidadãos procurados pela Justiça. No entanto, a existência de vários casos de “falsos-positivos”, nos quais a pessoa identificada não é de fato a procurada pela Justiça, e situações de erro devido à falta de atualização dos bancos de dados, traz sérias preocupações, conforme afirmam especialistas ouvidos pela reportagem.

Políticas públicas com uso de tecnologias de reconhecimento facial na segurança pública são gestadas a nível estatal e municipal, o que resulta em falta de padronização desses sistemas. Além disso, o país não dispõe de regulação específica para essas tecnologias. De modo geral, o poder público instala essas tecnologias através de licitações e parcerias com empresas privadas

Horra Moreira, advogada, pesquisadora e coordenadora da campanha “Tire Meu Rosto da Sua Mira”, que reivindica o banimento total das tecnologias digitais de reconhecimento facial na segurança pública brasileira, destaca os impactos desiguais desses sistemas. “Na segurança pública fica muito evidente os efeitos do uso de um sistema que classifica e define quais corpos devem ser abordados e privados de liberdade, num país como o Brasil que é um dos que tem maior população carcerária do mundo e tem histórico de escravidão e perseguição a pessoas negras e racializadas”, afirma.

Atualmente, essas tecnologias estão presentes em todos os estados do país, monitorando aproximadamente 47,6 milhões de pessoas, o equivalente a um quinto da população, segundo levantamento do O Panóptico, plataforma do Centro de Estudos de Segurança e Cidadania (CESeC) que monitora novas tecnologias de segurança pública no Brasil.

As máquinas erram mais com mulheres negras – O uso do reconhecimento facial na segurança pública e sua tendência a erros, especialmente em relação a pessoas negras, é uma discussão internacional. Joy Buolamwini, cientista da computação americana, é uma das pioneiras na produção de estudos sobre o tema e mostrou que as mulheres negras são as mais impactadas. “Pesquisas mostram, a diferença da performance dessas tecnologias para pessoas racializadas e a forma como ela é construída para identificação de rostos pessoas. Há desempenho de forma distinta com maior disparidade ao comparar mulheres negras e homens brancos, isso foi visto através do trabalho da Joy”, diz Horrara Moreira.

Thalita Lima, coordenadora de pesquisa do O Panóptico, enfatiza que as tecnologias não são neutras, e a máquina tende a aprender padrões discriminatórios se alimentada com dados enviesados. Como os bancos de dados são predominantemente compostos por informações de homens brancos, a tendência é que a máquina cometa mais erros no reconhecimento de mulheres negras. Ela ressalta que a tecnologia, por si só, não é uma solução ideal para os problemas estruturais da segurança pública.

A coordenadora destaca a crescente presença das tecnologias de reconhecimento facial em nosso cotidiano, seja para desbloqueio do celular, acesso à plataforma do Gov.br (do governo federal) e criação de conta em bancos digitais. Nestes casos, o reconhecimento exige condições específicas, como ter o rosto centralizado na tela e em ambiente claro, fatores que não são garantidos nas tecnologias instaladas em espaços públicos.

Aponta ainda que a adoção dessas tecnologias não produziu os resultados desejados na redução da criminalidade. “A Bahia é o estado que mais usa tecnologias de reconhecimento facial, está em mais de 70 municípios, e quando fizemos o relatório, analisamos os índices criminais do período em que está sendo usado reconhecimento social e não tem variação. Então, se o objetivo é diminuir a criminalidade e a sensação de violência, não tem impacto”, diz Thallita.

Além dos erros de reconhecimento, a implementação desses mecanismos resulta em sérias consequências, como prisões indevidas e abordagens policiais violentas. Horrara Moreira destaca que a presença do reconhecimento facial na segurança pública coloca em risco a privacidade, a liberdade, o direito de reunião e associação, e o exercício da democracia em uma escala mais ampla.

Tags: Mulheres negrasReconhecimento facial
Anterior

Gripe: Ministério da Saúde antecipa vacinação para final de março; saiba quem pode se vacinar

Próxima

Parar de cozinhar é se tornar refém da comida que não sabemos de onde vem

Próxima
Parar de cozinhar é se tornar refém da comida que não sabemos de onde vem

Parar de cozinhar é se tornar refém da comida que não sabemos de onde vem

Comments 1

  1. apple says:
    1 ano ago

    estamos todas juntas nessa luta

Recomendados Expresso Na Perifa

Aplicativos se tornam aliados das mulheres em situação de violência 

26 de março de 2024
“O funk é libertador”: Deize Tigrona, uma das maiores funkeiras do país, fala sobre seu novo álbum

“O funk é libertador”: Deize Tigrona, uma das maiores funkeiras do país, fala sobre seu novo álbum

22 de março de 2024

E eu não sou uma mulher? 

21 de março de 2024

Conheça Concita Braga, a mulher que comanda o ‘Boi de Nina Rodrigues’

20 de março de 2024

Sobre o Expresso na Perifa

O Expresso na Perifa é um hub de conteúdo multimídia produzido por quem vive e conhece o dia a dia das comunidades e periferias do Brasil. É composto por este site, mídia social e vídeos e faz parte de um projeto da 99, empresa de mobilidade e conveniência, em parceria com o Estadão e coletivos periféricos. Oferece uma leitura leve, rápida e sem complicação para ajudar você a compreender questões importantes da vida, da cidade e do mundo.

Categorias

  • Cultura e Lazer
  • Direitos Humanos
  • Educação
  • Meio Ambiente e Sustentabilidade
  • Segurança Pública

Tags

#fiqueemcasa 99app Amazônia Amazônia Centro do Mundo App de transporte Bem-estar Cinema Coronavírus Covid-19 Cultura Desigualdade Direitos humanos Economia Educação Educação financeira Embarque no Direito (SP) empreendedorismo Favela em Pauta (RJ) Finanças pessoais governo federal Juca Guimarães (SP) Literatura Livros Meio ambiente Mobilidade Mobilidade Urbana Motoristas de aplicativo mulheres da periferia Na Perifa Indica Nós Mulheres da Periferia Pandemia Passeios PerifaConnection (RJ) Periferia em Foco (PA) Quarentena Racismo Receitas Roteiro cultural Saúde Segurança Sustentabilidade São Paulo Tecnologia transporte por aplicativo Violência policial
  • Sobre
  • Como Anunciar
  • Expediente Expresso
  • Expediente Expresso na Perifa

©️ 2019-2021 Produzido por Estadão Blue Studio | Todos os direitos reservados

No Result
View All Result
  • Na Perifa
    • Home
    • Ação social
    • A voz é delas
    • Cidadania e Política
    • Ciência e Saúde
    • Colunas
      • Barkus
      • Gerando Falcões
      • Joel Luiz Costa
      • Mulheres da periferia, Nós
    • Crianças
    • Cultura e Lazer
    • Direitos Humanos
    • Educação
    • Esporte
    • Finanças
    • Meio Ambiente e Sustentabilidade
    • Mobilidade
    • Mulheres da Periferia
    • Podcast Expresso na Perifa
    • Segurança Pública
    • Artigos
      • Embarque no Direito
      • Lá da Favelinha
      • PerifaConnection
      • PerifaConnection
  • Expresso São Paulo

©️ 2019-2021 Produzido por Estadão Blue Studio | Todos os direitos reservados

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In