O RECONHECIMENTO FACIAL COMO INSTRUMENTO DE REFORÇO DO ESTADO DE COISAS INCONSTITUCIONAIS NO BRASIL
Palavras-chave:
Estado de Coisa Inconstitucional, Sistema carcerário, Reconhecimento facial, Segurança Pública, Discriminação algorítmica,Resumo
O presente artigo busca demonstrar a possível relação de aprofundamento do Estado de Coisas Inconstitucional do sistema carcerário brasileiro através da adoção de algoritmos de reconhecimento facial para fins de segurança pública. Através de uma análise dos pressupostos reconhecidos pelo Supremo Tribunal Federal na ADPF 347 e dos indícios de existência de viés racial nos algoritmos de reconhecimento facial amplamente divulgadas pela mídia e em estudos recentes, será estudada a hipótese de que a utilização de sistemas com essa tecnologia acaba por agravar a situação reconhecida na decisão.
Downloads
Referências
ANGWIN, Julia; KIRCHNER, Lauren; LARSON, Jeff; MATTU, Surya. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, 23 mar. 2016. Disponível em: www.propublica.org/article/machine-bias-riskassessments-in-criminal-sentencing . Acesso em 30 de junho. 2021.
BRASIL. Supremo Tribunal Federal. Decisão de pedido liminar na ADPF 347. Distrito Federal, Brasília, DF, 09 de setembro de 2015. Disponível em https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=TP&docID=10300665 . Acesso em 29 de junho de 2021.
BRASIL. Supremo Tribunal Federal. Referendo em Medida Caular nas ADIS 6.387, 6.388, 6.389, 6.390 e 6.393. Distrito Federal, Brasília, DF, 07 de maio de 2020. Disponível em https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=TP&docID=754358567 . Acesso em 20 de agosto de 2021.
CAPUTO, Manuela. Racismo algorítmico e o trabalho de pesquisadores da área para obterem reconhecimento. MediaLab UFRJ. Rio de Janeiro. 24 de maio de 2021. Disponível em http://medialabufrj.net/blog/2021/05/racismo-algoritmico-pesquisadores/ .Acesso em 30 de junho de 2021.
COLOMBIA. Corte Constitucional. Sentencia 559/97. Bogotá, 6.11.1997. Disponível em http://www.cor-teconstitucional.gov.co/relatoria/1997/SU559-97.html . Acesso em 29 de junho de 2020.
DAS, Anupam. DEGELING Martin. SMULLEN, Daniel. SADEH, Normal. Personalized Privacy Assistants for the Internet of Things: Providing Users with Notice and Choice. Los Alamitos, Estados Unidos, 2018. IEEE Pervasive Computing, vol. 17, no. 3, pp. 35-46.
EDPB & EDPS call for ban on use of AI for automated recognition of human features in publicly accessible spaces, and some other uses of AI that can lead to unfair discrimination. European Data Protection Board. Bruxelas. 21 de junho de 2021. Disponível em https://edpb.europa.eu/news/news/2021/edpb-edps-call-ban-use-ai-automated-recognition-human-features-publicly-accessible_en . Acesso em 30 de junho de 2021
FÓRUM BRASILEIRO DE SEGURANÇA PÚBLICA. Medo da Violência e o Apoio ao Autoritarismo no Brasil - Índice de Propensão ao apoio a Posições Autoritárias. São Paulo, 2017. Disponível em https://forumseguranca.org.br/wp-content/uploads/2019/04/FBSP_indice_propensao_apoio_posicoes_autoritarios_2017_relatorio.pdf . Acesso em 30 de junho de 2021.
FORUM BRASILEIRO DE SEGURANÇA PÚBLICA. Anuário Brasileiro de Segurança Pública. Ano 14 2020. São Paulo, 2020. Disponível em https://forumseguranca.org.br/wp-content/uploads/2020/10/anuario-14-2020-v1-interativo.pdf Acesso em 29 de junho de 2021.
GUEDES, Paula. Discriminação tecnológica: desmistificando a neutralidade da Inteligência Artificial em meio à crise de inclusão e de diversidade nas tecnologias emergentes. ITS Rio. Rio de Janeiro. 2020. Pág. 2. Disponível em https://itsrio.org/wp-content/uploads/2020/10/Discriminação-tecnológica_Paula_Guedes.pdf . Acesso em 30 de junho de 2021.
HARDESTY, Larry. Study finds gender and skin-type bias in commercial artificial-intelligence systems. MIT News Office. Cambridge. 11 de fevereiro de 2018. Disponível em https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 . Acesso em 30 de junho de 2021.
HALLER, Stephan. KARNOUSKOS, Stamatis. SCHROTH, Christoph. The Internet of Things in an Enterprise Context. First Future Internet Symposium. FIS 2008. Vienna. September 29-30. 2008. Revised Selected Papers. Disponível em www.researchgate.net/publication/221142742_The_Internet_of_Things_in_an_Enterprise_Context . Acesso em 30 de junho de 2021.
IBM abandons 'biased' facial recognition tech. BBC. Londres. 09 de junho de 2020. Disponível em https://www.bbc.com/news/technology-52978191 . Acesso em 30 de junho de 2021
INTRONA, Lucas. WOOD, David. Picturing algorithmic surveillance: the politics of facial recognition systems. Surveillance & Society, 2(2/3), 177-198. 2004. Pág. 181. Disponível em https://nbn-resolving.org/urn:nbn:de:0168-ssoar-200675. Acesso em 30 de junho de 2021.
KIMBALL, Whitney. Polícia dos EUA prende injustamente homem negro identificado por tecnologia de reconhecimento facial. [S.L]. 25 de junho de 2020. Disponível em https://gizmodo.uol.com.br/policia-prende-homem-negro-reconhecimento-errado/ . Acesso em 30 de junho de 2021.
MACHADO, Maira Rocha. Quando o estado de coisas é inconstitucional: sobre o lugar do Poder Judiciário no problema carcerário. ARTICLES • Rev. Investig. Const. 7 (2) • May-Aug 2020 . Diponível em https://doi.org/10.5380/rinc.v7i2.60692. Acesso em 29 de junho de 2021.
MENDES, L. Habeas data e autodeterminação informativa. Revista Brasileira de Direitos Fundamentais & Justiça, v. 12, n. 39, p. 185-216, 26 mar. 2019. Disponível em http://dfj.emnuvens.com.br/dfj/article/view/655/905 . Acesso em 20 de agosto de 2021.
MUNIZ, Tailane. Reconhecimento facial já prendeu 35 na Bahia; 3 mil são alvos da polícia. Correio 24 Horas. Salvador. 01 de junho de 2019. Disponível em https://www.correio24horas.com.br/noticia/nid/reconhecimento-facial-ja-prendeu-35-na-bahia-3-mil-sao-alvos-da-policia/ . Acesso em 30 de junho de 2021.
NAJIBI, Alex. Racial Discrimination in Face Recognition Technology. Harvard GSAS Science Policy Group. Boston. 24 de outubro de 2020. Disponível em https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/ . Acesso em 30 de junho de 2021.
REDE DE OBSERVATÓRIOS DA SEGURANÇA. Retratos da Violência – Cinco meses de monitoramento, analises e descobertas. Fortaleza, 21 de setembro de 2019. Pág 69. Disponível em https://www.ucamcesec.com.br/wp-content/uploads/2019/11/Rede-de-Observatorios_primeiro-relatorio_20_11_19.pdf . Acesso em 30 de junho de 2021.
RUDGARD, Sian. Introduction to European Data Protection. In: USTARAN, E. (Org). European Data Protection Law and Practice, 2nd edition. Postmouth, IAPP, 2019.
SILVA, Rosane Lea. SILVA, Fernando dos Santos Rodrigues. Reconhecimento facial e segurança pública: os Perigos do uso da tecnologia no sistema penal seletivo brasileiro. Anais do 5º Congresso Internacional de Direito e Contemporaneidade: mídias e direitos da sociedade em rede (2019). Disponível em https://www.ufsm.br/app/uploads/sites/563/2019/09/5.23.pdf . Acesso em 30 de junho de 2021.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
O(s)/A(s) autores(as) dos manuscritos submetidos concorda(m) com as regras a seguir:
1) Todos os autores e autoras participaram do trabalho, são responsáveis pelas ideias e conceitos nele emitidos e atestam sua conformidade com os princípios éticos exigidos.
2) Todos os autores e autoras concordam com a forma final do trabalho e em ceder os direitos para publicação nos canais de publicação da Escola de Direito do IDP.
3) Todos os autores e autoras informam que o manuscrito é de sua autoria e assumem a responsabilidade pelo trabalho, declarando que a obra a ser publicada não infringe quaisquer direitos de propriedade intelectual de terceiros.
5) Todos os autores e autoras autoriza(m) a edição de seu trabalho e cede(m) à Escola de Direito do IDP os direitos de autor para reproduzir, editar e publicar ou veicular o citado trabalho em qualquer forma midiática, resguardada a autoria, em particular sob forma digital, em arquivo eletrônico online na Internet. Esta concessão não terá caráter oneroso para a Escola de Direito do IDP, não havendo remuneração sob qualquer modalidade pela utilização do referido material, tendo este o caráter de colaboração científica.