<?xml version="1.0" encoding="utf-8"?><!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">rdp</journal-id>
            <journal-title-group>
                <journal-title>Revista Direito Público</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Rev. Dir. Publico</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2236-1766</issn>
            <publisher>
                <publisher-name>Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.11117/rdp.v21i110.7295</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>ARTIGOS ORIGINAIS</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>DISCRIMINAÇÃO ALGORÍTMICA NO BRASIL: UMA ANÁLISE DA PESQUISA JURÍDICA E SUAS PERSPECTIVAS PARA A COMPREENSÃO DO FENÔMENO</article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>ALGORITHMIC DISCRIMINATION IN BRAZIL: AN ANALYSIS OF LEGAL RESEARCH AND PERSPECTIVES FOR UNDERSTANDING THE PHENOMENON</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-3957-2714</contrib-id>
                    <name>
                        <surname>SAINZ</surname>
                        <given-names>NILTON</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01">I</xref>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-1798-526X</contrib-id>
                    <name>
                        <surname>GABARDO</surname>
                        <given-names>EMERSON</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff02">II</xref>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0009-0004-0902-0064</contrib-id>
                    <name>
                        <surname>ONGARATTO</surname>
                        <given-names>NATÁLIA</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff02">II</xref>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <institution content-type="orgname">Pontifícia Universidade Católica do Paraná</institution>
                <addr-line>
                    <named-content content-type="city">Curitiba</named-content>
                    <named-content content-type="state">PR</named-content>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Pontifícia Universidade Católica do Paraná (PUCPR). Curitiba (PR). Brasil.</institution>
            </aff>
            <aff id="aff02">
                <institution content-type="orgname">Fundação Escola do Ministério Público do Estado do Paraná</institution>
                <addr-line>
                    <named-content content-type="city">Curitiba</named-content>
                    <named-content content-type="state">PR</named-content>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Fundação Escola do Ministério Público do Estado do Paraná (FEMPAR). Curitiba (PR). Brasil</institution>
            </aff>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2024</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <year>2024</year>
            </pub-date>
            <volume>21</volume>
            <issue>110</issue>
            <fpage>258</fpage>
            <lpage>289</lpage>
            <history>
                <date date-type="received">
                    <day>02</day>
                    <month>07</month>
                    <year>2023</year>
                </date>
                <date date-type="rev-recd">
                    <day>15</day>
                    <month>09</month>
                    <year>2023</year>
                </date>
                <date date-type="rev-recd">
                    <day>02</day>
                    <month>12</month>
                    <year>2023</year>
                </date>
                <date date-type="rev-recd">
                    <day>26</day>
                    <month>02</month>
                    <year>2024</year>
                </date>
                <date date-type="rev-recd">
                    <day>14</day>
                    <month>03</month>
                    <year>2024</year>
                </date>
                <date date-type="rev-recd">
                    <day>10</day>
                    <month>06</month>
                    <year>2024</year>
                </date>
                <date date-type="accepted">
                    <day>15</day>
                    <month>06</month>
                    <year>2024</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution Non-Commercial</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais e que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMO</title>
                <p>Este artigo tem como objetivo analisar a abordagem da pesquisa acadêmica sobre a discriminação algorítmica no campo do Direito no Brasil, fornecendo uma descrição do estágio atual dessa discussão. Com base em uma revisão de escopo da literatura jurídica, foram identificadas as áreas de Direitos Humanos e Direito Administrativo como aquelas que possuem as principais concentrações de estudos sobre o tema. Por outro lado, subáreas do Direito, como Direito Civil, Direito do Trabalho e Direito Processual Penal, estão em desenvolvimento. A pesquisa foi realizada por meio de uma busca sistemática em periódicos indexados na <italic>Scopus</italic>, <italic>Web of Science</italic>, <italic>SciELO</italic> e <italic>Google Scholar</italic>, além de publicações no Congresso Internacional de Direito e Inteligência Artificial. A hipótese inicial de que a pesquisa sobre a discriminação algorítmica no Direito no Brasil estaria em estágio inicial foi confirmada, porém com identificação de forte potencial de crescimento. As conclusões também apontaram, na área do Direito, uma concentração de estudos em casos discriminatórios semelhantes, bem como a identificação de objetos de análise e problemáticas similares. A pesquisa e suas conclusões se justificam considerando-se a importância de abordagens interdisciplinares a fim de ser obtida uma compreensão abrangente e atualizada do fenômeno da discriminação algorítmica, possibilitando o desenvolvimento de soluções regulatórias mais eficientes para as novas tecnologias.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>This article aims to analyze the approach of academic research on algorithmic discrimination in the field of Law in Brazil, providing a description of the current stage of this discussion. Based on a scope review of legal literature, the areas of Human Rights and Administrative Law were identified as having the main concentrations of studies on the subject. On the other hand, sub-areas of Law such as Civil Law, Labor Law, and Criminal Procedural Law are under development. The research was conducted through a systematic search in journals indexed in Scopus, Web of Science, SciELO, and Google Scholar, as well as publications from the International Congress on Law and Artificial Intelligence. The initial hypothesis that research on algorithmic discrimination in Law in Brazil is in an early stage was confirmed, but with the identification of strong growth potential. The conclusions also indicated that there is a concentration of studies in the field of Law on similar discriminatory cases, as well as the identification of similar objects of analysis and issues. The research and its conclusions are justified considering the importance of interdisciplinary approaches in order to obtain a comprehensive and up-to-date understanding of the phenomenon of algorithmic discrimination, enabling the development of more efficient regulatory solutions for new technologies.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>PALAVRAS-CHAVE</title>
                <kwd>Discriminação algorítmica</kwd>
                <kwd>Inteligência artificial</kwd>
                <kwd>Direitos Humanos</kwd>
                <kwd>Direito Digital</kwd>
                <kwd>Novas tecnologias</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>KEYWORDS</title>
                <kwd>Algorithmic Discrimination</kwd>
                <kwd>Artificial Intelligence</kwd>
                <kwd>Human Rights</kwd>
                <kwd>Digital Law</kwd>
                <kwd>New technologies</kwd>
            </kwd-group>
            <counts>
                <fig-count count="5"/>
                <table-count count="2"/>
                <equation-count count="0"/>
                <ref-count count="64"/>
                <page-count count="32"/>
            </counts>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>INTRODUÇÃO</title>
            <p>Em 2019, um caso de discriminação de gênero por meio da ferramenta de pontuação de crédito do <italic>Apple Card</italic> viralizou nas redes sociais e desencadeou uma investigação regulatória das práticas adotadas pelo <italic>software</italic> utilizado na empresa. As vítimas denunciaram a recusa de concessão de crédito à esposa, mesmo ela possuindo melhores atributos de crédito do que seu marido, o que chamou a atenção e gerou ampla repercussão (<xref ref-type="bibr" rid="B61">VIGDOR, 2019</xref>). Após o caso COMPAS ocorrido nos Estados Unidos em 2016, a questão da discriminação algorítmica já havia ganhado maior notoriedade em diversos setores do sistema judiciário. Em 2022, um novo sistema de pontuação de riscos foi divulgado, denominado <italic>Prisoner Assessment Tool Targeting Estimated Risk and Needs</italic> (PATTERN), o qual visava estimar a probabilidade de reincidência de um detento após a sua liberação. Análises do sistema revelaram que, mais uma vez, um algoritmo superestimava a reincidência de indivíduos não brancos na prática de novos crimes (<xref ref-type="bibr" rid="B43">PURVES; DAVIS, 2022</xref>). Trata-se, portanto, de um problema persistente e atual. O avanço tecnológico na sociedade não apenas traz consigo transformações positivas nos costumes, também sendo capaz de reinventar problemas sociais que lhe são anteriores, agora em um novo, e ainda mais impactante, contexto (<xref ref-type="bibr" rid="B46">REYNA; GABARDO; SANTOS, 2020</xref>).</p>
            <p>No campo das Ciências Jurídicas, termos como inteligência artificial (IA) e algoritmos estão cada vez mais presentes no cotidiano profissional. No entanto, não há um amplo consenso sobre seus significados, o que torna a síntese desses novos signos por si só desafiadora. Em um breve esforço, a IA pode ser definida como um sistema de ação racional projetado para aprender e se adaptar com base em dados e experiências, com o objetivo de reconhecer padrões, fazer previsões ou tomar decisões. Os algoritmos, por sua vez, podem ser compreendidos como os mecanismos responsáveis por executar as tarefas das IAs, ou seja, eles seguem um encadeamento lógico preciso com base nos dados e informações (<italic>inputs</italic>) fornecidos (<xref ref-type="bibr" rid="B49">RUSSELL; NORVIG, 2021</xref>).</p>
            <p>A discriminação negativa (ilegítima), por si mesma, é um fenômeno que ultrapassa o mundo digital. O racismo estrutural vivenciado na história brasileira é um exemplo eloquente e que impacta na hermenêutica jurídica (<xref ref-type="bibr" rid="B51">SANTOS, 2021b</xref>). A discriminação algorítmica, por sua vez, pode decorrer tanto do resultado da programação efetuada para o <italic>software</italic> quanto ser uma reprodução de preconceitos e discriminações já existentes na sociedade, e que adquirem um potencial de perpetuação de vieses por meio de diferentes tratamentos de dados (<xref ref-type="bibr" rid="B07">BAROCAS; SELBST, 2016</xref>). Ainda não existe uma classificação consensual do conceito de discriminação algorítmica. Uma proposição inovadora é de <xref ref-type="bibr" rid="B33">Mendes e Mattiuzzo (2019, p. 14-15)</xref> que apresentam quatro tipos de discriminação que ocorrem a partir da utilização de algoritmos: I) discriminação por erro estatístico; II) discriminação por generalização; III) discriminação por uso de informações sensíveis; IV) e, por fim, discriminação limitadora do exercício de direitos. Embora possuam semelhanças, esses tipos de discriminação algorítmica se distinguem principalmente pelos elementos causais. Em todos os casos, a discriminação efetuada é relevante para o Direito, notadamente nos seus aspectos de regulação e controle das novas tecnologias.</p>
            <p>A discriminação por erro estatístico ocorre quando há falhas na coleta de dados ou na construção do código do algoritmo. Um exemplo disso pode ser um erro amostral na população presente nos dados, o que resulta na subestimação ou desconsideração de certos grupos sociais. Além disso, pode haver um desequilíbrio no cálculo estatístico, atribuindo um valor maior a uma determinada característica. Por outro lado, a discriminação por generalização decorre da limitação das modelagens estatísticas. Embora não haja falhas no cálculo, esses modelos, que estão associados ou correlacionados com características específicas, não conseguem considerar a diversidade individual de uma população, ignorando a "margem de erro". Já a discriminação por uso de informações sensíveis é baseada na utilização de características intrínsecas a indivíduos ou grupos historicamente discriminados. Esse tipo de discriminação pode ocorrer por violações de dados, uma vez que certas informações são protegidas por lei – ou, ao contrário, pode desconsiderar estas variáveis quando elas são essenciais para a obtenção de um resultado justo. Por fim, a discriminação limitadora do exercício de direitos é caracterizada pela forma como os dados são utilizados, ou seja, não é resultado de um erro estatístico ou da qualidade da informação, mas sim do impacto negativo que o resultado do algoritmo tem sobre os direitos de um indivíduo.</p>
            <p>A Resolução n° 332/2020 do <xref ref-type="bibr" rid="B14">Conselho Nacional de Justiça</xref>, em seu art. 7º, destaca o princípio da não discriminação como fundamental para a implementação de ferramentas de IA no sistema de justiça brasileiro. Mobilizações recentes, como as da Justiça do Trabalho e do Ministério Público do Trabalho (MPT), demonstram que a discriminação algorítmica é uma pauta presente nesses órgãos. Em 2020, o MPT criou o grupo de estudo Diversidade e Tecnologia, com o objetivo de qualificar seus membros e disseminar informações sobre discriminação algorítmica e tecnológica. Como resultado desse esforço, o grupo publicou a coletânea “O uso de dados pessoais e inteligência artificial na relação de trabalho: proteção, discriminação, violência e assédio digital” (<xref ref-type="bibr" rid="B05">ARAUJO <italic>et al</italic>., 2022</xref>), que inclui capítulos abordando as múltiplas faces da discriminação algorítmica nas relações de trabalho. O ponto central dessas reflexões tem sido questionar quem são os beneficiados por tecnologias discriminatórias e quais grupos são mais vulneráveis e excluídos dos processos de desenvolvimento e aplicação dessas novas tecnologias nas relações sociais em geral.</p>
            <p>Motivado pela relevância da problemática jurídica e social, o objetivo deste artigo é analisar como a discriminação algorítmica tem sido abordada na pesquisa acadêmica na área do Direito no Brasil, bem como fornecer uma descrição do estágio atual dessa discussão. Portanto, busca-se compreender como esse fenômeno tem ganhado importância nos estudos jurídicos recentes, examinando os objetos de análise, as subáreas de concentração dos estudos, o mapeamento de casos de discriminação citados, as principais problematizações sobre a discriminação algorítmica e as possibilidades futuras de avanços nessa temática. A hipótese deste estudo parte do pressuposto de que o tema está sendo desenvolvido de forma concentrada em duas áreas principais: Direitos Humanos e Direito Administrativo, recebendo pouca atenção de áreas subjacentes ao fenômeno da discriminação algorítmica. Isso resulta em uma concentração de abordagens, casos discriminatórios e problematizações em subáreas específicas.</p>
            <p>Apoiando-se em abordagens contemporâneas de investigações sobre a literatura jurídica (<xref ref-type="bibr" rid="B16">DANCEANU, 2019</xref>; <xref ref-type="bibr" rid="B18">DINOS <italic>et al</italic>., 2015</xref>; <xref ref-type="bibr" rid="B30">HORÁKA; LACKOB; KLOCEKB, 2021</xref>), optou-se pelo método de revisão de escopo para a realização deste estudo, utilizando uma busca sistemática de literatura. Essa escolha metodológica tem como objetivo reduzir os vieses na seleção do que é considerado para uma revisão narrativa de literatura e mitigar os efeitos na interpretação do fenômeno por meio de uma amostragem significativa de publicações sobre a temática. A coleta dessa literatura foi baseada em periódicos indexados na <italic>Scopus</italic>, <italic>Web of Science</italic> (WoS) e <italic>SciELO</italic>, além da inclusão de artigos indexados no <italic>Google Scholar</italic> (GS) publicados em periódicos de estrato superior no Qualis-Capes e <italic>papers</italic> publicados no Congresso Internacional de Direito e Inteligência Artificial (CIDIA).</p>
            <p>Dito isto, após a introdução dos conceitos, problemáticas e metodologia de pesquisa, este artigo está dividido em três seções. A primeira aborda os detalhes metodológicos, começando com a apresentação dos princípios da revisão de escopo, onde são detalhados os procedimentos adotados para a análise da literatura, seguindo um protocolo adaptado. Em seguida, são discutidos os critérios utilizados na busca sistemática. A segunda seção do artigo é dividida em duas partes: a primeira descreve o panorama da produção acadêmica, destacando as principais características dessa literatura em conjunto, fornecendo um mapa da temática discriminação algorítmica na pesquisa jurídica nacional. Já a segunda parte aprofunda a interpretação sobre os temas que estão em destaque no campo jurídico brasileiro relacionados ao assunto em questão. Por último, a seção de conclusões apresenta uma síntese da pesquisa realizada, juntamente com um prognóstico sobre a agenda futura para o aprimoramento dos estudos e do debate.</p>
        </sec>
        <sec sec-type="methods">
            <title>1 METODOLOGIA: REVISÃO DE ESCOPO APLICADA À PESQUISA</title>
            <p>A técnica de revisão de literatura adotada nesta pesquisa seguiu a proposta do <italic>Joanna Briggs Institute Reviewers’ Manual</italic> (<xref ref-type="bibr" rid="B41">PETERS <italic>et al</italic>., 2015</xref>). As revisões de escopo têm a capacidade de mapear um tema de pesquisa, com o objetivo de compreender os conceitos-chave, as principais evidências, bem como as definições e limitações relacionadas ao assunto em questão (<xref ref-type="bibr" rid="B41">PETERS <italic>et al</italic>., 2015</xref>). Portanto, nesta investigação, foi definido um formulário para análise das publicações sobre discriminação algorítmica com base em cinco informações, com apresentado na <xref ref-type="table" rid="t01">Tabela 1</xref>.</p>
            <table-wrap id="t01">
                <label>Tabela 1</label>
                <caption>
                    <title>Formulário de análise para registro das informações-chave da revisão de escopo</title>
                </caption>
                <table frame="hsides" rules="groups">
                    <thead>
                        <tr align="left" valign="top">
                            <th>Informação analisada</th>
                            <th>Descrição da coleta</th>
                        </tr>
                    </thead>
                    <tbody>
                        <tr align="left" valign="top">
                            <td>Tipo de discriminação</td>
                            <td>Extração dos casos discriminatórios citados em cada publicação</td>
                        </tr>
                        <tr align="left" valign="top">
                            <td>Ano da publicação</td>
                            <td>Coleta realizada a partir dos metadados das publicações</td>
                        </tr>
                        <tr align="left" valign="top">
                            <td>Áreas de pesquisa</td>
                            <td>Classificação dos artigos em áreas de pesquisa do Direito</td>
                        </tr>
                        <tr align="left" valign="top">
                            <td>Objeto de análise</td>
                            <td>Extração do objeto central da discussão das publicações analisadas</td>
                        </tr>
                        <tr align="left" valign="top">
                            <td>Problematização das análises</td>
                            <td>Mapeamento das causas e efeitos da discriminação algorítmica apresentadas pelas publicações</td>
                        </tr>
                    </tbody>
                </table>
                <table-wrap-foot>
                    <fn>
                        <p><bold>Fonte</bold>: Elaboração própria.</p>
                    </fn>
                </table-wrap-foot>
            </table-wrap>
            <p>Dentre as informações registradas no formulário de análise da literatura, apenas o ano de publicação foi extraído dos metadados. As demais informações foram coletadas por meio da análise de conteúdo dos materiais selecionados para a revisão. Utilizou-se uma técnica exploratória de dados qualitativos para análise textual, com o objetivo de descrever e comparar o conteúdo dos textos (<xref ref-type="bibr" rid="B11">CAMARGO; JUSTO, 2013</xref>). Foram analisados os títulos, resumos e palavras-chave das publicações utilizando programação em <italic>R</italic>, onde foram executadas a mineração e análise textual. Nesse contexto, elaborou-se uma nuvem de palavras, que agrupa e organiza os termos presentes no texto graficamente em função de sua frequência, possibilitando uma visualização rápida dos principais termos-chave encontrados no conjunto textual (<xref ref-type="bibr" rid="B11">CAMARGO; JUSTO, 2013</xref>).</p>
            <p>Os critérios estabelecidos para a inclusão e exclusão dos estudos selecionados são etapas fundamentais para garantir critérios confiáveis, rigorosos e passíveis de revisão e reprodução científica em revisões da literatura, visando reduzir subjetividades e garantir transparência nas escolhas feitas em relação ao que deve ser lido e relatado em um artigo ou seção de revisão (<xref ref-type="bibr" rid="B41">PETERS <italic>et al</italic>., 2015</xref>). Para isso, foram realizadas buscas sistemáticas em três bases de dados amplamente reconhecidas no meio acadêmico para indexação de periódicos científicos: <italic>Scopus,</italic> WoS e <italic>SciELO</italic>.</p>
            <p>A <italic>Scopus</italic> é atualmente a mais reconhecida fonte de dados de citação ao redor o mundo (<xref ref-type="bibr" rid="B56">SCHOTTEN <italic>et al</italic>., 2018</xref>). A WoS tornou-se uma ferramenta internacional padrão para avaliação de pesquisas acadêmicas ainda na década de 1990 (<xref ref-type="bibr" rid="B55">SCHNELL, 2018</xref>). Já a SciELO, há 25 anos, desempenha um papel fundamental como ferramenta de indexação e complemento às principais bases internacionais no Brasil. Além disso, essas três bases em conjunto constituem uma métrica importante para a classificação em quase todas as áreas da pós-graduação brasileira (<xref ref-type="bibr" rid="B34">MUGNAINI; NOYONS; PACKER, 2018</xref>).</p>
            <p>Essas espécies de buscas sistemáticas são operacionalizadas por meio das chamadas <italic>strings</italic> de busca, que consistem nos termos inseridos no mecanismo de busca e funcionam com base em lógica matemática, permitindo a inclusão de prioridades e delimitações por meio de símbolos ou termos. Na <xref ref-type="table" rid="t02">Tabela 2</xref> são apresentadas as <italic>strings</italic> utilizadas nas três bases de dados, juntamente com os resultados obtidos.</p>
            <table-wrap id="t02">
                <label>Tabela 2</label>
                <caption>
                    <title><italic>Strings</italic>de busca aplicadas nas bases <italic>Scopus</italic>, <italic>Web of Science</italic> e <italic>SciELO</italic></title>
                </caption>
                <table frame="hsides" rules="groups">
                    <thead>
                        <tr align="left" valign="top">
                            <th>Base</th>
                            <th align="center"><italic>String</italic> de busca</th>
                            <th align="right">Número de artigos coletados</th>
                        </tr>
                    </thead>
                    <tbody>
                        <tr align="left" valign="top">
                            <td><italic>Scopus</italic></td>
                            <td>( TITLE-ABS-KEY ( "Law"  OR  "Legal"  OR  "Juridical"  OR  "Judicial" )  AND  TITLE-ABS-KEY ( "Artificial Intelligence"  OR  "Machine Learning"  OR  "Deep Learning"  OR  "Neural Networks" )  AND  TITLE-ABS-KEY ( "Discrimination"  OR  "Bias"  OR  "Racism"  OR  "Algorithms"  OR  "Algorithmic Bias"  OR  "Algorithmic Discrimination"  OR  "Algorithmic Racism" ) )  AND  ( LIMIT-TO ( SUBJAREA ,  "SOCI" ) )  AND  ( LIMIT-TO ( DOCTYPE ,  "ar" ) )  AND  ( LIMIT-TO ( PUBSTAGE ,  "final" ) )  AND  ( LIMIT-TO ( AFFILCOUNTRY ,  "Brazil" )</td>
                            <td align="right">16</td>
                        </tr>
                        <tr align="left" valign="top">
                            <td><italic>Web of Science</italic></td>
                            <td>"Law" OR "Legal" OR "Juridical" OR "Judicial" (Topic) and "Artificial Intelligence" OR "Machine Learning" OR "Deep Learning" OR "Neural Networks" (Topic) and "Discrimination" OR "Bias" OR "Racism" OR "Algorithms" OR "Algorithmic Bias" OR "Algorithmic Discrimination" OR "Algorithmic Racism" (Topic) and Article (Document Types) and Law (Web of Science Categories) and BRAZIL (Countries/Regions)</td>
                            <td align="right">8</td>
                        </tr>
                        <tr align="left" valign="top">
                            <td><italic>SciELO</italic><xref ref-type="fn" rid="fn04">4</xref></td>
                            <td>&nbsp;</td>
                            <td align="right">3</td>
                        </tr>
                    </tbody>
                </table>
                <table-wrap-foot>
                    <fn>
                        <p>Obs. Buscas realizadas em 02 de maio de 2023.</p>
                    </fn>
                    <fn>
                        <p><bold>Fonte</bold>: Elaboração própria.</p>
                    </fn>
                </table-wrap-foot>
            </table-wrap>
            <p>Inicialmente, constata-se a existência de um número reduzido de publicações sobre o assunto no Brasil a partir dessas bases de dados, principalmente no recorte de periódicos indexados na área do Direito.<xref ref-type="fn" rid="fn05">5</xref> Reconhece-se que o número de periódicos em Ciências Humanas e Sociais Aplicadas no Brasil que utilizam essas bases como indexadores não é significativamente alto. Para mitigar esse viés das bases (<xref ref-type="bibr" rid="B19">DONATO; DONATO, 2019</xref>), realizou-se a inclusão da chamada literatura cinza, que fornece contribuições relevantes para aprimorar as buscas sistemáticas, ampliando a sensibilidade e abrangência do procedimento de busca da literatura e mantendo-o gerenciável (<xref ref-type="bibr" rid="B40">PAEZ, 2017</xref>).</p>
            <p>A inclusão dessa literatura foi realizada a partir de duas fontes de publicações. A primeira foi por meio do recurso de pesquisa avançada do GS, limitando-o ao Brasil e usando termos semelhantes aos utilizados nas bases anteriores.<xref ref-type="fn" rid="fn06">6</xref> Isso resultou em um acréscimo de mais 17 artigos. Para obter uma amostragem mais representativa da produção acadêmica em Direito, a segunda fonte de inclusão de produtos acadêmicos foram os <italic>papers</italic> publicados nos <italic>e-books</italic> do CIDIA nas edições de 2020, 2021 e 2022. Esse último procedimento resultou na inclusão de mais 35 publicações.</p>
            <p>A etapa inicial de identificação das publicações eliminou 5 artigos duplicados entre as bases <italic>Scopus</italic>, WoS e <italic>SciELO</italic>. No GS, foi criado o critério de exclusão com base no Qualis CAPES (2017-2020), eliminando os artigos publicados fora do estrato superior (A), resultando na exclusão de 8 artigos.<xref ref-type="fn" rid="fn07">7</xref> Para a seleção das publicações do CIDIA, foram considerados os <italic>papers</italic> de autores vinculados a programas de pós-graduação, ou seja, aqueles assinados em autoria ou coautoria de mestrandos, mestres, doutorandos ou doutores, o que resultou na exclusão de 12 trabalhos. Na etapa de seleção das publicações para análise, foram realizadas leituras integrais dos textos e selecionados apenas aqueles que apresentavam discussões relevantes sobre a discriminação algorítmica, excluindo os textos que continham apenas citações protocolares do fenômeno ou que apenas o reconheciam. Por fim, esses processos de exclusão resultaram em 13 artigos publicados nas bases de dados, 9 artigos em periódicos de estrato superior indexados no GS e 14 <italic>papers</italic> publicados nos <italic>e-books</italic> do CIDIA em suas três edições.</p>
        </sec>
        <sec>
            <title>2 A DISCRIMINAÇÃO ALGORÍTMICA NA PESQUISA JURÍDICA NO BRASIL</title>
            <sec>
                <title>2.1 UM PANORAMA SISTEMÁTICO DA LITERATURA</title>
                <p>A partir do processo de filtragem e refinamento das publicações de acordo com os critérios estabelecidos, são iniciadas as análises por meio da apreciação dos tópicos acadêmicos em debate, a partir da técnica de nuvem de palavras (<xref ref-type="fig" rid="f01">Figura 1</xref>), onde são destacados os termos mais frequentes no debate sobre discriminação algorítmica na literatura examinada. Essa frequência é refletida pelo tamanho das palavras na imagem, sendo as palavras maiores as mais frequentes e as menores as menos frequentes.</p>
                <fig id="f01">
                    <label>Figura 1</label>
                    <caption>
                        <title>Nuvem de palavras dos metadados (títulos, resumos e palavras-chave) do <italic>corpus</italic> textual analisado</title>
                    </caption>
                    <graphic xlink:href="2236-1766-rdp-21-110-0258-gf01.tif"/>
                    <attrib>Obs. frequência mínima = 5; frequência máxima = 53. <bold>Fonte</bold>: Elaboração própria.</attrib>
                </fig>
                <p>A análise de tópicos revelou que a discriminação algorítmica, no âmbito da pesquisa jurídica, está sendo consolidada em pelo menos três eixos temáticos do Direito brasileiro, os quais se relacionam entre si. O primeiro eixo diz respeito aos impactos da IA no sistema judicial, com destaque para decisões automatizadas. O segundo eixo está relacionado às questões de proteção de direitos humanos e direitos fundamentais. Por fim, o terceiro eixo trata dos aspectos de transparência, ética e regulamentação da IA no Brasil.</p>
                <p>Os impactos da IA no sistema de justiça brasileiro atravessam quase a totalidade das publicações analisadas. Mesmo que o objeto de análise do artigo investigado esteja afastado da problemática relacionada ao processo de decisão automatizada e dos reflexos dessas transformações no sistema judicial brasileiro, os efeitos da IA permeiam os eixos identificados na pesquisa. Contudo, os termos como “decisões”, “automatizadas” e “processo”, que possuem destaque na análise, exemplificam e representam esse eixo que tem foco em compreender os impactos e reflexos de julgamentos e decisões por meio de algoritmos de IA.</p>
                <p>Entre os estudos analisados, aqueles voltados para compreender possíveis atentados contra direitos humanos ou violações de direitos fundamentais fornecem a maior aproximação com o fenômeno da discriminação algorítmica, problemática central desta revisão. Termos como “humanos”, “sociais” e “fundamentais” auxiliam no panorama desse eixo. Porém, vale destacar as palavras “racial” e “gênero” na nuvem, que serve como demarcadores de tipos de discriminação algorítmica com maior presença nos metadados dos textos investigados.</p>
                <p>Por último, o eixo que envolve transparência de dados, opacidade algorítmica, regulamentação e ética na implementação da IA também se destaca de forma onipresente nas publicações que abordam a discriminação algorítmica. Além das discussões relacionadas à regulamentação das IAs no Brasil, como leis e resoluções que abordam o uso dessas tecnologias, os aspectos propositivos para a busca de soluções futuras ganham centralidade na atual conjuntura das discussões acadêmicas. Termos como “dados”, “explicabilidade”, “transparência”, “regulamentação” e “revisão” configuram-se na nuvem de palavras como temas centrais nessa abordagem na literatura.</p>
                <p>Para aprofundar a descrição dos estudos sobre discriminação algorítmica, o <xref ref-type="fig" rid="f02">Gráfico 1</xref> apresenta os tipos de discriminações mencionados nas pesquisas analisadas, tendo como objetivo quantificar a frequência com que os tipos de discriminação por algoritmos são mencionados e fornecer uma medida do acompanhamento realizado pela literatura publicada no Brasil.</p>
                <fig id="f02">
                    <label>Gráfico 1</label>
                    <caption>
                        <title>Tipos de discriminação algorítmica citados nas publicações sobre o tema no Brasil a partir da busca sistemática</title>
                    </caption>
                    <graphic xlink:href="2236-1766-rdp-21-110-0258-gf02.tif"/>
                    <attrib><bold>Fonte</bold>: Elaboração própria.</attrib>
                </fig>
                <p>A utilização de exemplos de discriminação está presente em 75% das publicações examinadas. O maior destaque é a predominância dos casos de racismo citados nas pesquisas sobre discriminação algorítmica, onde cerca de 69% dos estudos analisados mencionam pelo menos um caso de racismo algorítmico para exemplificar ou problematizar o fenômeno. Um dos casos mais emblemáticos e amplamente citados entre as pesquisas analisadas é o caso do COMPAS (<italic>Correctional Offender Management profiling for Alternative Sanctions</italic>) nos Estados Unidos. Esse algoritmo, utilizado no sistema de processo penal estadunidense, discriminava réus negros ao classificá-los com maior probabilidade de cometer crimes futuros em comparação com pessoas brancas (<xref ref-type="bibr" rid="B04">ANGWIN <italic>et al</italic>., 2016</xref>). Casos relacionados ao reconhecimento facial também são frequentemente mencionados como exemplos de racismo, como o incidente em que o Google rotulou erroneamente a imagem de dois jovens negros como gorilas (<xref ref-type="bibr" rid="B08">BBC, 2015</xref>).</p>
                <p>A discriminação de gênero foi a segunda mais frequente entre as publicações. Um caso bastante conhecido de discriminação de gênero promovida por algoritmos ocorreu no âmbito online com a <italic>chatbot</italic> Tay, desenvolvida pela Microsoft. Por meio da interação com usuários do Twitter, a robô adquiriu comportamentos fortemente misóginos e transfóbicos, além de xenófobos (<xref ref-type="bibr" rid="B62">VINCENT, 2016</xref>). Além disso, casos relacionados a vagas de emprego também são citados, como o algoritmo de recrutamento de candidatos da Amazon, que, devido à predominância de currículos masculinos, passou a reduzir a pontuação de mulheres, diminuindo suas chances de contratação (<xref ref-type="bibr" rid="B17">DASTIN, 2018</xref>). Também houve relatos de discriminação sexual contra grupos LGBTQIA+ no controle de conteúdo de plataformas de redes sociais, em que termos utilizados na comunicação desses grupos foram classificados como tóxicos por algoritmos de análise automatizada de conteúdo (<xref ref-type="bibr" rid="B39">OLIVEIRA, 2020</xref>).</p>
                <p>No geral, os casos de discriminação apresentam intersecções significativas. No entanto, as discriminações econômicas e geográficas estão mais associadas nos exemplos citados. Isso ocorre porque parte dos casos mencionados nos estudos envolviam características em que a localização dos indivíduos indicava condições econômicas menos favoráveis. Essa prática, conhecida como <italic>geopricing</italic>, ganhou notoriedade no Brasil com o caso da empresa Decolar, que aplicava diferentes preços de acordo com a localização do consumidor, além de impossibilitar reservas com base na geolocalização do usuário (<xref ref-type="bibr" rid="B60">VEJA, 2018</xref>). Os casos de discriminação socioeconômica vão além de exemplos materiais e também são mencionados em relação às condições econômicas e sociais do país, como é o caso do Brasil. Por exemplo, níveis de desigualdades educacionais podem aprofundar diferenças nos processos de seleção para vagas de emprego ou até mesmo acesso à universidade, assim como na concessão de créditos e financiamentos (<italic>credit score</italic>), que estão associados à localização do consumidor, limitando as oportunidades daqueles que residem em áreas de baixa renda (<xref ref-type="bibr" rid="B23">FRANÇA NETTO; EHRHARDT JÚNIOR, 2022</xref>; <xref ref-type="bibr" rid="B28">HENRIQUES; SAMPAIO, 2021</xref>).</p>
                <p>Outros tipos de discriminação, como o capacitismo, foram relatados em menor quantidade nas publicações, mas destacam os riscos da discriminação algorítmica em relação a pessoas que sofrem de alguma limitação física ou mental. Por exemplo, há o caso de um jovem dos EUA que, após ser diagnosticado com transtorno bipolar, enfrentou dificuldades para encontrar emprego devido a um teste de personalidade desenvolvido pela empresa Kronos, que incluía perguntas sobre saúde mental (<xref ref-type="bibr" rid="B37">O’NEIL, 2018</xref>).  Adicionalmente, é importante mencionar a discriminação cultural e etnocêntrica, que se refere aos padrões ocidentais das diretrizes de programação adotados por grandes conglomerados empresariais do setor. Esses padrões estão sujeitos a falhas ao serem aplicados em contextos regionais específicos, com diversidades sociais, culturais e jurídicas (<xref ref-type="bibr" rid="B01">ADAM; FURNIVAL, 1995</xref>).</p>
                <p>A observação seguinte refere-se ao desenvolvimento temporal das publicações sobre a temática. A análise no <xref ref-type="fig" rid="f03">Gráfico 2</xref>, demonstra a recente popularização da discussão e como o processo de democratização de acesso às ferramentas de IA têm sido absorvidos pela produção acadêmica no Direito.</p>
                <fig id="f03">
                    <label>Gráfico 2</label>
                    <caption>
                        <title>Ano das publicações sobre discriminação algorítmica no Brasil a partir da busca sistemática</title>
                    </caption>
                    <graphic xlink:href="2236-1766-rdp-21-110-0258-gf03.tif"/>
                    <attrib><bold>Fonte</bold>: Elaboração própria.</attrib>
                </fig>
                <p>Entre os anos em que foram publicados os textos analisados pela revisão proposta, destaca-se o ano de 1995, em total contraste com o padrão da análise que se concentra nos últimos cinco anos. Especificamente, foi identificado um artigo publicado no periódico <italic>Information &amp; communication technology law.</italic> Neste artigo, as autoras Alison Adam e Chloë Furnival (<xref ref-type="bibr" rid="B01">ADAM; FURNIVAL, 1995</xref>), esta última professora do Departamento de Ciência da Informação da Universidade Federal de São Carlos, analisam o sistema de inteligência artificial <italic>Cyc</italic> sob a perspectiva da teoria jurídica feminista. As autoras questionam a reprodução de estruturas de discriminação e desigualdades existentes por parte desse sistema de IA.</p>
                <p>A partir de 2019, é possível observar um crescimento significativo no número de publicações que abordam o tema da discriminação algorítmica. Nos anos de 2021 e 2022, em particular, foram analisadas 14 publicações em cada um desses anos. Essa tendência ascendente indica um aumento de interesse e engajamento dos pesquisadores com essa temática. Um olhar para as bases de dados utilizadas revelou que incentivos institucionais, como dossiês em periódicos, promovem um papel importante na promoção e estímulo aos pesquisadores a explorarem essas temáticas. Por exemplo, a Revista de Direito Público publicou o dossiê “Inteligência artificial, ética e epistemologia” em 2021 (<xref ref-type="bibr" rid="B64">WIMMER; DONEDA, 2021</xref>). Além disso, o Congresso Internacional de Direito e Inteligência Artificial realizou três edições consecutivas nos anos de 2020, 2021 e 2022.</p>
                <p>O mapeamento a seguir descreve as áreas do Direito brasileiro que abordam a temática da discriminação algorítmica. A partir da amostragem de publicações que exploram essa problemática, foi possível identificar quais áreas de pesquisa das ciências jurídicas estão se dedicando à compreensão desse fenômeno. No <xref ref-type="fig" rid="f04">Gráfico 3</xref>, são apresentadas as áreas identificadas de cada uma das publicações analisadas.</p>
                <fig id="f04">
                    <label>Gráfico 3</label>
                    <caption>
                        <title>Subáreas de pesquisa das publicações sobre discriminação algorítmica no Brasil a partir da busca sistemática</title>
                    </caption>
                    <graphic xlink:href="2236-1766-rdp-21-110-0258-gf04.tif"/>
                    <attrib><bold>Fonte</bold>: Elaboração própria.</attrib>
                </fig>
                <p>Os resultados da categorização das publicações por área de pesquisa no Direito corroboram com a exploração apresentada na <xref ref-type="fig" rid="f01">Figura 1</xref>, que exibe a nuvem de palavras a partir dos metadados dos autores. Observa-se um predomínio das áreas do Direito Administrativo e dos Direitos Humanos nas pesquisas que tratam a temática da discriminação algorítmica, seguidas pelos estudos da Teoria do Direito e Direito Civil, que estão principalmente relacionados ao primeiro eixo mencionado na análise anterior. Esse eixo enfoca os impactos e efeitos da utilização de algoritmos no sistema de justiça, abrangendo desde julgamentos e decisões automatizadas até o processo de responsabilização civil de danos causados por essas ferramentas.</p>
                <p>Inserido nas publicações que permeiam o campo da Filosofia do Direito, identifica-se o estudo já citado de epistemologia feminista para análise do fenômeno tecnológico no campo jurídico. No entanto, vale ressaltar atenção dada ao papel da bioética e às mutações do ser humano, assim como possíveis práticas eugênicas de discriminação (<xref ref-type="bibr" rid="B58">TOBBIN; CARDIN, 2022</xref>). Já os demais ramos do Direito apresentam números significativamente inferiores de publicações que tocam o tema da discriminação algorítmica. Abordagens mais especializadas, como o Direito do Trabalho ou o Direito do Consumidor, possuem publicações em menor número nessa amostragem, onde destaca-se o caso do papel dos sindicatos frente à violação de direitos fundamentais dos trabalhadores (<xref ref-type="bibr" rid="B31">MARQUES; NETO MARTINEZ, 2022</xref>) ou da discriminação algorítmica de consumidores com base em suas geolocalizações (<xref ref-type="bibr" rid="B02">ALVES; ROCHA, 2021</xref>).</p>
                <p>Devido à contemporaneidade e relevância do tema na sociedade, é razoável concluir que o campo do Direito deve aprofundar cada vez mais os estudos sobre os impactos dos algoritmos, tanto no sistema de justiça quanto na sociedade em geral. Contudo, os campos de pesquisa que assumem baixa concentração de publicações são indicativos de lacunas e espaços a serem preenchidos por pesquisadores nos próximos anos.</p>
                <p>Para prosseguir na exploração dos resultados, no <xref ref-type="fig" rid="f05">Gráfico 4</xref> são exibidos os objetos de análise, ou seja, o principal assunto abordado pelos autores em suas pesquisas.</p>
                <fig id="f05">
                    <label>Gráfico 4</label>
                    <caption>
                        <title>Objetos de análise das publicações sobre discriminação algorítmica no Brasil a partir da busca sistemática</title>
                    </caption>
                    <graphic xlink:href="2236-1766-rdp-21-110-0258-gf05.tif"/>
                    <attrib><bold>Fonte</bold>: Elaboração própria.</attrib>
                </fig>
                <p>Contata-se que 36% dos textos analisados têm como foco a discriminação algorítmica, o que significa dizer que 64% dos artigos examinados nesta revisão contemplam a discriminação algorítmica como um objeto correlato em suas discussões. As pesquisas com foco nas decisões judiciais e na regulamentação de algoritmos de IA receberam maior atenção nos estudos acadêmicos dentro no recorte analisado.</p>
                <p>É possível observar que, de forma geral, os objetos de pesquisa se entrecruzam, mas podem ser investigados em maior ou menor escala por campos distintos das Ciências Jurídicas, como é principalmente o caso da discriminação algorítmica e dos Direitos Humanos. Em contrapartida, identifica-se que objetos de pesquisa como a regulamentação de algoritmos de IA se concentram no ramo do Direito Administrativo, assim como os estudos sobre decisões judiciais estão sendo abordados principalmente pela Teoria do Direito.</p>
                <p>As análises dos objetos centrais dessas investigações auxiliaram a revelar as principais problematizações e preocupações abordadas por esses estudos quando mobilizam o conceito de discriminação algorítmica. Os fatores discriminatórios e o aprofundamento das desigualdades sociais, juntamente com o enfoque no problema da transparência e regulamentação dos algoritmos constituem os principais pontos de atenção dos pesquisadores da área em relação à discriminação algorítmica.</p>
                <p>Particularmente, a questão da transposição das desigualdades do mundo real para o digital no Brasil vem sendo estudada pela doutrina jurídica recente (<xref ref-type="bibr" rid="B24">GABARDO; VIANA; FREITAS, 2022</xref>). O fato de a discriminação por meio de algoritmos reproduzir discriminações sociais pré-existentes se mostra quase um consenso entre os investigadores do tema. Um exemplo de análise que centraliza as desigualdades sociais no contexto dos algoritmos é o artigo de França Netto e Ehrhardt Júnior (2022), que discute os impactos da discriminação algorítmica no cenário brasileiro, uma vez que essas discriminações recaem sobre grupos historicamente excluídos. Outro exemplo de referência que apresentou um panorama das desigualdades sociais junto ao avanço dessas ferramentas de IA foi o estudo de <xref ref-type="bibr" rid="B28">Henriques e Sampaio (2021)</xref> sobre a exclusão tecnológica de crianças, que são mais vulneráveis e estão em processo de formação, o que significa que sentirão os efeitos das novas tecnologias por mais tempo (<xref ref-type="bibr" rid="B28">HENRIQUES; SAMPAIO, 2021</xref>, p. 252).</p>
                <p>A violação de direitos humanos é caracterizada nessa literatura como a violação de importantes princípios por meio dos recentes avanços tecnológicos e com regulamentações insuficientes. Trata-se de lesões aos direitos de personalidade, privacidade e honra, bem como abusos do Estado com ameaças autoritárias e de controle social sobre a vida (<xref ref-type="bibr" rid="B63">WERMUTH; CARDIN; WOLOWSKI, 2021</xref>). A falta de aderência aos direitos humanos internacionais por parte de sites de redes sociais também é alvo das pesquisas, uma vez que a moderação de conteúdo em plataforma de redes sociais sem a fiscalização humana acaba suprimindo os direitos dos usuários e a liberdade de expressão, o que já foi constatado em relação a grupos minoritários e historicamente excluídos, como a comunidade LGBTQIA+ e movimentos antirracistas (<xref ref-type="bibr" rid="B39">OLIVEIRA, 2020</xref>). Grupos estes que apesar de estarem obtendo vitórias no âmbito jurisprudencial brasileiro, estão vivenciando uma ampliação dos ataques neoconservadores da extrema-direita, notadamente no âmbito das redes sociais (<xref ref-type="bibr" rid="B48">RIOS, 2022</xref>).</p>
                <p>Os pesquisadores que direcionaram seus esforços para compreender o problema da transparência e regulamentação dos algoritmos conectam a problematização dos vieses discriminatórios com a opacidade dos algoritmos de IA. Segundo a literatura, o desconhecimento em relação aos <italic>softwares</italic> de IA, desde o tratamento de informações pessoais (dados sensíveis) até a etapa de programação da IA, é responsável por potencializar a geração de <italic>outputs</italic> discriminatórios (<xref ref-type="bibr" rid="B03">ALVES; ANDRADE, 2022</xref>; <xref ref-type="bibr" rid="B06">ARAÚJO; ZULLO; TORRES, 2020</xref>; <xref ref-type="bibr" rid="B33">MENDES; MATTIUZZO, 2019</xref>; <xref ref-type="bibr" rid="B59">TONIAZZO; BARBOSA; RUARO, 2021</xref>). Além disso, esses estudos abordam a regulamentação no Brasil ou em perspectiva comparada, citando dispositivos legais (leis e resoluções) em vigor ou em tramitação no Legislativo brasileiro (<xref ref-type="bibr" rid="B13">CAVALCANTE, 2022</xref>; <xref ref-type="bibr" rid="B25">GOMES; VAZ; DIAS, 2021</xref>).</p>
                <p>Os demais tópicos identificados pela análise revelam preocupações subjacentes, apontando tendências e lacunas específicas. A baixa visibilidade de problemas como responsabilidade civil, <italic>XAI</italic> e reprodução de desigualdades sociais pode ser explicada pela complexidade técnica e volatilidade do assunto. O rápido avanço dessas tecnologias dificulta a aproximação de pesquisadores de áreas correlatas, tornando essas questões emergentes no campo de investigação. Essas constatações indicam que, cada vez mais, é necessária uma compreensão interdisciplinar para aperfeiçoar o desenvolvimento dessas tecnologias em relação aos problemas jurídicos e sociais futuros.</p>
                <p>A compreensão sobre a responsabilidade civil em casos de discriminação causada por IA demonstra uma dessas lacunas presentes na literatura. Ainda que em pequeno número, os estudos identificados com essa preocupação argumentam que, no atual ordenamento jurídico brasileiro, a falta de personalidade jurídica da IA impede sua responsabilização civil em casos de discriminação. Isso tem sido utilizado por empresas desenvolvedoras de algoritmos como uma forma de evitar reparações por danos causados pela IA (<xref ref-type="bibr" rid="B15">COSTA, 2023</xref>). O exemplo citado por <xref ref-type="bibr" rid="B32">Medeiros e Moção (2021)</xref> ilustra o dilema da responsabilização civil em processos automatizados ao questionar: “de quem é a responsabilidade pela decisão assistida de não contratar determinado candidato, a empresa ou o agente desenvolvedor do sistema de IA?”. Sob essa perspectiva, esses autores ressaltam a importância de práticas de <italic>accountability</italic> no desenvolvimento dos algoritmos, incluindo responsabilidade ética, transparência e prestação de contas, além da implementação de medidas preventivas contra a discriminação algorítmica (<xref ref-type="bibr" rid="B15">COSTA, 2023</xref>; <xref ref-type="bibr" rid="B32">MEDEIROS; MOÇÃO, 2021</xref>).</p>
                <p>Entre as publicações examinadas, uma análise abordou a preocupação com o impacto da IA no processo penal. Nessa publicação, a discriminação algorítmica foi discutida de forma paralela ao tema principal, destacando os resultados preditivos no processo penal provenientes de tecnologias alimentadas por seres humanos, ou seja, tecnologias não neutras (<xref ref-type="bibr" rid="B26">GUIMARÃES, 2019</xref>). O debate sobre políticas públicas relacionadas a esses fenômenos foi identificado apenas uma vez, como uma possibilidade para mitigar a discriminação algorítmica. Essa estratégia propõe a adoção de ações afirmativas que envolvam a inclusão de pessoas pertencentes a grupos minoritários nas equipes de desenvolvimento dessas tecnologias, visando trazer diversidade social para o campo profissional da programação (<xref ref-type="bibr" rid="B45">REQUIÃO; COSTA, 2022</xref>). Além disso, nas análises, o aspecto da desumanização do trabalho se manifestou por meio dos riscos da vigilância algorítmica sobre os trabalhadores. Por exemplo, medidas de desempenho adotadas durante a jornada de trabalho podem resultar em graves violações de intimidade e privacidade, além de promover discriminação social por meio de comparações físicas e tornar os trabalhadores suscetíveis a doenças psicológicas (<xref ref-type="bibr" rid="B31">MARQUES; NETO MARTINEZ, 2022</xref>).</p>
            </sec>
            <sec>
                <title>2.2 A DISCRIMINAÇÃO ALGORÍTMICA NA ÓPTICA DOS DIREITOS HUMANOS E FUNDAMENTAIS</title>
                <p>Nesta seção do artigo empreende-se um esforço para proporcionar uma interpretação do conhecimento consolidado na temática em análise. Trata-se de uma abordagem referencial do debate estabelecido por pesquisadores da área do Direito no Brasil que investigam a discriminação algorítmica à luz dos direitos humanos e fundamentais. O primeiro passo para isso é compreender que a violação de direitos por algoritmos de IA pode ocorrer de várias formas, algumas das quais são mais objetivas, como casos de discriminação direta ou indireta contra minorias sociais (<xref ref-type="bibr" rid="B23">FRANÇA NETTO; EHRHARDT JÚNIOR, 2022</xref>). Além disso, também pode haver violação de princípios processuais (<xref ref-type="bibr" rid="B22">FORTES, 2020</xref>) e direitos como liberdade de expressão, privacidade ou personalidade (<xref ref-type="bibr" rid="B31">MARQUES; NETO MARTINEZ, 2022</xref>; <xref ref-type="bibr" rid="B39">OLIVEIRA, 2020</xref>; <xref ref-type="bibr" rid="B58">TOBBIN; CARDIN, 2022</xref>).</p>
                <p>Conforme explicado por <xref ref-type="bibr" rid="B20">Duarte e Negócio (2021)</xref>, a reflexão sobre discriminação algorítmica tem como base o princípio da igualdade. Além do princípio fundamental da igualdade, devem ser considerados os direitos à diversidade e à diferença, o que remete ao direito fundamental à não-discriminação, princípio previsto em convenções globais de Direitos Humanos (<xref ref-type="bibr" rid="B36">ONU, 1948</xref>, <xref ref-type="bibr" rid="B35">1966</xref>). Portanto, a igualdade é interpretada por meio de uma dimensão substancial, que abrange conceitos como justiça social e distributiva, e “se reflete na busca pela inclusão social daqueles indivíduos excluídos e subordinados devido a características como cor, gênero, orientação sexual, entre outras.” (<xref ref-type="bibr" rid="B20">DUARTE; NEGÓCIO, 2021</xref>, p. 6). Ademais, como direito fundamental, possui tanto uma dimensão objetiva quanto uma dimensão subjetiva – o que implica o reconhecimento de pretensões jurídicas jusfundamentais específicas (<xref ref-type="bibr" rid="B27">HACHEM, 2019</xref>).</p>
                <p>Nesse sentido, reforça-se o entendimento de que as discriminações manifestadas por algoritmos têm o caráter de reproduzir as desigualdades e discriminações sociais pré-existentes na estrutura social, resultando na manutenção de grupos minoritários em posições socialmente subordinadas (<xref ref-type="bibr" rid="B42">PINCUS, 2018</xref>). A intencionalidade discriminatória pode estar presente na programação dessas ferramentas, como na categorização de dados, na atribuição de pesos estatísticos e no enviesamento de bancos de dados (<xref ref-type="bibr" rid="B23">FRANÇA NETTO; EHRHARDT JÚNIOR, 2022</xref>). No entanto, também podem ocorrer em um cenário aparentemente neutro, desprovido de vieses, negligenciando as diferenças sociais desde a marginalização e exclusão de grupos sociais nos <italic>Big Data</italic>, até preconceitos ocultos por meio de correlações e codificações redundantes (<xref ref-type="bibr" rid="B07">BAROCAS; SELBST, 2016</xref>; <xref ref-type="bibr" rid="B20">DUARTE; NEGÓCIO, 2021</xref>). As decisões humanas sempre foram influenciadas por enviesamentos. A utilização de algoritmos pode amplificar esses preconceitos sociais, aumentando o alcance das decisões enviesadas pelas máquinas. (<xref ref-type="bibr" rid="B44">PUSCHEL; RODRIGUES; VALLE, 2022</xref>; <xref ref-type="bibr" rid="B47">RIBEIRO, 2022</xref>). Um exemplo evidente disso é encontrado no estudo de <xref ref-type="bibr" rid="B22">Fortes (2020, p. 5)</xref> no qual é discutido o enviesamento estatístico do caso COMPAS, que resultou em atribuições de pontuações de risco desproporcionais entre réus negros e brancos.</p>
                <p>A intensificação das possíveis violações de direitos humanos e fundamentais por parte dos algoritmos de IA também afeta o direito à liberdade de expressão. Embora a mobilização das tecnologias possuam potenciais de melhorar a qualidade do conteúdo online, combatendo, por exemplo, discursos de ódio e manifestações preconceituosas (o que é uma exigência contemporânea), há relatos de bloqueio de conteúdo que privam certos grupos minoritários de se expressarem livremente devido a aspectos linguísticos e culturais, contrariando princípios estabelecidos em tratados internacionais (<xref ref-type="bibr" rid="B35">ONU, 1966</xref>; <xref ref-type="bibr" rid="B39">OLIVEIRA, 2020</xref>). Um exemplo disso são as redes sociais que utilizam ferramentas algorítmicas para moderar o conteúdo, às vezes sem controle humano ou com uma revisão tardia, não atendendo aos requisitos estabelecidos pelo <italic>International Covenant on Civil and Political Rights</italic> (<xref ref-type="bibr" rid="B39">OLIVEIRA, 2020</xref>).</p>
                <p>O avanço das novas tecnologias transforma os direitos fundamentais de terceira dimensão por meio do controle da liberdade e intimidade dos indivíduos, devido ao compartilhamento diário de múltiplos dados em rede (<xref ref-type="bibr" rid="B52">SARLET, 2018</xref>, <xref ref-type="bibr" rid="B53">2021</xref>). Diante de violações constantes, os direitos da personalidade também são objeto de debates e preocupações nesses estudos. A violação dos direitos à imagem, honra e intimidade dos indivíduos por meio da exposição de dados pessoais tem se tornado cada vez mais comum (<xref ref-type="bibr" rid="B63">WERMUTH; CARDIN; WOLOWSKI, 2021</xref>). Os riscos decorrentes do avanço do controle social com base em informações pessoais, que podem criar condições para políticas totalitárias respaldadas juridicamente, capazes de controlar a vida e a morte dos indivíduos, são motivo de preocupação para os pesquisadores (<xref ref-type="bibr" rid="B63">WERMUTH; CARDIN; WOLOWSKI, 2021</xref>).</p>
                <p>Da mesma forma, <xref ref-type="bibr" rid="B28">Henriques e Sampaio (2021, p. 261)</xref> argumentam que “o uso indiscriminado de dados pessoais é capaz de objetificar as pessoas, promover manipulações, afetar o livre desenvolvimento da personalidade e gerar discriminações”. Essa afirmação está relacionada, por exemplo, a violações dos direitos fundamentais trabalhistas que afetam os direitos à privacidade, intimidade e dignidade humana, como nos casos de <italic>softwares</italic> de monitoramento de desempenho e comportamento dos trabalhadores, que podem ter potencial extremamente invasivo, resultando em excesso de autocobrança e posterior adoecimento dos indivíduos (<xref ref-type="bibr" rid="B31">MARQUES; NETO MARTINEZ, 2022</xref>).</p>
                <p>A exposição dessa discussão evidencia o papel das instituições perante o desenvolvimento responsável da IA. Assim, é imperativo que as instituições e seus agentes atuem com transparência e responsabilidade, assegurando que os avanços tecnológicos promovam mudanças positivas e justas na sociedade, contribuam para o bem-estar social e respeitem os direitos fundamentais consolidados.</p>
            </sec>
            <sec>
                <title>2.3 A TRANSPARÊNCIA E REGULAMENTAÇÃO E A DISCUSSÃO SOBRE FORMAS DE MITIGAR A DISCRIMINAÇÃO ALGORÍTMICA</title>
                <p>Diante dos potenciais riscos dos avanços tecnológicos em relação aos direitos fundamentais, especialmente aqueles relacionados aos dados pessoais, diversas organizações internacionais têm se engajado nas últimas décadas em discussões sobre diretrizes e regulamentos para a utilização responsável e ética dessas ferramentas, (<xref ref-type="bibr" rid="B21">EUROPEAN UNION, 2016</xref>;<xref ref-type="bibr" rid="B38"> OECD, 2019</xref>) por meio de princípios e recomendações pautadas em uma IA baseada em valores humanos (<xref ref-type="bibr" rid="B10">BRAVO, 2020</xref>). Nesse sentido, o Brasil também adotou medidas para regulamentar e estabelecer diretrizes que visam mitigar e combater possíveis discriminações e abusos de poder decorrentes de bancos de dados e do uso de algoritmos de IA, destacando-se a Lei nº 13.709/18 – Geral de Proteção de Dados (LGPD) e, ainda, a <xref ref-type="bibr" rid="B09">Portaria nº 4.617/2021</xref>, que estabelece a Estratégia Brasileira de Inteligência Artificial (EBIA) sob responsabilidade do Ministério da Ciência, Tecnologia e Inovação.</p>
                <p>A EBIA fundamenta-se nas diretrizes estabelecidas pela <italic>Organisation for Economic Co-operation and Development</italic> (OECD), da qual o Brasil é signatário. A Portaria nº 4.617/2021 do MCT&amp;I destaca alguns princípios levantados por essa organização internacional, tais como: (I) os benefícios da IA devem ser centrados no ser humano, no planeta, no desenvolvimento sustentável e no bem-estar; (II) o dever de respeitar o Estado Democrático de Direito, os Direitos Humanos e a diversidade social; (III) a transparência e a divulgação responsável das ferramentas de IA, permitindo explicação, revisão e contestação por parte dos usuários e das pessoas afetadas; e (IV) o funcionamento robusto, seguro e protegido, com avaliações contínuas.</p>
                <p>No entanto, a doutrina jurídica brasileira concentra grande parte de seus esforços para discutir os riscos e limites da aplicação dos algoritmos em diversas áreas da sociedade brasileira, especialmente levando-se em consideração a multifuncionalidade dos direitos fundamentais na Lei Geral de Proteção de Dados – LGPD (<xref ref-type="bibr" rid="B29">HIROMI; SALGADO, 2020</xref>). O que se tem destacado é uma preocupação significativa relacionada ao uso de IA no sistema judicial brasileiro, devido ao potencial discriminatório que essas ferramentas podem apresentar em decisões automatizadas. A partir de 2020, o Conselho Nacional de Justiça estabeleceu diretrizes para o uso da IA em conformidade com a LGPD e com os artigos 195 e 196 do Código de Processo Civil, fundamentando-se no princípio da eficácia (CNJ, 2020a, b). Os estudos sobre esse tema abordam o direito à explicação previsto na LGPD em casos de tratamento de dados pessoais por meio de decisões automatizadas, questionando a capacidade da legislação em lidar com a opacidade algorítmica (<xref ref-type="bibr" rid="B59">TONIAZZO; BARBOSA; RUARO, 2021</xref>).</p>
                <p>Com base nessa abordagem, <xref ref-type="bibr" rid="B59">Toniazzo, Barbosa e Ruaro (2021)</xref> discutem as limitações gerais previstas no ordenamento jurídico brasileiro em relação ao direito à explicação. O princípio da explicabilidade é considerado fundamental para estabelecer relações de confiança nos sistemas de IA tornando os processos transparentes e buscando alcançar decisões imparciais e com menor grau de subjetividade.</p>
                <p>Existe uma interpretação restritiva e equivocada da LGPD que sugere que o direito à revisão por parte de uma pessoa natural não está previsto em seu art. 20. Parece mais adequada ao sistema constitucional brasileiro, todavia, a realização de uma hermenêutica extensiva para garantir o direito à explicação e os interesses dos titulares de dados pessoais (<xref ref-type="bibr" rid="B59">TONIAZZO; BARBOSA; RUARO, 2021</xref>). No entanto, há também o argumento de que o art. 20 da Lei nº 13.709/2018 reconhece o direito “de solicitar a revisão de uma decisão automatizada por uma pessoa natural, caso o titular dos dados considere que seus interesses foram afetados” (<xref ref-type="bibr" rid="B25">GOMES; VAZ; DIAS, 2021</xref>, p. 116).<xref ref-type="fn" rid="fn08">8</xref> Nessa perspectiva, o direito à explicação e o princípio da transparência desempenham um papel fundamental no avanço do debate em direção a uma inteligência artificial ética e fundamentada nos direitos humanos, como apontam <xref ref-type="bibr" rid="B12">Cardoso e Pessoa (2022, p. 93)</xref>.</p>
                <p>Para promover uma inteligência artificial ética, a doutrina jurídica brasileira vem incorporando o conceito de “desenviesamento” humano e algorítmico, com o objetivo de aplicar o princípio da não-discriminação (<xref ref-type="bibr" rid="B47">RIBEIRO, 2022</xref>). Indícios dessa busca pelo combate aos vieses na utilização da IA podem ser observados na Resolução 332 do CNJ, que estabelece a criação de condições para eliminar ou minimizar decisões discriminatórias baseadas em preconceitos, além de exigir a homologação de modelos de IA capazes de “identificar se preconceitos ou generalizações influenciaram seu desenvolvimento” (CNJ, 2020b). No entanto, uma crítica relevante feita nessa literatura está relacionada à aparente omissão da regulamentação do CNJ em relação à origem dos dados que alimentam os algoritmos de IA, os quais provêm de uma sociedade marcada por preconceitos e desigualdades (<xref ref-type="bibr" rid="B12">CARDOSO; PESSOA, 2022</xref>). Essa questão ressalta a importância de considerar os agentes responsáveis pela construção dos algoritmos e pela implementação das IAs na sociedade. Não se pode negligenciar ou abstrair dessa discussão jurídica os interesses por trás dos tratamentos de bancos de dados e da programação dos algoritmos ao regulamentar esses processos, pois a responsabilidade desses atores é crucial para garantir uma IA que seja justa e equitativa.</p>
                <p>Se o desenviesamento se torna um antídoto importante para combater a discriminação algorítmica e alcançar decisões éticas, transparentes e imparciais no uso da IA na sociedade (<xref ref-type="bibr" rid="B44">PUSCHEL; RODRIGUES; VALLE, 2022</xref>), o próprio avanço tecnológico passa a desempenhar um papel fundamental nesse progresso. <xref ref-type="bibr" rid="B03">Alves e Andrade (2022)</xref> descrevem os avanços em direção a uma Inteligência Artificial Explicável (<italic>XAI</italic>), na qual permite combater a opacidade algorítmica por meio de seu próprio sistema preditivo, fornecendo explicações sobre o funcionamento de suas correlações internas. A chamada "caixa de vidro" da <italic>XAI</italic> promove uma maior confiabilidade para os usuários e a sociedade em geral, permitindo a verificação e a atribuição de responsabilidade às decisões tomadas pela IA (<xref ref-type="bibr" rid="B03">ALVES; ANDRADE, 2022</xref>). Todavia, resta evidente que estas novas ferramentas de transparência possuem limites técnicos autorreferentes. O uso de redes neurais artificiais e <italic>deep learning,</italic> implicam o reconhecimento e aceitação de algum nível de inexplicabilidade, pela própria natureza probabilística e autônoma de funcionamento do sistema na atualidade. Esta é uma questão permanente e que exige acompanhamento, controle e regulação.</p>
                <p>Por fim, há ainda a preocupação em relação às automatizações no âmbito da gestão pública e às possíveis limitações dos conceitos e medidas mais discutidos, como transparência administrativa e <italic>accountability</italic>. Essa preocupação é abordada por <xref ref-type="bibr" rid="B33">Mendes e Mattiuzzo (2019)</xref>, que destacam as limitações dessas medidas, especialmente quando se trata de informações sensíveis e motivos privados. Logo, há a necessidade de combinar estratégias e considerar aspectos de responsabilidade pela Administração Pública na concepção dos modelos de IA, desde a formação das equipes de programadores até os últimos processos de execução dos serviços. Isso implica capacitar as pessoas não apenas em questões técnicas de programação, mas também em princípios éticos e de governança, a fim de compreenderem os impactos das tecnologias no mundo real (<xref ref-type="bibr" rid="B33">MENDES; MATTIUZZO, 2019</xref>).</p>
            </sec>
        </sec>
        <sec sec-type="conclusions">
            <title>CONSIDERAÇÕES FINAIS</title>
            <p>Ao perseguir o objetivo de analisar como a discriminação algorítmica tem sido abordada na pesquisa acadêmica no campo do Direito no Brasil e, ainda, fornecer uma descrição do estado atual dessa discussão, a investigação revelou uma consolidação de dois eixos de análise distintos. O primeiro eixo está relacionado às abordagens fundamentadas nos direitos humanos e fundamentais, enquanto o segundo aborda o fenômeno sob a perspectiva da regulamentação e transparência dos algoritmos. Essa descoberta corrobora a hipótese formulada no problema de pesquisa e, na prática, implica não apenas na concentração de estudos em casos discriminatórios semelhantes, mas também na identificação de objetos de análise e problemáticas similares, além de lacunas de investigação em outras áreas correlatas do Direito.</p>
            <p>Evidenciou-se uma temática de pesquisa recente, com crescimento significativo nos últimos dois anos, período em que 28 dos 36 textos analisados foram publicados. Esse panorama sugere a crescente relevância dessa temática no campo acadêmico nacional, despertando interesse não apenas nas publicações em periódicos, mas também nas motivações pessoais dos pesquisadores, especialmente aqueles em nível de pós-graduação. Além disso, foi possível identificar o crescimento dessa temática em diversas subáreas do Direito, embora algumas delas já despontem com maior dedicação dos pesquisadores, como as abordagens no âmbito do Direito Civil e Direito do Trabalho.</p>
            <p>Ao observar a importância da responsabilização civil na discussão sobre a atribuição de responsabilidade em casos de violações de direitos causadas por IA, verifica-se essa como um exemplo de lacuna do campo acadêmico. O mesmo pode ser observado em relação aos impactos desse fenômeno no contexto das relações de trabalho. Apesar dos esforços recentes das instituições judiciais para tornar o tema objeto de atenção, ainda é necessário um maior aprofundamento nas explicações sobre processos preditivos de contratação e controle sobre as violações de direitos à privacidade dos trabalhadores.</p>
            <p>Destaca-se, ainda, que a temática da decisão judicial é significativamente abordada nas publicações, principalmente atreladas aos debates da Teoria do Direito. Contudo, percebe-se que o problema da decisão por uma perspectiva do Processo Penal não tem recebido atenção semelhante, evidenciando uma lacuna. Já um ponto consensual dessa bibliografia é a necessidade de regulação estatal do uso da inteligência artificial com o objetivo de evitar a discriminação, notadamente por intermédio da imposição do dever de maior transparência. Nesse sentido, o material pesquisado confirma proposições como a de <xref ref-type="bibr" rid="B50">Fábio Sousa Santos (2021a, p. 255)</xref> de que uma sociedade cada vez mais digital requer um aparato estatal forte e capaz de responder aos desafios impostos – contraditando, portanto, a visão liberal a respeito do fenômeno.</p>
            <p>Especula-se que à medida que os sistemas de IA forem mais amplamente empregados no Brasil e o conhecimento sobre suas aplicações na sociedade se tornar mais difundido, haverá uma disseminação da produção acadêmica em seus diversos campos e subcampos de pesquisa. Ademais, as inovações deverão implicar uma regulação à luz da precaução e do desenvolvimento sustentável (<xref ref-type="bibr" rid="B54">SCHIER; MAKSYM; MOTA, 2021</xref>). E é necessário ressaltar que, assim como em todo o campo de pesquisa dedicado à IA, o Direito também requer investigações interdisciplinares, a fim de avançar no desenvolvimento de diagnósticos atualizados e habilitados para elaborar adequadas políticas públicas e possíveis soluções regulatórias para as tecnologias na sociedade a partir dos comandos do novo “constitucionalismo digital” (<xref ref-type="bibr" rid="B57">SOUSA; CRISTÓVAM; MACHADO, 2022</xref>).</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other" id="fn04">
                <label>4</label>
                <p>Destaca-se que a <italic>Web of Science</italic> e a <italic>SciELO</italic>, que compartilham o mesmo mecanismo de busca. Essa integração ocorreu a partir do ano de 2014, quando a <italic>SciELO</italic> foi incorporada à plataforma da WoS.</p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p>Vale ressaltar que a <italic>Scopus</italic> não conta com um filtro exclusivo para a área do Direito, sendo essa parte das sociais aplicadas conforme está descrito na <italic>string</italic> (SUBJAREA ,  "SOCI"). Já na WoS e Scielo é possível usar um limitador específico para o campo do Direito, conforme explicado na busca “Law (Web of Science Categories)”.</p>
            </fn>
            <fn fn-type="other" id="fn06">
                <label>6</label>
                <p>Os termos incluídos na busca do Google Scholar foram: "Lei" OR "Jurídico" OR "Judicial" OR "Jurídica" (Tópico) AND "Inteligência Artificial" OR "Aprendizado de Máquina" OR "Aprendizado Profundo" OR "Redes Neurais" AND "Discriminação" OR "Viés" OR "Racismo" OR "Algoritmos" OR "Viés Algorítmico" OR "Discriminação Algorítmica" OR "Racismo Algorítmico".</p>
            </fn>
            <fn fn-type="other" id="fn07">
                <label>7</label>
                <p>O estrato superior da CAPES é composto por periódicos classificados como A1, A2, A3 e A4 no último quadriênio (2017-2020).</p>
            </fn>
            <fn fn-type="other" id="fn08">
                <label>8</label>
                <p>Vale ressaltar que o trecho da lei que previa a revisão de decisões automatizadas por uma pessoa natural foi retirado do texto em lei por veto presidencial.</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>REFERÊNCIAS</title>
            <ref id="B01">

                <mixed-citation>﻿ADAM, Alison; FURNIVAL, Chloe. Designing Intersections-Designing Subjectivity: Feminist Theory and Praxis in a Sex Discrimination Legislation System. <bold>Information &amp; Communications Technology Law</bold>. v. 4, n. 2, 1995.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ADAM</surname>
                            <given-names>Alison</given-names>
                        </name>
                        <name>
                            <surname>FURNIVAL</surname>
                            <given-names>Chloe</given-names>
                        </name>
                    </person-group>
                    <article-title>Designing Intersections-Designing Subjectivity: Feminist Theory and Praxis in a Sex Discrimination Legislation System</article-title>
                    <source>Information &amp; Communications Technology Law</source>
                    <volume>4</volume>
                    <issue>2</issue>
                    <year>1995</year>
                </element-citation>
            </ref>
            <ref id="B02">

                <mixed-citation>ALVES, Fabrício Germano; ROCHA, Vinícius Wdson do Vale. Discriminação na precificação conforme a geolocalização (geopricing) do consumidor. In: <bold>II Congresso Internacional de Direito e Inteligência Artificial</bold>. 2021, Belo Horizonte: [s.n.], 2021.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ALVES</surname>
                            <given-names>Fabrício Germano</given-names>
                        </name>
                        <name>
                            <surname>ROCHA</surname>
                            <given-names>Vinícius Wdson do Vale</given-names>
                        </name>
                    </person-group>
                    <conf-name>Discriminação na precificação conforme a geolocalização (geopricing) do consumidor</conf-name>
                    <source>II Congresso Internacional de Direito e Inteligência Artificial</source>
                    <conf-date>2021</conf-date>
                    <conf-loc>Belo Horizonte</conf-loc>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B03">

                <mixed-citation>ALVES, Marco; ANDRADE, Otávio Morato de. Da “caixa-preta” à “caixa de vidro”: o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos. <bold>Direito Público</bold>. v. 18, n. 100, p. 349–373, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ALVES</surname>
                            <given-names>Marco</given-names>
                        </name>
                        <name>
                            <surname>ANDRADE</surname>
                            <given-names>Otávio Morato de</given-names>
                        </name>
                    </person-group>
                    <article-title>Da “caixa-preta” à “caixa de vidro”: o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos</article-title>
                    <source>Direito Público</source>
                    <volume>18</volume>
                    <issue>100</issue>
                    <fpage>349</fpage>
                    <lpage>373</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B04">

                <mixed-citation>ANGWIN, Julia <italic>et al</italic>. <bold>Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks</bold>. 2016. Disponível em: &lt;https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing&gt;. Acesso em: 10 jun. 2023.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ANGWIN</surname>
                            <given-names>Julia</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <source>Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks</source>
                    <year>2016</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing">https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">10 jun. 2023</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B05">

                <mixed-citation>ARAUJO, Adriane Reis de <italic>et al</italic>. <bold>O uso de dados pessoais e inteligência artificial na relação de trabalho: proteção, discriminação, violência e assédio digital</bold>. Brasília: Ministério Público do Trabalho, 2022.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ARAUJO</surname>
                            <given-names>Adriane Reis de</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <source>O uso de dados pessoais e inteligência artificial na relação de trabalho: proteção, discriminação, violência e assédio digital</source>
                    <publisher-loc>Brasília</publisher-loc>
                    <publisher-name>Ministério Público do Trabalho</publisher-name>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B06">

                <mixed-citation>ARAÚJO, Valter Shuenquener de; ZULLO, Bruno Almeida; TORRES, Maurílio. Big Data, algoritmos e inteligência artificial na Administração Pública: reflexões para a sua utilização em um ambiente democrático. <bold>A&amp;C – REVISTA DE DIREITO ADMINISTRATIVO &amp; CONSTITUCIONAL</bold>. v. 20, n. 80, p. 241–261, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ARAÚJO</surname>
                            <given-names>Valter Shuenquener de</given-names>
                        </name>
                        <name>
                            <surname>ZULLO</surname>
                            <given-names>Bruno Almeida</given-names>
                        </name>
                        <name>
                            <surname>TORRES</surname>
                            <given-names>Maurílio</given-names>
                        </name>
                    </person-group>
                    <article-title>Big Data, algoritmos e inteligência artificial na Administração Pública: reflexões para a sua utilização em um ambiente democrático</article-title>
                    <source>A&amp;C – REVISTA DE DIREITO ADMINISTRATIVO &amp; CONSTITUCIONAL</source>
                    <volume>20</volume>
                    <issue>80</issue>
                    <fpage>241</fpage>
                    <lpage>261</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B07">

                <mixed-citation>BAROCAS, Solon; SELBST, Andrew D. Big Data ’ S Disparate Impact. <bold>California Law Review</bold>. v. 104, n. 3, p. 671–732, 2016.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BAROCAS</surname>
                            <given-names>Solon</given-names>
                        </name>
                        <name>
                            <surname>SELBST</surname>
                            <given-names>Andrew D</given-names>
                        </name>
                    </person-group>
                    <article-title>Big Data ’ S Disparate Impact</article-title>
                    <source>California Law Review</source>
                    <volume>104</volume>
                    <issue>3</issue>
                    <fpage>671</fpage>
                    <lpage>732</lpage>
                    <year>2016</year>
                </element-citation>
            </ref>
            <ref id="B08">

                <mixed-citation>BBC. <bold>Google apologises for Photos app’s racist blunder</bold>. 2015. Disponível em: &lt;https://www.bbc.com/news/technology-33347866&gt;. Acesso em: 10 jun. 2023.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>BBC</collab>
                    </person-group>
                    <source>Google apologises for Photos app’s racist blunder</source>
                    <year>2015</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.bbc.com/news/technology-33347866">https://www.bbc.com/news/technology-33347866</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">10 jun. 2023</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B09">

                <mixed-citation>BRASIL. Ministério da Ciência, Tecnologia e Inovações. <bold>Portaria nº 4.617</bold>. de 6 de abril de 2021. Diário Oficial da União, Edição 67, Seção 1, p. 30, 12 abr. 2021. Disponível em: https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ebia-portaria_mcti_4-617_2021.pdf. Acesso em: 20 jun. 2024.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>BRASIL. Ministério da Ciência, Tecnologia e Inovações</collab>
                    </person-group>
                    <source>Portaria nº 4.617</source>
                    <day>6</day>
                    <month>04</month>
                    <year>2021</year>
                    <comment>Diário Oficial da União, Edição 67, Seção 1</comment>
                    <fpage>30</fpage>
                    <lpage>30</lpage>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ebia-portaria_mcti_4-617_2021.pdf">https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ebia-portaria_mcti_4-617_2021.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">20 jun. 2024</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B10">

                <mixed-citation>BRAVO, Álvaro A. Sánchez. Marco europeo para uma inteligencia artificial basada em las personas. <bold>International Journal of Digital Law</bold>. v. 1, n. 1, p. 65-78, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRAVO</surname>
                            <given-names>Álvaro A. Sánchez</given-names>
                        </name>
                    </person-group>
                    <article-title>Marco europeo para uma inteligencia artificial basada em las personas</article-title>
                    <source>International Journal of Digital Law</source>
                    <volume>1</volume>
                    <issue>1</issue>
                    <fpage>65</fpage>
                    <lpage>78</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B11">

                <mixed-citation>CAMARGO, Brigido Vizeu; JUSTO, Ana Maria. IRAMUTEQ: Um Software Gratuito para Análise de Dados Textuais. <bold>Temas em Psicologia</bold>. v. 21, n. 2, p. 513–518, 2013.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CAMARGO</surname>
                            <given-names>Brigido Vizeu</given-names>
                        </name>
                        <name>
                            <surname>JUSTO</surname>
                            <given-names>Ana Maria</given-names>
                        </name>
                    </person-group>
                    <article-title>IRAMUTEQ: Um Software Gratuito para Análise de Dados Textuais</article-title>
                    <source>Temas em Psicologia</source>
                    <volume>21</volume>
                    <issue>2</issue>
                    <fpage>513</fpage>
                    <lpage>518</lpage>
                    <year>2013</year>
                </element-citation>
            </ref>
            <ref id="B12">

                <mixed-citation>CARDOSO, Henrique Ribeiro; PESSOA, Flávia Moreira Guimarães. Inteligência artificial e julgamento por computadores: uma análise sob a perspectiva de um acesso a justiça substancial. <bold>Revista Juridica</bold>. v. 5, n. 72, p. 75–101, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CARDOSO</surname>
                            <given-names>Henrique Ribeiro</given-names>
                        </name>
                        <name>
                            <surname>PESSOA</surname>
                            <given-names>Flávia Moreira Guimarães</given-names>
                        </name>
                    </person-group>
                    <article-title>Inteligência artificial e julgamento por computadores: uma análise sob a perspectiva de um acesso a justiça substancial</article-title>
                    <source>Revista Juridica</source>
                    <volume>5</volume>
                    <issue>72</issue>
                    <fpage>75</fpage>
                    <lpage>101</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B13">

                <mixed-citation>CAVALCANTE, Jamile Sabbad Carecho. Um panorama do avanço legislativo acerca da regulamentação da inteligência artificial no Brasil. 2022, [S.l: s.n.], 2022.</mixed-citation>
                <element-citation publication-type="thesis">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CAVALCANTE</surname>
                            <given-names>Jamile Sabbad Carecho</given-names>
                        </name>
                    </person-group>
                    <source>Um panorama do avanço legislativo acerca da regulamentação da inteligência artificial no Brasil</source>
                    <year>2022</year>
                    <comment>2022</comment>
                </element-citation>
            </ref>
            <ref id="B14">

                <mixed-citation>CONSELHO NACIONAL DE JUSTIÇA. <bold>Resolução nº 332</bold>. de 21 de agosto de 2020. Disponível em: &lt; https://atos.cnj.jus.br/atos/detalhar/3429&gt;.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>CONSELHO NACIONAL DE JUSTIÇA</collab>
                    </person-group>
                    <source>Resolução nº 332</source>
                    <day>21</day>
                    <month>08</month>
                    <year>2020</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://atos.cnj.jus.br/atos/detalhar/3429">https://atos.cnj.jus.br/atos/detalhar/3429</ext-link>&gt;</comment>
                </element-citation>
            </ref>
            <ref id="B15">

                <mixed-citation>COSTA, Diego Carneiro. A responsabilidade civil pelos danos causados pela inteligência artificial nas hipóteses de discriminação algorítmica. <bold>Revista Direito UNIFACS - Debate Virtual</bold>. n. 272, 2023.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COSTA</surname>
                            <given-names>Diego Carneiro</given-names>
                        </name>
                    </person-group>
                    <article-title>A responsabilidade civil pelos danos causados pela inteligência artificial nas hipóteses de discriminação algorítmica</article-title>
                    <source>Revista Direito UNIFACS - Debate Virtual</source>
                    <issue>272</issue>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B16">

                <mixed-citation>DANCEANU, Constanza Fernández. Systematic review of the causes of Latin American states’ compliance with international human rights law. <bold>Human Rights Quarterly</bold>. v. 41, n. 3, p. 553–577, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DANCEANU</surname>
                            <given-names>Constanza Fernández</given-names>
                        </name>
                    </person-group>
                    <article-title>Systematic review of the causes of Latin American states’ compliance with international human rights law</article-title>
                    <source>Human Rights Quarterly</source>
                    <volume>41</volume>
                    <issue>3</issue>
                    <fpage>553</fpage>
                    <lpage>577</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B17">

                <mixed-citation>DASTIN, Jeffrey. <bold>Amazon Scraps Secret AI Recruiting Tool that Showed Bias against Women</bold>. 2018. Disponível em: &lt;https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G&gt;. Acesso em: 10 jun. 2023.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DASTIN</surname>
                            <given-names>Jeffrey</given-names>
                        </name>
                    </person-group>
                    <source>Amazon Scraps Secret AI Recruiting Tool that Showed Bias against Women</source>
                    <year>2018</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G">https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">10 jun. 2023</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B18">

                <mixed-citation>DINOS, Sokratis <italic>et al</italic>. <bold>A systematic review of juries’ assessment of rape victims: Do rape myths impact on juror decision-making? International Journal of Law, Crime and Justice</bold>. [S.l: s.n.], 2015</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DINOS</surname>
                            <given-names>Sokratis</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>A systematic review of juries’ assessment of rape victims: Do rape myths impact on juror decision-making?</article-title>
                    <source>International Journal of Law, Crime and Justice</source>
                    <year>2015</year>
                </element-citation>
            </ref>
            <ref id="B19">

                <mixed-citation>DONATO, Helena; DONATO, Mariana. Stages for undertaking a systematic review. <bold>Acta Medica Portuguesa</bold>. v. 32, n. 3, p. 227–235, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DONATO</surname>
                            <given-names>Helena</given-names>
                        </name>
                        <name>
                            <surname>DONATO</surname>
                            <given-names>Mariana</given-names>
                        </name>
                    </person-group>
                    <article-title>Stages for undertaking a systematic review</article-title>
                    <source>Acta Medica Portuguesa</source>
                    <volume>32</volume>
                    <issue>3</issue>
                    <fpage>227</fpage>
                    <lpage>235</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B20">

                <mixed-citation>DUARTE, Alan; NEGÓCIO, Ramon de Vasconcelos. Todos São Iguais Perante o Algoritmo? Uma Resposta Cultural do Direito à Discriminação Algorítmica. <bold>Revista de Direito Público</bold>. v. 18, n. 100, p. 218–244, 2021. Disponível em: &lt;http://orcid.org/0000-0003-4724-9658.&gt;.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DUARTE</surname>
                            <given-names>Alan</given-names>
                        </name>
                        <name>
                            <surname>NEGÓCIO</surname>
                            <given-names>Ramon de Vasconcelos</given-names>
                        </name>
                    </person-group>
                    <article-title>Todos São Iguais Perante o Algoritmo? Uma Resposta Cultural do Direito à Discriminação Algorítmica</article-title>
                    <source>Revista de Direito Público</source>
                    <volume>18</volume>
                    <issue>100</issue>
                    <fpage>218</fpage>
                    <lpage>244</lpage>
                    <year>2021</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="http://orcid.org/0000-0003-4724-9658">http://orcid.org/0000-0003-4724-9658</ext-link>&gt;</comment>
                </element-citation>
            </ref>
            <ref id="B21">

                <mixed-citation>EUROPEAN UNION. <bold>General Data Protection Regulation</bold>. [S.l: s.n.], 2016.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>EUROPEAN UNION</collab>
                    </person-group>
                    <source>General Data Protection Regulation</source>
                    <year>2016</year>
                </element-citation>
            </ref>
            <ref id="B22">

                <mixed-citation>FORTES, Pedro Rubim Borges. Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process. <bold>Asian Journal of Law and Society</bold>. v. 7, n. 3, p. 453–469, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FORTES</surname>
                            <given-names>Pedro Rubim Borges</given-names>
                        </name>
                    </person-group>
                    <article-title>Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process</article-title>
                    <source>Asian Journal of Law and Society</source>
                    <volume>7</volume>
                    <issue>3</issue>
                    <fpage>453</fpage>
                    <lpage>469</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B23">

                <mixed-citation>FRANÇA NETTO, Milton Pereira de; EHRHARDT JÚNIOR, Marcos. Os riscos da discriminação algorítmica na utilização de aplicações de inteligência artificial no cenário brasileiro. <bold>Revista Jurídica Luso Brasileira</bold>. v. 8, n. 3, p. 1271–1318, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FRANÇA</surname>
                            <given-names>Milton Pereira de</given-names>
                            <suffix>NETTO</suffix>
                        </name>
                        <name>
                            <surname>EHRHARDT</surname>
                            <given-names>Marcos</given-names>
                            <suffix>JÚNIOR</suffix>
                        </name>
                    </person-group>
                    <article-title>Os riscos da discriminação algorítmica na utilização de aplicações de inteligência artificial no cenário brasileiro</article-title>
                    <source>Revista Jurídica Luso Brasileira</source>
                    <volume>8</volume>
                    <issue>3</issue>
                    <fpage>1271</fpage>
                    <lpage>1318</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B24">

                <mixed-citation>GABARDO, Emerson; FREITAS, Olga Lúcia C. de; VIANA, Ana Cristina Aguilar. The digital divide in Brazil and the accessibility as a fundamental right. <bold>Revista chilena de derecho y tecnología</bold>. v. 11, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GABARDO</surname>
                            <given-names>Emerson</given-names>
                        </name>
                        <name>
                            <surname>FREITAS</surname>
                            <given-names>Olga Lúcia C. de</given-names>
                        </name>
                        <name>
                            <surname>VIANA</surname>
                            <given-names>Ana Cristina Aguilar</given-names>
                        </name>
                    </person-group>
                    <article-title>The digital divide in Brazil and the accessibility as a fundamental right</article-title>
                    <source>Revista chilena de derecho y tecnología</source>
                    <volume>11</volume>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B25">

                <mixed-citation>GOMES, Eduardo Biacchi; VAZ, Andréa Arruda; DIAS, Sandra Mara de Oliveira. Limites éticos para o uso da inteligência artificial no sistema de justiça brasileiro, de acordo com a Lei. 13.709 de 2018 (LGPD) e Resoluções 331 e 332 do Conselho Nacional de Justiça. <bold>Revista Internacional Consinter de Direito</bold>. v. 2, n. 13, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GOMES</surname>
                            <given-names>Eduardo Biacchi</given-names>
                        </name>
                        <name>
                            <surname>VAZ</surname>
                            <given-names>Andréa Arruda</given-names>
                        </name>
                        <name>
                            <surname>DIAS</surname>
                            <given-names>Sandra Mara de Oliveira</given-names>
                        </name>
                    </person-group>
                    <article-title>Limites éticos para o uso da inteligência artificial no sistema de justiça brasileiro, de acordo com a Lei. 13.709 de 2018 (LGPD) e Resoluções 331 e 332 do Conselho Nacional de Justiça</article-title>
                    <source>Revista Internacional Consinter de Direito</source>
                    <volume>2</volume>
                    <issue>13</issue>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B26">

                <mixed-citation>GUIMARÃES, Rodrigo Régnier Chemim. A Inteligência Artificial e a disputa por diferentes caminhos em sua utilização preditiva no processo penal. <bold>Revista Brasileira de Direito Processual Penal</bold>. v. 5, n. 3, p. 1555–1588, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GUIMARÃES</surname>
                            <given-names>Rodrigo Régnier</given-names>
                        </name>
                    </person-group>
                    <article-title>A Inteligência Artificial e a disputa por diferentes caminhos em sua utilização preditiva no processo penal</article-title>
                    <source>Revista Brasileira de Direito Processual Penal</source>
                    <volume>5</volume>
                    <issue>3</issue>
                    <fpage>1555</fpage>
                    <lpage>1588</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B27">

                <mixed-citation>HACHEM, Daniel Wunder. São os direitos sociais “direitos públicos subjetivos”? Mitos e confusões na teoria dos direitos fundamentais. <bold>Revista de Estudos Constitucionais, Hermenêutica e Teoria do Direito (RECHTD)</bold>. São Leopoldo, v. 11, n. 3, p. 404-436, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HACHEM</surname>
                            <given-names>Daniel Wunder</given-names>
                        </name>
                    </person-group>
                    <article-title>São os direitos sociais “direitos públicos subjetivos”? Mitos e confusões na teoria dos direitos fundamentais</article-title>
                    <source>Revista de Estudos Constitucionais, Hermenêutica e Teoria do Direito (RECHTD)</source>
                    <publisher-loc>São Leopoldo</publisher-loc>
                    <volume>11</volume>
                    <issue>3</issue>
                    <fpage>404</fpage>
                    <lpage>436</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B28">

                <mixed-citation>HENRIQUES, Isabella Vieira Machado; SAMPAIO, Inês Vitorino. Discriminação Algorítmica e Inclusão em sistemas de Inteligência Artificial - Uma Reflexão sob a ótica dos Direitos da Criança no Ambiente Digital. <bold>Direito Público</bold>. v. 18, n. 100, p. 245–271, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HENRIQUES</surname>
                            <given-names>Isabella Vieira Machado</given-names>
                        </name>
                        <name>
                            <surname>SAMPAIO</surname>
                            <given-names>Inês Vitorino</given-names>
                        </name>
                    </person-group>
                    <article-title>Discriminação Algorítmica e Inclusão em sistemas de Inteligência Artificial - Uma Reflexão sob a ótica dos Direitos da Criança no Ambiente Digital</article-title>
                    <source>Direito Público</source>
                    <volume>18</volume>
                    <issue>100</issue>
                    <fpage>245</fpage>
                    <lpage>271</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B29">

                <mixed-citation>HIROMI Saito, Vitória; SALGADO, Eneida Desiree. Privacidade e proteção de dados: por uma compreensão ampla do direito fundamental em face da sua multifuncionalidade. <bold>International Journal of Digital Law</bold>. v. 1, p. 117-137, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HIROMI</surname>
                            <given-names>Saito</given-names>
                        </name>
                        <name>
                            <surname>Vitória</surname>
                            <given-names>SALGADO</given-names>
                        </name>
                    </person-group>
                    <article-title>Privacidade e proteção de dados: por uma compreensão ampla do direito fundamental em face da sua multifuncionalidade</article-title>
                    <source>International Journal of Digital Law</source>
                    <volume>1</volume>
                    <fpage>117</fpage>
                    <lpage>137</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B30">

                <mixed-citation>HORÁKA, Filip; LACKOB, David; KLOCEKB, Adam. Legal Consciousness: A Systematic Review of its Conceptualization and Measurement Methods. <bold>Anuario de Psicología Jurídica</bold>. n. 31, p. 9–34, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HORÁKA</surname>
                            <given-names>Filip</given-names>
                        </name>
                        <name>
                            <surname>LACKOB</surname>
                            <given-names>David</given-names>
                        </name>
                        <name>
                            <surname>KLOCEKB</surname>
                            <given-names>Adam</given-names>
                        </name>
                    </person-group>
                    <article-title>Legal Consciousness: A Systematic Review of its Conceptualization and Measurement Methods</article-title>
                    <source>Anuario de Psicología Jurídica</source>
                    <issue>31</issue>
                    <fpage>9</fpage>
                    <lpage>34</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B31">

                <mixed-citation>MARQUES, Fabíola; NETO MARTINEZ, Aldo Augusto. Vieses algorítmicos, direitos fundamentias e os sindicatos. <bold>Revista Jurídica Luso Brasileira</bold>. v. 8, n. 6, p. 707–729, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MARQUES</surname>
                            <given-names>Fabíola</given-names>
                        </name>
                        <name>
                            <surname>NETO MARTINEZ</surname>
                            <given-names>Aldo Augusto</given-names>
                        </name>
                    </person-group>
                    <article-title>Vieses algorítmicos, direitos fundamentias e os sindicatos</article-title>
                    <source>Revista Jurídica Luso Brasileira</source>
                    <volume>8</volume>
                    <issue>6</issue>
                    <fpage>707</fpage>
                    <lpage>729</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B32">

                <mixed-citation>MEDEIROS, Alexandre Dimitri Moreira de; MOÇÃO, Josias. A questão ética da responsabilidade civil ao longo do ciclo de vida do sistema de inteligência artificial no processo seletivo de candidatos. 2021, Belo Horizonte: [s.n.], 2021.</mixed-citation>
                <element-citation publication-type="thesis">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MEDEIROS</surname>
                            <given-names>Alexandre Dimitri Moreira de</given-names>
                        </name>
                    </person-group>
                    <source>A questão ética da responsabilidade civil ao longo do ciclo de vida do sistema de inteligência artificial no processo seletivo de candidatos</source>
                    <year>2021</year>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>[s.n.]</publisher-name>
                    <comment>2021</comment>
                </element-citation>
            </ref>
            <ref id="B33">

                <mixed-citation>MENDES, Laura Schertel; MATTIUZZO, Marcela. Discriminação Algorítmica: Conceito, Fundamento Legal e Tipologia. <bold>Revista Direito Público</bold>. v. 16, n. 90, p. 39–64, 2019. Disponível em: &lt;https://www.academia.edu/42741206/Discriminação_Algorítmica_Conceito_Fundamento_Legal_e_Tipologia&gt;.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MENDES</surname>
                            <given-names>Laura Schertel</given-names>
                        </name>
                        <name>
                            <surname>MATTIUZZO</surname>
                            <given-names>Marcela</given-names>
                        </name>
                    </person-group>
                    <article-title>Discriminação Algorítmica: Conceito, Fundamento Legal e Tipologia</article-title>
                    <source>Revista Direito Público</source>
                    <volume>16</volume>
                    <issue>90</issue>
                    <fpage>39</fpage>
                    <lpage>64</lpage>
                    <year>2019</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.academia.edu/42741206/Discriminação_Algorítmica_Conceito_Fundamento_Legal_e_Tipologia">https://www.academia.edu/42741206/Discriminação_Algorítmica_Conceito_Fundamento_Legal_e_Tipologia</ext-link>&gt;</comment>
                </element-citation>
            </ref>
            <ref id="B34">

                <mixed-citation>MUGNAINI, Rogério; NOYONS, Ed; PACKER, Abel L. Fluxo de citações inter-nacional: fontes de informação para avaliação de impacto científico no Brasil Rogério. <bold>6<sup>o</sup> Encontro Bras. Bibliometr. e Cientometria a ciência em rede</bold>. 6° ed. Rio de Janeiro: UFRJ, 2018.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MUGNAINI</surname>
                            <given-names>Rogério</given-names>
                        </name>
                        <name>
                            <surname>NOYONS</surname>
                            <given-names>Ed</given-names>
                        </name>
                        <name>
                            <surname>PACKER</surname>
                            <given-names>Abel L.</given-names>
                        </name>
                    </person-group>
                    <source>Fluxo de citações inter-nacional: fontes de informação para avaliação de impacto científico no Brasil Rogério</source>
                    <edition>6° ed</edition>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>UFRJ</publisher-name>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B35">

                <mixed-citation>NATIONS, United. <bold>International Covenant on Civil and Political Rights</bold>. <bold>General Assembly resolution 2200A</bold>. [S.l: s.n.]. , 1966</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>NATIONS, United</collab>
                    </person-group>
                    <source>International Covenant on Civil and Political Rights</source>
                    <comment>General Assembly resolution 2200A</comment>
                    <year>1966</year>
                </element-citation>
            </ref>
            <ref id="B36">

                <mixed-citation>______. <bold>Universal Declaration of Human Rights Preamble</bold>. <bold>United Nations General Assembly</bold>. [S.l: s.n.]. , 1948</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>NATIONS, United</collab>
                    </person-group>
                    <source>Universal Declaration of Human Rights Preamble</source>
                    <publisher-name>United Nations General Assembly</publisher-name>
                    <year>1948</year>
                </element-citation>
            </ref>
            <ref id="B37">

                <mixed-citation>O’NEIL, Cathy. <bold>Personality Tests Are Failing American Workers</bold>. 2018. Disponível em: &lt;https://www.bloomberg.com/opinion/articles/2018-01-18/personality-tests-are-failing-american-workers#:~:text=Setting ADA violations aside for,with other types of assessments.&gt;. Acesso em: 10 jun. 2023.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>O’NEIL</surname>
                            <given-names>Cathy</given-names>
                        </name>
                    </person-group>
                    <source>Personality Tests Are Failing American Workers</source>
                    <year>2018</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.bloomberg.com/opinion/articles/2018-01-18/personality-tests-are-failing-american-workers">https://www.bloomberg.com/opinion/articles/2018-01-18/personality-tests-are-failing-american-workers</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">10 jun. 2023</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B38">

                <mixed-citation>OECD. <bold>Recommendation of the Council on Artificial Intelligence</bold>. . [S.l: s.n.]. , 2019</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>OECD</collab>
                    </person-group>
                    <source>Recommendation of the Council on Artificial Intelligence</source>
                    <publisher-loc>S.l: s.n.</publisher-loc>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B39">

                <mixed-citation>OLIVEIRA, Thiago Dias. Content moderation technologies: Applying human rights standards to protect freedom of expression. <bold>Human Rights Law Review</bold>. v. 20, n. 4, p. 607–640, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>OLIVEIRA</surname>
                            <given-names>Thiago Dias</given-names>
                        </name>
                    </person-group>
                    <article-title>Content moderation technologies: Applying human rights standards to protect freedom of expression</article-title>
                    <source>Human Rights Law Review</source>
                    <volume>20</volume>
                    <issue>4</issue>
                    <fpage>607</fpage>
                    <lpage>640</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B40">

                <mixed-citation>PAEZ, Arsenio. Gray literature: An important resource in systematic reviews. <bold>Journal of Evidence-Based Medicine</bold>. v. 10, n. 3, p. 233–240, 2017.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PAEZ</surname>
                            <given-names>Arsenio</given-names>
                        </name>
                    </person-group>
                    <article-title>Gray literature: An important resource in systematic reviews</article-title>
                    <source>Journal of Evidence-Based Medicine</source>
                    <volume>10</volume>
                    <issue>3</issue>
                    <fpage>233</fpage>
                    <lpage>240</lpage>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B41">

                <mixed-citation>PETERS, Micah D. J <italic>et al</italic>. <bold>The Joanna Briggs Institute Reviewers ’ Manual 2015 Methodology for JBI Scoping Reviews</bold>. Adelaide: The Joanna Briggs Institute., 2015.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PETERS</surname>
                            <given-names>Micah D. J</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <source>The Joanna Briggs Institute Reviewers ’ Manual 2015 Methodology for JBI Scoping Reviews</source>
                    <publisher-loc>Adelaide</publisher-loc>
                    <publisher-name>The Joanna Briggs Institute</publisher-name>
                    <year>2015</year>
                </element-citation>
            </ref>
            <ref id="B42">

                <mixed-citation>PINCUS, Fred L. From Individual to Structural Discrimination. In: PINCUS, Fred L; EHRLICH, Howard J (Org.). . <bold>Race Ethn. Confl. Contend. Views Prejud. Discrim. Ethnoviolence</bold>. New York: Routledge, 2018.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PINCUS</surname>
                            <given-names>Fred L</given-names>
                        </name>
                    </person-group>
                    <chapter-title>From Individual to Structural Discrimination</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>PINCUS</surname>
                            <given-names>Fred L</given-names>
                        </name>
                        <name>
                            <surname>EHRLICH</surname>
                            <given-names>Howard J</given-names>
                        </name>
                    </person-group>
                    <source>Race Ethn. Confl. Contend. Views Prejud. Discrim. Ethnoviolence</source>
                    <publisher-loc>New York</publisher-loc>
                    <publisher-name>Routledge</publisher-name>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B43">

                <mixed-citation>PURVES, Duncan; DAVIS, Jeremy. <bold>Criminal justice algorithms: Being race-neutral doesn’t mean race-blind</bold>. 2022. Disponível em: &lt;https://theconversation.com/criminal-justice-algorithms-being-race-neutral-doesnt-mean-race-blind-177120&gt;.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PURVES</surname>
                            <given-names>Duncan</given-names>
                        </name>
                        <name>
                            <surname>DAVIS</surname>
                            <given-names>Jeremy</given-names>
                        </name>
                    </person-group>
                    <source>Criminal justice algorithms: Being race-neutral doesn’t mean race-blind</source>
                    <year>2022</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://theconversation.com/criminal-justice-algorithms-being-race-neutral-doesnt-mean-race-blind-177120">https://theconversation.com/criminal-justice-algorithms-being-race-neutral-doesnt-mean-race-blind-177120</ext-link>&gt;</comment>
                </element-citation>
            </ref>
            <ref id="B44">

                <mixed-citation>PUSCHEL, André Felipe Silva; RODRIGUES, Roberto Tessis; VALLE, Vivian Cristina Lima López. The ethical dilemma of algorithmic decision in Public Administration. <bold>A e C - Revista de Direito Administrativo e Constitucional</bold>. v. 22, n. 90, p. 207–226, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PUSCHEL</surname>
                            <given-names>André Felipe Silva</given-names>
                        </name>
                        <name>
                            <surname>RODRIGUES</surname>
                            <given-names>Roberto Tessis</given-names>
                        </name>
                        <name>
                            <surname>VALLE</surname>
                            <given-names>Vivian Cristina Lima López</given-names>
                        </name>
                    </person-group>
                    <article-title>The ethical dilemma of algorithmic decision in Public Administration</article-title>
                    <source>A e C - Revista de Direito Administrativo e Constitucional</source>
                    <volume>22</volume>
                    <issue>90</issue>
                    <fpage>207</fpage>
                    <lpage>226</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B45">

                <mixed-citation>REQUIÃO, Maurício; COSTA, Diego Carneiro. Discriminação algorítmica : ações afirmativas como estratégia de combate. <bold>Civilistica</bold>. v. 11, n. 3, p. 1–24, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>REQUIÃO</surname>
                            <given-names>Maurício</given-names>
                        </name>
                        <name>
                            <surname>COSTA</surname>
                            <given-names>Diego Carneiro</given-names>
                        </name>
                    </person-group>
                    <article-title>Discriminação algorítmica : ações afirmativas como estratégia de combate</article-title>
                    <source>Civilistica</source>
                    <volume>11</volume>
                    <issue>3</issue>
                    <fpage>1</fpage>
                    <lpage>24</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B46">

                <mixed-citation>REYNA, Justo; GABARDO, Emerson; SANTOS, Fabio de Sousa. Electronic government, digital invisibility and fundamental social rights. <bold>Sequência (Florianópolis)</bold>. n. 85, p. 30–50, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>REYNA</surname>
                            <given-names>Justo</given-names>
                        </name>
                        <name>
                            <surname>GABARDO</surname>
                            <given-names>Emerson</given-names>
                        </name>
                        <name>
                            <surname>SANTOS</surname>
                            <given-names>Fabio de Sousa</given-names>
                        </name>
                    </person-group>
                    <article-title>Electronic government, digital invisibility and fundamental social rights</article-title>
                    <source>Sequência (Florianópolis)</source>
                    <issue>85</issue>
                    <fpage>30</fpage>
                    <lpage>50</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B47">

                <mixed-citation>RIBEIRO, Ricardo Silveira. Inteligência artificial, direito e equidade algorítmica: discriminações sociais em modelos de machine learning para a tomada de decisão. <bold>Revista de Informação Legislativa</bold>. v. 59, n. 236, p. 29–53, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RIBEIRO</surname>
                            <given-names>Ricardo Silveira</given-names>
                        </name>
                    </person-group>
                    <article-title>Inteligência artificial, direito e equidade algorítmica: discriminações sociais em modelos de machine learning para a tomada de decisão</article-title>
                    <source>Revista de Informação Legislativa</source>
                    <volume>59</volume>
                    <issue>236</issue>
                    <fpage>29</fpage>
                    <lpage>53</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B48">

                <mixed-citation>RIOS, Roger Raupp. Proteção de direitos LGBTQIA+ no Direito brasileiro: momentos e descompassos jurídicos e políticos. <bold>Revista de Investigações Constitucionais</bold>. v. 9, n. 3, p. 659-680, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RIOS</surname>
                            <given-names>Roger Raupp</given-names>
                        </name>
                    </person-group>
                    <article-title>Proteção de direitos LGBTQIA+ no Direito brasileiro: momentos e descompassos jurídicos e políticos</article-title>
                    <source>Revista de Investigações Constitucionais</source>
                    <volume>9</volume>
                    <issue>3</issue>
                    <fpage>659</fpage>
                    <lpage>680</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B49">

                <mixed-citation>RUSSELL, Stuart J.; NORVIG, Peter. <bold>Artificial Intelligence</bold>. A Modern Approach. Harlow: Pearson, 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RUSSELL</surname>
                            <given-names>Stuart J.</given-names>
                        </name>
                        <name>
                            <surname>NORVIG</surname>
                            <given-names>Peter</given-names>
                        </name>
                    </person-group>
                    <source>Artificial Intelligence</source>
                    <chapter-title>A Modern Approach</chapter-title>
                    <publisher-loc>Harlow</publisher-loc>
                    <publisher-name>Pearson</publisher-name>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B50">

                <mixed-citation>SANTOS, Fábio de Sousa. Governo eletrônico, burocracia e controle: o uso da inteligência artificial preditiva na aplicação da Lei 13.655. de 2018. In: ZOCKUN, Maurício; GABARDO, Emerson (Coords.). <bold>O Direito Administrativo do Pós-crise.</bold> Curitiba: Íthala, 2021a.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SANTOS</surname>
                            <given-names>Fábio de Sousa</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Governo eletrônico, burocracia e controle: o uso da inteligência artificial preditiva na aplicação da Lei 13.655. de 2018</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>ZOCKUN</surname>
                            <given-names>Maurício</given-names>
                        </name>
                        <name>
                            <surname>GABARDO</surname>
                            <given-names>Emerson</given-names>
                        </name>
                    </person-group>
                    <source>O Direito Administrativo do Pós-crise</source>
                    <publisher-loc>Curitiba</publisher-loc>
                    <publisher-name>Íthala</publisher-name>
                    <year>2021a</year>
                </element-citation>
            </ref>
            <ref id="B51">

                <mixed-citation>______. Racismo estrutural no Brasil e interpretação dos conceitos jurídicos indeterminados. In: ANDRADE, Giulia de Rossi; SAIKALI, Lucas Bossoni (Coords.). <bold>Eficiência, subsidiariedade, interesse público e novas tecnologias</bold>. Curitiba: Íthala, 2021b.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SANTOS</surname>
                            <given-names>Fábio de Sousa</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Racismo estrutural no Brasil e interpretação dos conceitos jurídicos indeterminados</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>ANDRADE</surname>
                            <given-names>Giulia de Rossi</given-names>
                        </name>
                        <name>
                            <surname>SAIKALI</surname>
                            <given-names>Lucas Bossoni</given-names>
                        </name>
                    </person-group>
                    <source><bold>Eficiência, subsidiariedade, interesse público e novas tecnologias</bold></source>
                    <publisher-loc>Curitiba</publisher-loc>
                    <publisher-name>Íthala</publisher-name>
                    <year>2021b</year>
                </element-citation>
            </ref>
            <ref id="B52">

                <mixed-citation>SARLET, Ingo Wolfgang. <bold>A Eficácia dos Direitos Fundamentais: uma Teoria Geral dos Direitos Fundamentais na Perspectiva Constitucional</bold>. Porto Alegre: Livraria do Advogado, 2018.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SARLET</surname>
                            <given-names>Ingo Wolfgang</given-names>
                        </name>
                    </person-group>
                    <source>A Eficácia dos Direitos Fundamentais: uma Teoria Geral dos Direitos Fundamentais na Perspectiva Constitucional</source>
                    <publisher-loc>Porto Alegre</publisher-loc>
                    <publisher-name>Livraria do Advogado</publisher-name>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B53">

                <mixed-citation>______. Fundamentos Constitucionais: o Direito fundamental à proteção de dados. In: DONEDA, Danilo et al. (Org.). <bold>Tratado de proteção de dados pessoais</bold>. Rio de Janeiro: Editora Forense, 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SARLET</surname>
                            <given-names>Ingo Wolfgang</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Fundamentos Constitucionais: o Direito fundamental à proteção de dados</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>DONEDA</surname>
                            <given-names>Danilo</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <source><bold>Tratado de proteção de dados pessoais</bold></source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Editora Forense</publisher-name>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B54">

                <mixed-citation>SCHIER, Adriana da C. Ricardo; MAKSYM, Cristina Borges R.; MOTA, Vitória D. A urgência da regulação e do fomento da inteligência artificial à luz do princpipio da precaução e do desenvolvimento sustentável. <bold>International Journal of Digital Law</bold>. v. 2, n. 3, p. 133-152, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SCHIER</surname>
                            <given-names>Adriana da C.</given-names>
                        </name>
                    </person-group>
                    <article-title>Ricardo; MAKSYM, Cristina Borges R.; MOTA, Vitória D. A urgência da regulação e do fomento da inteligência artificial à luz do princpipio da precaução e do desenvolvimento sustentável</article-title>
                    <source>International Journal of Digital Law</source>
                    <volume>2</volume>
                    <issue>3</issue>
                    <fpage>133</fpage>
                    <lpage>152</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B55">

                <mixed-citation>SCHNELL, Joshua D. Web of Science: The First Citation Index for Data Analytics and Scientometrics. In: CANTÚ-ORTIZ, Francisco J. (Org.). <bold>Res. Anal. Boost. Univ. Product. Compet. through Sci.</bold> Boca Raton: Taylor &amp; Francis, p. 15-29, 2018.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SCHNELL</surname>
                            <given-names>Joshua D</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Web of Science: The First Citation Index for Data Analytics and Scientometrics</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>CANTÚ-ORTIZ</surname>
                            <given-names>Francisco J</given-names>
                        </name>
                    </person-group>
                    <source>Res. Anal. Boost. Univ. Product. Compet. through Sci</source>
                    <publisher-loc>Boca Raton</publisher-loc>
                    <publisher-name>Taylor &amp; Francis</publisher-name>
                    <fpage>15</fpage>
                    <lpage>29</lpage>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B56">

                <mixed-citation>SCHOTTEN, Michiel <italic>et al</italic>. A Brief History of Scopus: The World’s Largest Abstract and Citation Database of Scientific Literature. In: CANTÚ-ORTIZ, Francisco J. (Org.). . <bold>Res. Anal. Boost. Univ. Product. Compet. through Sci.</bold> Boca Raton: Taylor &amp; Francis, 2018. p. 289.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SCHOTTEN</surname>
                            <given-names>Michiel</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <chapter-title>A Brief History of Scopus: The World’s Largest Abstract and Citation Database of Scientific Literature</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>CANTÚ-ORTIZ</surname>
                            <given-names>Francisco J.</given-names>
                        </name>
                    </person-group>
                    <source>Res. Anal. Boost. Univ. Product. Compet. through Sci.</source>
                    <publisher-loc>Boca Raton</publisher-loc>
                    <publisher-name>Taylor &amp; Francis</publisher-name>
                    <year>2018</year>
                    <fpage>289</fpage>
                    <lpage>289</lpage>
                </element-citation>
            </ref>
            <ref id="B57">

                <mixed-citation>SOUSA, Thanderson Pereira; CRISTÓVAM, José Sérgio da Silva; MACHADO, Raquel Cavalcanti Ramos. Constitucionalismo e administração pública digitais: inovação tecnológica e políticas públicas para o desenvolvimento do Brasil. <bold>Revista Brasileira de Políticas Públicas</bold>. v. 12, n. 2, p. 178-196, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SOUSA</surname>
                            <given-names>Thanderson Pereira</given-names>
                        </name>
                        <name>
                            <surname>CRISTÓVAM</surname>
                            <given-names>José Sérgio da Silva</given-names>
                        </name>
                        <name>
                            <surname>MACHADO</surname>
                            <given-names>Raquel Cavalcanti Ramos</given-names>
                        </name>
                    </person-group>
                    <article-title>Constitucionalismo e administração pública digitais: inovação tecnológica e políticas públicas para o desenvolvimento do Brasil</article-title>
                    <source>Revista Brasileira de Políticas Públicas</source>
                    <volume>12</volume>
                    <issue>2</issue>
                    <fpage>178</fpage>
                    <lpage>196</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B58">

                <mixed-citation>TOBBIN, Raissa Arantes; CARDIN, Valéria Silva Galdino. Biohacking and Ciborguism: Human Improvement in Light of Personality Rights. <bold>Revista Opiniao Juridica</bold>. v. 20, n. 35, p. 110–138, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TOBBIN</surname>
                            <given-names>Raissa Arantes</given-names>
                        </name>
                        <name>
                            <surname>CARDIN</surname>
                            <given-names>Valéria Silva Galdino</given-names>
                        </name>
                    </person-group>
                    <article-title>Biohacking and Ciborguism: Human Improvement in Light of Personality Rights</article-title>
                    <source>Revista Opiniao Juridica</source>
                    <volume>20</volume>
                    <issue>35</issue>
                    <fpage>110</fpage>
                    <lpage>138</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B59">

                <mixed-citation>TONIAZZO, Daniela Wendt; BARBOSA, Tales Schmidke; RUARO, Regina Linden. O Direito à explicação nas decisões automatizadas: uma abordagem comparativa entre o ordenamento brasileiro e europeu. <bold>Revista Internacional Consinter de Direito</bold>. v. 2, n. 13, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TONIAZZO</surname>
                            <given-names>Daniela Wendt</given-names>
                        </name>
                        <name>
                            <surname>BARBOSA</surname>
                            <given-names>Tales Schmidke</given-names>
                        </name>
                        <name>
                            <surname>RUARO</surname>
                            <given-names>Regina Linden</given-names>
                        </name>
                    </person-group>
                    <article-title>O Direito à explicação nas decisões automatizadas: uma abordagem comparativa entre o ordenamento brasileiro e europeu</article-title>
                    <source>Revista Internacional Consinter de Direito</source>
                    <volume>2</volume>
                    <issue>13</issue>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B60">

                <mixed-citation>VEJA. <bold>Decolar é multada em R$ 7,5 milhões por diferenciar preços a consumidor</bold>. 2018. Disponível em: &lt;https://veja.abril.com.br/economia/decolar-e-multada-em-r-75-milhoes-por-diferenciar-precos-a-consumidor#:~:text=Em fevereiro%2C o Ministério Público,que a compra era feita.&gt;.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>VEJA</collab>
                    </person-group>
                    <source>Decolar é multada em R$ 7,5 milhões por diferenciar preços a consumidor</source>
                    <year>2018</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://veja.abril.com.br/economia/decolar-e-multada-em-r-75-milhoes-por-diferenciar-precos-a-consumidor#:~:text=Em fevereiro%2C">https://veja.abril.com.br/economia/decolar-e-multada-em-r-75-milhoes-por-diferenciar-precos-a-consumidor#:~:text=Em fevereiro%2C</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">2018</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B61">

                <mixed-citation>VIGDOR, Neil. <bold>Apple card investigated after gender discrimination complaints</bold>. 2019. Disponível em: &lt;https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html&gt;.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VIGDOR</surname>
                            <given-names>Neil</given-names>
                        </name>
                    </person-group>
                    <source>Apple card investigated after gender discrimination complaints</source>
                    <year>2019</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html">https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html</ext-link>&gt;</comment>
                </element-citation>
            </ref>
            <ref id="B62">

                <mixed-citation>VINCENT, James. <bold>Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day - The Verge</bold>. 2016. Disponível em: &lt;https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist&gt;.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VINCENT</surname>
                            <given-names>James</given-names>
                        </name>
                    </person-group>
                    <source>Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day - The Verge</source>
                    <year>2016</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist">https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist</ext-link>&gt;</comment>
                </element-citation>
            </ref>
            <ref id="B63">

                <mixed-citation>WERMUTH, Maiquel Ângelo Dezordi; CARDIN, Valéria Silva Galdino; WOLOWSKI, Matheus Ribeiro de Oliveira. Biopolítica E Novas Tecnologias: Direitos Humanos Sob Ameaça? <bold>Rei - Revista Estudos Institucionais</bold>. v. 7, n. 1, p. 276–296, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WERMUTH</surname>
                            <given-names>Maiquel Ângelo Dezordi</given-names>
                        </name>
                        <name>
                            <surname>CARDIN</surname>
                            <given-names>Valéria Silva Galdino</given-names>
                        </name>
                        <name>
                            <surname>WOLOWSKI</surname>
                            <given-names>Matheus Ribeiro de Oliveira</given-names>
                        </name>
                    </person-group>
                    <article-title>Biopolítica E Novas Tecnologias: Direitos Humanos Sob Ameaça?</article-title>
                    <source>Rei - Revista Estudos Institucionais</source>
                    <volume>7</volume>
                    <issue>1</issue>
                    <fpage>276</fpage>
                    <lpage>296</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B64">

                <mixed-citation>WIMMER, Miriam; DONEDA, Danilo. Carta da Editora e do Editor - Dossiê Temático “Inteligência Artificial, Ética e Epistemologia”. <bold>Direito Público</bold>. v. 18, n. 100, p. 7–17, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WIMMER</surname>
                            <given-names>Miriam</given-names>
                        </name>
                        <name>
                            <surname>DONEDA</surname>
                            <given-names>Danilo</given-names>
                        </name>
                    </person-group>
                    <article-title>Carta da Editora e do Editor - Dossiê Temático “Inteligência Artificial, Ética e Epistemologia”</article-title>
                    <source>Direito Público</source>
                    <volume>18</volume>
                    <issue>100</issue>
                    <fpage>7</fpage>
                    <lpage>17</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
        </ref-list>
    </back>
</article>
