<?xml version="1.0" encoding="utf-8"?><!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">rdp</journal-id>
            <journal-title-group>
                <journal-title>Revista Direito Público</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Rev. Dir. Publico</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2236-1766</issn>
            <publisher>
                <publisher-name>Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.11117/rdp.v20i106.6957</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>ARTIGOS ORIGINAIS</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>CONTRIBUIÇÕES E LIMITES DA LEI GERAL DE PROTEÇÃO DE DADOS PARA A REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL</article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>ARTIFICIAL INTELLIGENCE REGULATION IN BRAZIL: THE CONTRIBUTION AND LIMITS OF THE GENERAL DATA PROTECTION LAW</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-0127-6549</contrib-id>
                    <name>
                        <surname>ALMADA</surname>
                        <given-names>MARCO</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01">I</xref>
                    <xref ref-type="fn" rid="fn01"/>
                    <xref ref-type="corresp" rid="c01"/>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-2705-7440</contrib-id>
                    <name>
                        <surname>MARANHÃO</surname>
                        <given-names>JULIANO</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff02">II</xref>
                    <xref ref-type="fn" rid="fn02"/>
                    <xref ref-type="corresp" rid="c02"/>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <label>I</label>
                <institution content-type="orgname">Instituto Universitário Europeu</institution>
                <addr-line>
                    <named-content content-type="city">Florença</named-content>
                    <named-content content-type="state">Toscana</named-content>
                </addr-line>
                <country country="IT">Itália</country>
                <institution content-type="original">Instituto Universitário Europeu (EUI). Florença (Toscana). Itália.</institution>
            </aff>
            <aff id="aff02">
                <label>II</label>
                <institution content-type="orgname">Universidade de São Paulo</institution>
                <addr-line>
                    <named-content content-type="city">São Paulo</named-content>
                    <named-content content-type="state">SP</named-content>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Universidade de São Paulo (USP). São Paulo (SP). Brasil.</institution>
            </aff>
            <author-notes>
                <fn fn-type="other" id="fn01">
                    <label>Marco Almada</label>
                    <p>Marco Almada é pesquisador no Instituto Universitário Europeu (EUI), onde realiza pesquisas de doutorado na área de regulação da inteligência artificial. Possui formação em direito (mestre pelo EUI; bacharel pela USP) e computação (mestre e bacharel pela Unicamp).</p>
                </fn>
                <corresp id="c01">E-mail: <email>Marco.Almada@eui.eu</email>
                </corresp>
                <fn fn-type="other" id="fn02">
                    <label>Juliano Maranhão</label>
                    <p>Juliano Maranhão é professor associado da Faculdade de Direito da Universidade de São Paulo. Doutor em Direito pela Faculdade de Direito da USP, realizou pós-doutorado no Departamento de Ciência da Computação da Universidade de Utrecht, na Holanda (2005). Presidente do Instituto Lawgorithm de Inteligência Artificial, membro do Comitê Diretor da Associação Internacional de Inteligência Artificial e Direito e diretor do Instituto Legal Grounds. Foi assessor da presidência do CADE.</p>
                </fn>
                <corresp id="c02">E-mail: <email>julianomaranhao@usp.br</email>
                </corresp>
            </author-notes>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2023</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <season>Apr-Jun</season>
                <year>2023</year>
            </pub-date>
            <volume>10</volume>
            <issue>106</issue>
            <fpage>385</fpage>
            <lpage>413</lpage>
            <history>
                <date date-type="received">
                    <day>30</day>
                    <month>05</month>
                    <year>2023</year>
                </date>
                <date date-type="accepted">
                    <day>19</day>
                    <month>07</month>
                    <year>2023</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution Non-Commercial</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais e que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMO</title>
                <p>Sistemas de tomada de decisão automatizada são cada vez mais comuns em diversas aplicações nos setores público e privado. Como muitas das decisões tomadas por estes sistemas dependem de dados pessoais como insumos ou geram dados associáveis a pessoa natural, a Lei Geral de Proteção de Dados (LGPD) introduz regras específicas voltadas a decisões baseadas unicamente no tratamento automatizado de dados pessoais. Este artigo sustenta que o regramento das decisões automatizadas na LGPD possui contornos distintos da abordagem adotada por outras jurisdições, notadamente a União Europeia. Tais diferenças surgem das formulações adotadas pelo legislador brasileiro ao estabelecer um direito à revisão de decisões automatizadas e definir os critérios para a adoção de medidas de design para a proteção de dados, e dificultam o transplante direto de salvaguardas técnicas adotadas em outras jurisdições. A adequada proteção dos direitos do titular de dados frente às decisões automatizadas exige, portanto, o desenvolvimento de padrões e diretrizes adequados às realidades do direito brasileiro.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>Automated decision-making systems are increasingly common in a broad range of public and private sector applications. Because many of the decisions made by such systems rely on personal data as input or generate data that can be associated with a natural person, the Brazilian General Data Protection Law (LGPD) introduces specific rules on decisions based solely on the automated processing of personal data. This article holds that the regulation of automated decision-making in the LGPD differs from the approaches adopted in other jurisdictions, namely the European Union. Such differences result from how Brazilian legislators established a right to the review of automated decisions and set up the criteria for the adoption of design measures for data protection, creating issues for the direct adoption of technical solutions created for other jurisdictions. Therefore, adequate protection of data subject rights against automated decision-making demands the development of standards and guidelines that reflect the realities of Brazilian law.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>PALAVRAS-CHAVE</title>
                <kwd>Proteção de dados</kwd>
                <kwd>decisões automatizadas</kwd>
                <kwd>regulação <italic>by design</italic></kwd>
                <kwd>direito à revisão</kwd>
                <kwd>Lei Geral de Proteção de Dados (LGPD)</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>KEYWORDS</title>
                <kwd>data protection</kwd>
                <kwd>automated decision-making</kwd>
                <kwd>data protection by design</kwd>
                <kwd>right to review</kwd>
                <kwd>General Data Protection Law (LGPD)</kwd>
            </kwd-group>
            <counts>
                <fig-count count="0"/>
                <table-count count="0"/>
                <equation-count count="0"/>
                <ref-count count="66"/>
                <page-count count="29"/>
            </counts>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>INTRODUÇÃO</title>
            <p>Decisões automatizadas são cada vez mais comuns em vários setores da vida social. Ao navegar na internet, somos expostos a anúncios personalizados com base em perfis comportamentais (<xref ref-type="bibr" rid="B56">TOBBIN; CARDIN, 2020</xref>). Carros autônomos, atualmente em desenvolvimento por diversas empresas do setor automobilístico, precisarão tomar decisões a todo tempo no trânsito (<xref ref-type="bibr" rid="B47">ROBERTO, 2020</xref>). Sistemas de proteção ao crédito constroem <italic>scores</italic> e perfis mais completos de pessoas, que são então utilizados para decisões que afetarão a vida financeira destas (<xref ref-type="bibr" rid="B16">CITRON; PASQUALE, 2014</xref>; <xref ref-type="bibr" rid="B35">MARANHÃO; CAMPOS, 2019</xref>). Em todos estes casos, sistemas computacionais tomam decisões que afetam as escolhas disponíveis a seres humanos, muitas vezes sem envolvimento de qualquer ser humano no processo decisório.</p>
            <p>Apesar de a automação, <italic>in extremis</italic>, eliminar o envolvimento direto de pessoas naturais em processos decisórios, a tomada de decisões automatizadas continua a ser prática com um forte componente humano. Isso porque artefatos tecnológicos não são objetos axiologicamente neutros, mas o produto de uma série de decisões, que partem de premissas culturais e políticas específicas e, assim, contribuem para consolidar certas estruturas e comportamentos sociais (<xref ref-type="bibr" rid="B66">WINNER, 1980</xref>). Por exemplo, sistemas de decisão automatizada são parte essencial dos modelos de trabalho da chamada economia de plataformas, direcionando os trabalhadores, precificando e supervisionando suas atividades.<xref ref-type="fn" rid="fn03">3</xref> Estes sistemas produzem, assim, efeitos que muitas vezes vão além do contexto da decisão individualizada e impactam estruturas sociais mais profundas.</p>
            <p>A automação de processos de tomada de decisão traz consigo potenciais vantagens, como a possibilidade de reduzir o trabalho mecânico dos trabalhadores humanos e de garantir uma prestação mais eficiente de produtos e serviços. Tais vantagens, contudo, são acompanhados por uma série de riscos para indivíduos e para a sociedade. Em particular, há o risco de que decisões automatizadas baseadas em perfis, construídos a partir de dados pessoais e analisados por complexos algoritmos, produzam resultados discriminatórios ou não suficientemente transparentes para aqueles afetados pela decisão. Objetivando especificamente proteger titulares de dados em relação ao processamento de seus dados para decisões automatizadas que os afetem, a Lei Geral de Proteção de Dados (LGPD)<xref ref-type="fn" rid="fn04">4</xref> traz o Artigo 20, que provê às pessoas naturais alguns direitos oponíveis ao uso de seus dados pessoais para a tomada de decisões automatizadas: o direito de revisão, explicação e a possibilidade de auditoria pela autoridade para verificação de potencial discriminatório. </p>
            <p>Contudo, as tecnologias hoje utilizadas para automação, em especial aquelas baseadas em técnicas de aprendizado de máquina, incorporam diferentes tipos e níveis de opacidade (<xref ref-type="bibr" rid="B11">BURRELL, 2016</xref>), que geram obstáculos ao exercício destes direitos: como revisar uma decisão baseada em uma função probabilística complexa pela qual não fica claro quais fatores determinaram seu resultado? E ainda quando for possível encontrar correlações estatisticamente significantes entre variáveis de entrada e a predição de saída, como traduzi-las em relações causais ou finalísticas compreensíveis por humanos? Como pleitear a revisão quando sequer se sabe da existência de uma decisão automatizada? Para evitar que a complexidade técnica se torne um escudo para evitar a aplicação da lei,<xref ref-type="fn" rid="fn05">5</xref> a LGPD inclui em seu artigo 46 a chamada proteção de dados <italic>by design</italic>, segundo o qual os agentes de tratamento de dados pessoais têm o dever de adotar medidas técnicas, administrativas e de segurança para assegurar que dados pessoais não sejam tratados de forma inadequada ou ilícita. Porém, dada a vasta gama de aplicações possíveis para a tomada automatizada de decisão, cada uma com seus riscos associados, tais dispositivos adotam uma redação aberta, que traz poucos detalhes a respeito do conteúdo específico dos deveres de <italic>design</italic> e de revisão.</p>
            <p>Como tal abertura normativa pode trazer dificuldades para a aplicação dos dispositivos em questão, o presente artigo propõe uma interpretação sistemática destes como instrumentos para a regulação de risco.<xref ref-type="fn" rid="fn06">6</xref> Uma vez que a LGPD estabelece a prevenção de danos como um de seus princípios-guia (LGPD, art. 6<sup>o</sup>, VIII), os agentes de tratamento de dados devem avaliar os potenciais danos que posam decorrer de cada aplicação de decisão automatizada e adotar medidas que minimizem os riscos de concretização destes danos, bem como tornem viável a revisão de eventuais decisões que produzam efeitos prejudiciais aos interesses do titular de dados. O diagnóstico dos riscos é, por definição, dependente do contexto em que a decisão automatizada ocorre. Contudo, é possível extrair do texto da LGPD algumas balizas para esta avaliação contextual, o que é feito no restante deste artigo.</p>
            <p> Na próxima seção, o artigo analisa os contornos normativos do direito à revisão de decisões automatizadas como posto no Artigo 20 da LGPD, contrastando-o com seu análogo no ordenamento da União Europeia (Artigo 22 do RGPD<xref ref-type="fn" rid="fn07">7</xref>). Aqui, o ordenamento brasileiro inova ao estabelecer um direito de revisão e não uma restrição às possibilidades de uso de decisões automatizadas, mas segue a tendência internacional ao estender tal direito apenas às decisões tomadas sem envolvimento humano. A seção seguinte examina as medidas de proteção de dados <italic>by design</italic> incorporadas ao ordenamento jurídico brasileiro pelos Artigos 46 e 49 da LGPD, sustentando que elas podem não só contribuir para a efetividade do direito à revisão como oferecer salvaguardas nos casos de decisões apenas parcialmente automatizadas. Diante da indeterminação associada ao controle de riscos decorrentes de tecnologias que podem ser usadas para diversos propósitos, a seção seguinte examina como a Autoridade Nacional de Proteção de Dados (ANPD) pode contribuir para a efetiva aplicação do direito à revisão e da proteção de dados <italic>by design</italic>. Com isso, pretende-se mostrar tanto a existência de abordagens técnicas para a governança das tecnologias de automação de decisão quanto a possibilidade de que as ferramentas jurídicas para tal governança sejam construídas a partir da cooperação entre a atuação regulatória estatal e a inovação dos atores públicos e privados na construção de sistemas que se valham dos avanços tecnológicos ao mesmo tempo que asseguram a proteção dos dados pessoais.</p>
        </sec>
        <sec>
            <title>AS DECISÕES AUTOMATIZADAS NA LGPD</title>
            <p>A ideia de que deve existir alguma possibilidade de controle humano sobre decisões que, em regra, são tomadas de forma automatizada encontra eco em várias das legislações de proteção de dados, como o RGPD e a LGPD.  No caso específico do Brasil, a formulação vigente do <italic>caput</italic> do Artigo 20 da LGPD estipula que o titular de dados tem direito a</p>
            <p><disp-quote>
                    <p>[...] solicitar a revisão de decisões tomadas <italic>unicamente</italic> com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.</p>
                </disp-quote></p>
            <p>O direito à revisão permite, portanto, a alteração do desfecho de um processo decisório que seja inteiramente conduzido por máquina. Quando esta decisão é inteiramente informacional, ou seja, tem como resultado uma decisão que não produz impactos diretos em um ambiente físico—por exemplo, uma decisão que determina se uma pessoa tem ou não direito a receber um benefício social—este direito se assemelha ao direito à correção dos dados pessoais estabelecido pela LGPD no Artigo 18, III, pois em ambos os casos, o titular tem o direito solicitar ao agente de tratamento de seus dados pessoais a alteração de uma informação que diz respeito a ele e que, a seu ver, é errônea. Diante da existência de tal direito, a revisão dos fatos associados a uma decisão automatizada, ou produzidos por uma, independe de um direito à revisão.</p>
            <p>Não se pode concluir, todavia, que o direito à revisão careça de conteúdo próprio. Em muitos casos, a automação não visa apenas a produção de um perfil comportamental ou outra forma de extração de informação ao respeito do titular de dados, mas sim a produção de um desfecho no mundo real, sem a participação direta de um humano. Por exemplo, um sistema de triagem de currículos processa dados pessoais, e para isso realiza uma avaliação do titular desses dados. A decisão propriamente dita, nesse caso, não é a predição de comportamento do indivíduo, mas uma ação—permitir ou não que o candidato siga no processo seletivo—a ser valorada à luz do ordenamento jurídico. Uma ação, ao contrário de uma informação, não é algo que possa ser classificado como verdadeiro ou falso (<xref ref-type="bibr" rid="B05">BEIGANG, 2022</xref>), mas como correta ou incorreta, boa ou ruim, lícita ou ilícita, adequada ou inadequada para determinado fim. Portanto, o direito à correção teria pouco a oferecer ao titular de dados quanto aos efeitos da decisão, ao passo que a revisão traz consigo a possibilidade de reversão do curso de ação original.</p>
            <p>Ou seja, embora a correção da informação possa afetar o processo decisório, o direito à retificação tem por objeto assegurar a acurácia do dado armazenado, ou seja, do <italic>produto</italic> de operações computacionais. Já no direito à revisão, o dever correlato tem por objeto o <italic>processo decisório</italic> pelo qual a decisão automatizada é tomada. Enfatizamos o processo, pois o direito à revisão não só pauta o desfecho ou resultado—afinal, um revisor humano pode chegar à mesma conclusão—mas pretende assegurar a adequação de todas as etapas que levaram a uma determinada decisão e que deve ser entendida com base em seus propósitos e elementos constitutivos elencados no texto legal.<xref ref-type="fn" rid="fn08">8</xref></p>
            <p>A terminologia adotada no <italic>caput</italic> do artigo 20 da LGPD ressalta, de pronto, alguns dos contornos postos pelo legislador à revisão das decisões automatizadas. O estabelecimento de um direito do titular apenas à <italic>revisão</italic> de decisões já é, em si, uma escolha significativa, pois reflete uma autorização implícita de qualquer tratamento automatizado de dados pessoais que satisfaça as exigências da lei, dentre elas a necessidade de ocorrência de uma das hipóteses de tratamento do artigo 7º da LGPD, ou, no caso de dados sensíveis, ao art. 11 da LGPD. Se o titular tem direito a solicitar revisão de decisões que lhe afetem e sejam baseadas unicamente no tratamento automatizado de dados pessoais, então já se pressupõe uma permissão implícita ao controlador para processamento de decisões automatizadas baseadas em dados pessoais. Desse modo, a permissão, mesmo que implícita, é mais forte do que uma simples ausência de proibição, refletindo um direito do controlador.</p>
            <p>Ainda que parte da doutrina europeia interprete o Artigo 22 do RGPD em linhas similares à brasileira, a prática judicial e administrativa na União Europeia tende a adotar interpretação mais restritiva, em linha com a literalidade do § 1° deste artigo, que se refere a um direito a não ser submetido a decisões automatizadas (<xref ref-type="bibr" rid="B60">VALE; ZANFIR-FORTUNA, 2022</xref>). Esta interpretação restritiva, vista em termos das posições jurídicas hohfeldianas (<xref ref-type="bibr" rid="B26">HOHFELD, 1913</xref>), é diametralmente oposta à abordagem brasileira, pois constrói o Artigo 22 como estabelecendo uma proibição da adoção de decisões automatizadas. O modelo brasileiro de proteção de dados pessoais se mostra, assim, mais permissivo em relação ao uso da automação do que seus análogos estrangeiros, uma vez que adota apenas controles <italic>post hoc</italic> sobre decisões automatizadas, por meio dos direitos do titular de revisão, explicação e auditoria sobre discriminação.</p>
            <p>Outra diferença importante entre a legislação de proteção de dados brasileira e aquela adotada na União Europeia está no tipo de decisões cobertas pelo direito à revisão. Na LGPD (artigo 20, <italic>caput)</italic>, o direito de revisão pode ser exercido contra tratamento automatizado de dados pessoais que afete os <italic>interesses</italic> do titular de dados. Tal formulação cobre uma ampla gama de interesses juridicamente protegidos (<xref ref-type="bibr" rid="B32">LÓPEZ, 2020</xref>; <xref ref-type="bibr" rid="B34">MARANHÃO; ALMADA, 2021</xref>). Na União Europeia, o direito a não ser submetido a decisões automatizadas tem uma hipótese mais estreita: tal direito se aplica apenas às decisões que produzam efeitos jurídicos ou cujos efeitos sejam significativos de forma similar a uma decisão jurídica, por exemplo ao resultar na perda de um emprego (<xref ref-type="bibr" rid="B03">ARTICLE 29 WP, 2018</xref>;<xref ref-type="bibr" rid="B44"> RECHTBANK AMSTERDAM, 2021</xref>). Ainda que exista uma tendência nos tribunais e autoridades administrativas a interpretar o critério de significância do RGPD de forma ampla (<xref ref-type="bibr" rid="B60">VALE; ZANFIR-FORTUNA, 2022</xref>, p. 35–38), a adoção de um critério de relevância significa que nem todas as decisões automatizadas são cobertas pelo Artigo 22 do RGPD. Já na LGPD, qualquer interesse juridicamente reconhecido pode dar margem a um pedido de revisão, ao menos neste primeiro momento em que não há restrições vindas da jurisprudência ou de instrumentos regulatórios. A legislação brasileira impõe, portanto, um escopo mais amplo para a aplicação do direito à revisão das decisões automatizadas.</p>
            <p>A ampliação do escopo do direito à revisão foi acompanhada por uma flexibilização do processo revisional: enquanto o RGPD determina que o titular de dados pode pleitear a intervenção de uma pessoa natural no processo decisório, a LGPD não especifica que a revisão deva ser feita por humano. Tal especificação estava presente na redação da lei originalmente aprovada pelo Congresso, mas foi suprimida em meio às alterações realizadas pela Medida Provisória 869/2018. Ao votar a conversão desta MP em Lei, o Congresso Nacional incluiu no texto do artigo 20 o § 3°, segundo o qual a revisão deveria ser efetuada por pessoa natural, em termos a serem disciplinados pela ANPD. Esta adição, contudo, foi objeto de veto presidencial, fundamentado no potencial de que a obrigação de revisão humana torne inviável diversos modelos de negócio de empresas que usam sistemas de decisão automatizada, como instituições financeiras (<xref ref-type="bibr" rid="B41">PRESIDÊNCIA DA REPÚBLICA, 2019</xref>). Ainda que, na apreciação dos vetos à lei de conversão, ambas as casas do Congresso tenham votado em favor da restauração do requisito, tal voto não atingiu o requisito de maioria absoluta para a derrubada do veto (<xref ref-type="bibr" rid="B54">SILVA, P.; MEDEIROS, 2019</xref>). Conclui-se, portanto, que o legislador acabou por rejeitar a definição do direito à revisão como um direito à revisão humana.</p>
            <p>Por fim, outra dúvida interpretativa trazida pela redação do Artigo 20 da LGPD está no <italic>status</italic> do perfilamento (<italic>profiling</italic>). Tanto a LGPD quanto o RGPD fazem referência ao perfilamento como uma prática associada às decisões automatizadas, mas a legislação brasileira não define o conceito de “perfil”, ainda que a expressão “perfil comportamental” apareça no Artigo 12 da LGPD. A falta de uma definição explícita pode trazer dificuldades jurídicas no futuro, ainda que a experiência de outros campos do direito—como a regulação do crédito—forneça diversos exemplos de práticas abarcadas pelo perfilamento. É importante salientar, todavia, que o Artigo 20 da LGPD estende o direito de revisão também às “decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, <italic>incluídas as decisões destinadas a definir o seu perfil pessoal</italic> [itálico nosso]”. Ou seja, o direito à revisão seria imponível não só às decisões que usam perfis como aporte decisório, mas também àquelas envolvidas na formação do perfil propriamente dito. Por exemplo, uma decisão humana sobre concessão de crédito baseada em <italic>scoring</italic> individual poderia ter seu score revisado, a partir de explicações trazidas pelo controlador ao titular sobre o modelo de classificação.</p>
            <p>Soluções adotadas por diferentes ordenamentos jurídicos refletem as diferenças entre os contextos políticos, legais e sociais em que cada legislador opera. Assim, a mera adoção acrítica de uma abordagem referendada em outro ordenamento pode ser insuficiente para contemplar as necessidades postas pela legislação brasileira. Por exemplo, um protocolo de controle humano de decisões automatizadas baseado no modelo europeu adotará controles <italic>ex ante</italic>—como a proibição de decisões automatizadas por padrão—que não são exigidos pela lei brasileira. Ao mesmo tempo, tal protocolo enfrentará dificuldades para lidar com o escopo mais amplo e potencialmente mais volumoso de revisão permitido pelo Artigo 20 da LGPD, em relação ao do RGPD. Neste contexto, o mapeamento das diferenças entre o direito à revisão e as abordagens estrangeiras é uma tarefa importante, para a qual este artigo presta uma contribuição inicial.</p>
            <p>Não é possível concluir, contudo, que a abordagem brasileira para decisões automatizadas seja inteiramente distinta do exemplar estrangeiro. Uma primeira semelhança relevante para os fins deste artigo está ligada ao <italic>propósito</italic> do dispositivo: tecnologias de automação são usadas para uma variedade de aplicações, às quais o direito à revisão e seus análogos buscam dar uma resposta jurídica. Examinaremos a seguir as justificativas levantadas na literatura internacional para a revisão de decisões automatizadas, encontrando suas bases jurídicas na LGPD.</p>
            <p>A primeira justificativa para o direito à revisão e seus análogos está ligada à possibilidade de erros no processo de tomada de decisão automatizada. O uso do termo <italic>revisão</italic> pode abranger diferentes motivações para a inconformidade com o resultado da decisão: o sujeito do dado pode pedir a revisão em função de <italic>erro</italic> ou por mesmo por discordar de suas implicações.</p>
            <p>No caso de erro, há duas hipóteses a serem consideradas. A primeira delas refere-se a situações em que dados errôneos ou de baixa qualidade são utilizados para a construção do sistema de tomada de decisão ou para a tomada de uma decisão em particular. Neste caso, o titular dos dados encontra proteção imediata no Artigo 6°, V, da LGPD. Contudo, nem todos os erros de um sistema são produzidos por dados errôneos: mesmo a mais fidedigna base de dados pode não impedir falhas na modelagem técnica do problema ou na execução do <italic>software</italic> responsável pelas decisões.<xref ref-type="fn" rid="fn09">9</xref> Uma vez que o tratamento de dados pessoais é, também, pautado pelo princípio da prevenção (LGPD, Artigo 6º, VIII), cabe aos agentes de tratamento assegurar que fatores deste segundo tipo não resultem em danos aos titulares de dados.<xref ref-type="fn" rid="fn10">10</xref></p>
            <p>O caso de discordância do conteúdo da decisão, independentemente de erro material específico, por sua vez, precisa ser avaliado, considerando-se que o objeto da decisão pode envolver aspectos valorativos. Ainda que, à primeira vista, um sistema computacional possa parecer uma representação neutra, o processo de desenvolvimento desse sistema invariavelmente envolve decisões a respeito de como interpretar determinados valores e princípios (<xref ref-type="bibr" rid="B02">ALMADA, 2023</xref>). Os efeitos valorativos de decisões técnicas são objeto de ampla discussão na literatura a respeito da inteligência artificial, mas quaisquer conclusões são contextuais e passíveis de mudança com o passar do tempo (<xref ref-type="bibr" rid="B24">GORDON; RIEDER; SILENO, 2023</xref>). Tal caráter contingente dos valores materializados em sistemas de IA, bem como a própria natureza política de tais direitos faz com que a possibilidade de contestação dos resultados algorítmicos seja defendida mesmo em casos em que uma decisão automatizada possa apresentar desempenho superior à de um decisor humano (<xref ref-type="bibr" rid="B25">HILDEBRANDT, 2019</xref>).</p>
            <p>O direito a contestar decisões automatizadas é, em parte, assegurada pela possibilidade de tutela em juízo dos interesses e direitos dos titulares de dados pessoais, mas <xref ref-type="bibr" rid="B49">Claudio Sarra (2020, p. 8)</xref> propõe que a contestação deve ser entendida como um processo dialógico mais amplo, que ofereça ao titular de dados a oportunidade de questionar formalmente eventuais violações a seus direitos e interesses. O mecanismo de revisão oferecido pelo Artigo 20 da LGPD desempenha este papel, ao habilitar o titular de dados a questionar seja o desfecho da decisão, seja o processo decisório em si.<xref ref-type="fn" rid="fn11">11</xref> Desta forma, o exercício do direito à revisão se mostra como uma via extrajudicial<xref ref-type="fn" rid="fn12">12</xref> para a contestação de decisões automatizadas, mesmo que o termo “contestação” não seja diretamente invocado pelo legislador brasileiro neste contexto. Como indicado acima, a efetividade a abrangência da contestabilidade de decisões automatizadas liga-se diretamente à abrangência, profundidade e qualidade da explicação sobre a decisão, critérios e processo decisório a que tenha acesso.</p>
            <p>O direito à revisão surge, portanto, como uma forma de articular e promover estes três interesses—a <italic>qualidade dos dados</italic> e dos <italic>outputs</italic> automatizados, a proteção de <italic>valores</italic> afetados por processos de automação, e a possibilidade de <italic>contestação</italic> dos resultados de uma decisão automatizada sem que seja necessário recorrer a vias judiciais—, que devem ser avaliados no caso concreto da decisão cuja revisão se pleiteia. A revisão das decisões automatizadas surge como um instrumento para a promoção da qualidade dos processos decisórios, para a efetivação do direito à contestação destes e para a proteção da dignidade das pessoas afetadas pelas decisões. Sua disciplina e implementação, portanto, deve ter estes <italic>desiderata</italic> como balizas.</p>
            <p>O alcance deste direito, assim como de seus correspondentes em outros ordenamentos, é limitado por sua forma jurídica. A LGPD regula decisões automatizadas ao estabelecer que o titular dos dados pessoais tem um <italic>direito</italic> a solicitar revisão, que é fraseado em termos da proteção dos dados pessoais do indivíduo diante de decisões automatizadas. Tal enquadramento traz dois limites fundamentais a este instrumento. O primeiro é que ele não se aplica a decisões que sejam apenas parcialmente automatizadas, isto é, nas quais um humano tome a decisão última com base em aportes providos por meios automatizados ou sistemas que não tenham como <italic>output</italic> uma decisão<xref ref-type="fn" rid="fn13">13</xref>. Nestes casos, a proteção dos titulares de dados face às decisões automatizadas é garantida pela aplicação de outros dispositivos da LGPD, bem como por uma interpretação extensiva dos critérios para que uma decisão seja considerada automatizada.<xref ref-type="fn" rid="fn14">14</xref> O segundo diz respeito à aparente dimensão individual do direito à revisão ao restringir o agente ao “titular”, o que torna a proteção insuficiente para capturar as dimensões transindividuais dos danos decorrentes de decisões automatizadas, como, por exemplo, aquelas que transbordam a individualidade em discriminações algorítmicas (ver, por exemplo, <xref ref-type="bibr" rid="B01">ABREU, 2018</xref>; <xref ref-type="bibr" rid="B61">VAN BEKKUM; BORGESIUS, 2023</xref>). Desta forma, o direito à revisão não cobre todas as implicações jurídicas das decisões automatizadas, mas apenas aquelas que se traduzam em dano a interesses individuais.</p>
        </sec>
        <sec>
            <title>INCORPORANDO A PROTEÇÃO DE DADOS <italic>BY DESIGN</italic> ÀS DECISÕES AUTOMATIZADAS</title>
            <p>A crescente automação de processos de tomada de decisão traz consigo questões sobre como assegurar a legalidade e a segurança das decisões automatizadas. Ao longo das últimas décadas, cientistas da computação e outros profissionais trabalharam no desenvolvimento das chamadas tecnologias de melhoria da privacidade, isto é, tecnologias voltadas a proteger e até mesmo fortalecer a privacidade de seus usuários.<xref ref-type="fn" rid="fn15">15</xref> A ideia central por trás destas tecnologias—aproveitar as capacidades tecnológicas para proteger direitos—logo encontrou respaldo em meio à pesquisa jurídica e às práticas legislativas, que passaram a recomendar e até mesmo exigir a adoção de medidas voltadas a assegurar a proteção dos dados pessoais (<xref ref-type="bibr" rid="B15">BYGRAVE, 2017</xref>;<xref ref-type="bibr" rid="B58"> TRIBUNAL EUROPEU DE DIREITOS HUMANOS, 2008</xref>). No Brasil não foi diferente, uma vez que o texto da LGPD acolheu a chamada proteção de dados <italic>by design</italic>, obrigando assim os agentes de tratamento de dados pessoais a usar a tecnologia para cumprir seus deveres em relação aos titulares de dados (<xref ref-type="bibr" rid="B45">RIVELLI; SILVEIRA, 2021</xref>).</p>
            <p>O núcleo da proteção de dados <italic>by design</italic> no ordenamento brasileiro está no Artigo 46 da LGPD. Em seu <italic>caput</italic>, este artigo impõe que os agentes de tratamento de dados pessoais devem adotar medidas de segurança, técnicas e administrativas para a proteção de dados pessoais. Ao contrário do que ocorre no dispositivo europeu análogo (RGPD, Artigo 25(1)), a LGPD não definiu tais medidas em função dos riscos ligados ao tratamento de dados pessoais, exigindo em vez disso que as medidas adotadas sejam aptas a proteger dados pessoais contra os fatores elencados no dispositivo.<xref ref-type="fn" rid="fn16">16</xref> Todavia, a necessidade de adotar medidas que previnam riscos decorrentes da proteção de dados segue do fato de que a prevenção é um princípio geral do regime brasileiro de proteção de dados (LGPD, Artigo 6, VIII). A aptidão referida no <italic>caput</italic> do Artigo 46 da LGPD deve, portanto, ser avaliada em termos da eficácia de um conjunto de medidas em prevenir—ou ao menos mitigar—os riscos decorrentes do tratamento de dados pessoais (<xref ref-type="bibr" rid="B38">MARRAFON; COUTINHO, 2020</xref>).</p>
            <p>Decisões automatizadas, quando baseadas no tratamento de dados pessoais, introduzem riscos específicos a serem enfrentados nos termos do <italic>caput</italic> do Artigo 46 da LGPD. Estes riscos, que se somam àqueles envolvidos à proteção de dados de uma forma geral, estão ligados aos mesmos interesses que guiam o direito à revisão, descritos acima. Uma decisão enviesada ou que seja de outra forma de má qualidade pode impactar os direitos do titular de dados, pois será baseada em dados que não representam adequadamente a realidade ou as populações afetadas. Uma decisão que não proteja a dignidade do titular de dados pode afetar não só seu direito à proteção de dados pessoais, mas outros direitos fundamentais que sejam impactados pelos efeitos da decisão.<xref ref-type="fn" rid="fn17">17</xref> Muitos destes impactos vão além da esfera da autodeterminação informativa que sustenta o direito à proteção de dados (<xref ref-type="bibr" rid="B39">MENDES, 2020</xref>), produzindo impactos em outros interesses do indivíduo ou mesmo em outros de seus direitos fundamentais. Não à toa, o <italic>caput</italic> do artigo 46 da LGPD exige que as medidas técnicas, administrativas e de segurança sejam aptas a prevenir qualquer forma de tratamento inadequado ou ilícito, não só aquelas que violem o disposto naquela lei.<xref ref-type="fn" rid="fn18">18</xref></p>
            <p>Tais medidas de proteção do titular de dados podem tomar diversas formas. Embora o conteúdo destas medidas não seja explicitamente definido no texto da LGPD, é possível delimitá-lo a partir do significado dos termos e dos aportes das experiências internacionais. Medidas técnicas consistem na adoção de tecnologias que reduzam ou eliminem riscos ligados ao tratamento, como a anonimização dos dados a serem tratados.<xref ref-type="fn" rid="fn19">19</xref> Já as medidas administrativas, também conhecidas como organizacionais,<xref ref-type="fn" rid="fn20">20</xref> referem-se ao contexto institucional em que um sistema é utilizado.<xref ref-type="fn" rid="fn21">21</xref> Por fim, as medidas de segurança englobam tanto medidas técnicas quanto administrativas, sendo destacadas pelo legislador em função de seu objeto: a prevenção de acessos não autorizados e da destruição, perda, alteração, comunicação ou difusão dos dados (LGPD, Artigo 6º, VII).</p>
            <p>Na prática, uma abordagem efetiva para a proteção de dados pessoais combinará abordagens técnicas e administrativas, já que alguns problemas são mais bem resolvidos por um meio do que por outro. Por exemplo, as autoridades de proteção de dados da União Europeia recentemente recomendaram que a transferência de dados pessoais para os Estados Unidos seja acompanhada pelo uso de medidas técnicas fortes, em particular a anonimização dos dados enviados.<xref ref-type="fn" rid="fn22">22</xref> No sentido oposto, existem situações em que uma medida administrativa pode ser mais eficaz que soluções técnicas na resolução de um dado problema. Por exemplo, uma empresa de pequeno porte, a depender de suas circunstâncias, pode prescindir de controles técnicos sofisticados caso adote políticas de acesso adequadas e assegure que os profissionais que lidarão com os dados sejam adequadamente treinados. Dados os limitados riscos aos direitos dos titulares de dados e escala da operação, adotar o tipo de controle necessário em uma grande empresa seria muito oneroso e não traria proteção adicional. A definição das medidas a serem adotadas depende, portanto, do cenário em que ocorre o tratamento de dados, que determinará os riscos decorrentes da aplicação das tecnologias disponíveis para tal tratamento.</p>
            <p>Uma vez que o contexto de operação de sistemas de decisão automatizada—de fato, de qualquer sistema de tratamento de dados pessoais—muda com o tempo, a adequada proteção dos titulares de dados pode requerer ajustes às práticas estabelecidas. Ciente deste fato, a LGPD estabelece que a proteção de dados <italic>by design</italic> é um dever contínuo: os agentes de tratamento de dados pessoais devem adotar medidas técnicas, administrativas e de segurança desde a fase da concepção do produto ou serviço até a sua execução (LGPD, art. 46, § 2°). Ou seja, os agentes de tratamento de dados pessoais são obrigados a levar em conta as características das técnicas que utilizarão para tratar dados, implementar quaisquer medidas que enfrentem os riscos decorrentes destas técnicas, e atualizar tais medidas conforme elas percam eficácia ou se tornem obsoletas.</p>
            <p>No caso de um sistema de decisão automatizada, isso significa que o direito à revisão—que, nos termos do <italic>caput</italic> do Artigo 20, é essencial à licitude de uma decisão automatizada—não pode ser visto como um enxerto posterior ao processo decisório. Em vez disso, a revisão e outros direitos do titular de dados devem ser levados em conta já a partir da escolha dos meios que serão usados para automatizar uma dada solução.<xref ref-type="fn" rid="fn23">23</xref> Ademais, estes agentes de tratamento devem adotar medidas que permitam detectar problemas com os processos decisórios, como a ocorrência de padrões discriminatórios nas decisões (<xref ref-type="bibr" rid="B64">WACHTER; MITTELSTADT; RUSSELL, 2021</xref>) e, uma vez detectados tais problemas, adotar medidas técnicas e administrativas para reduzir ou evitar seu impacto. Surge, portanto, a questão de como identificar e implementar tais medidas em sistemas existentes.</p>
            <p>Os requisitos de <italic>design</italic> postos na LGPD não se restringem, contudo, à implantação do direito à revisão de decisões automatizadas. Uma vez que estes dispositivos exigem não só o cumprimento da legislação de proteção de dados, mas a prevenção de danos decorrentes de tratamento ilícito ou inadequado dos dados pessoais, os agentes de tratamento de dados pessoais são obrigados a adotar medidas também nos casos das decisões parcialmente automatizadas descritas acima. Mesmo que tais decisões não preencham os critérios para a aplicabilidade do direito à revisão, elas ainda usam dados pessoais em formas que podem causar danos aos usuários.<xref ref-type="fn" rid="fn24">24</xref> Como consequência, os agentes de tratamento de dados pessoais devem identificar os riscos associados à automação parcial e adotar medidas aptas a preveni-los, ainda que estas medidas não exijam a revisão da decisão, posto que esta pode ser feita pelo humano envolvido no processo decisório.</p>
            <p>Uma categoria particularmente relevante de risco em sistemas de IA é aquela dos riscos decorrentes da <italic>opacidade</italic> de um sistema. Dada a complexidade envolvida nas técnicas de inteligência artificial, que muitas vezes fazem uso de sofisticados procedimentos matemáticos aplicados a grandes volumes de dados (<xref ref-type="bibr" rid="B30">LAGIOIA; SARTOR, 2020</xref>), muitas vezes é inviável que um indivíduo—por mais tecnicamente capacitado que seja—entenda o que se passa de um algoritmo. Por exemplo, pode ser difícil identificar qual fator levou à rejeição de um pedido de crédito se essa decisão levou em conta centenas de variáveis,<xref ref-type="fn" rid="fn25">25</xref> selecionadas por milhões de observações de correlações em um processamento computacional.<xref ref-type="fn" rid="fn26">26</xref> Na ausência de tais informações, indivíduos afetados por decisões automatizadas podem ser privados da possibilidade de contestar uma decisão automatizada ou mesmo de saber da existência de uma decisão.<xref ref-type="fn" rid="fn27">27</xref></p>
            <p>Neste contexto, o uso de técnicas de inteligência artificial explicável aparece como uma solução para, ao menos, mitigar os riscos decorrentes da opacidade (<xref ref-type="bibr" rid="B40">MULHOLLAND; FRAJHOF, 2019</xref>). A pesquisa neste campo é fenômeno relativamente recente, mas produziu diversas abordagens que prometem reduzir a complexidade das tecnologias de inteligência artificial a um nível que possa ser entendido por indivíduos,<xref ref-type="fn" rid="fn28">28</xref> inclusive com a divulgação de padrões técnicos auditáveis para introdução de métodos de explicação (<xref ref-type="bibr" rid="B65">WINFIELD <italic>et al</italic>., 2021</xref>). Mesmo que alguns estudos recentes apontem limites às capacidades de gerar explicações que possam substituir a análise direta de um sistema algorítmico (<xref ref-type="bibr" rid="B08">BORDT <italic>et al</italic>., 2022</xref>), os resultados atingidos pelos métodos existentes sugerem o potencial de abordagens técnicas em criar condições que tornem um sistema de IA mais legível a seus usuários e às pessoas afetadas por sua operação (<xref ref-type="bibr" rid="B33">MALGIERI; COMANDÉ, 2017</xref>). A adoção de técnicas de explicação e similares pode, portanto, facilitar o exercício de direitos como o direito à revisão, ao reduzir as barreiras informacionais diante dos titulares de dados.</p>
            <p>A proteção de dados <italic>by design</italic> também trata dos danos sistêmicos decorrentes de decisões total ou parcialmente automatizadas. Como estes efeitos não decorrem de um tratamento em específico, mas sim do agregado de múltiplas operações cobertas (<xref ref-type="bibr" rid="B51">SCHAFER, 2021</xref>), eles não são cobertos pelo <italic>caput</italic> do artigo 46, cuja exigência é voltada às operações individuais de tratamento. Todavia, o artigo 49 da LGPD estabelece que os sistemas usados para o tratamento de dados “devem ser estruturados de forma a atender aos requisitos de segurança, aos padrões de boas práticas e de governança e aos princípios gerais previstos nesta Lei e às demais normas regulamentares.” Dada a construção ampla do princípio da prevenção na LGPD, o cumprimento deste dever exige que a estrutura dos sistemas de tratamento de dados leve em conta os danos causados pela operação do sistema como um todo, não só nas operações de tratamento tomadas individualmente.</p>
            <p>A escolha de medidas técnicas e administrativas para sistemas de decisões automatizadas pode extrair lições da experiência com a chamada <italic>privacy by design</italic> (PbD), termo usado para designar um conjunto de técnicas no qual a privacidade dos titulares de dados é tratada como um objetivo central do processo de construção de <italic>software</italic> (<xref ref-type="bibr" rid="B31">LIMA; ALMADA; MARANHÃO, 2022</xref>, seç. 2.2). Ao tratar a privacidade como um requisito para que um projeto de sistema seja considerado bem-sucedido, a abordagem PbD força os desenvolvedores e usuários de um sistema computacional a considerar como as demandas decorrentes da proteção da privacidade devem ser tratadas em cada estágio do ciclo de vida do sistema: desde a sua concepção até o fim de sua operação, o que inclui a programação do sistema, seus testes e modos de uso.</p>
            <p>Apesar do êxito obtido pelos adeptos de PbD, a aderência a tais técnicas não exaure o conteúdo do artigo 46 da LGPD, uma vez que esta abordagem é fundamentada em uma concepção de privacidade que é parte, mas não a totalidade, do conteúdo do direito à proteção de dados pessoais.<xref ref-type="fn" rid="fn29">29</xref> Em particular, a efetividade da revisão de uma decisão automatizada está menos ligada ao controle dos fluxos de dados a respeito de uma pessoa—que é o objeto primário de PbD—e mais a questões de transparência dos processos decisórios e da existência de informação suficiente a respeito de um sistema de tomada de decisão, que permitam ao titular de dados avaliar se deve ou não buscar a revisão da decisão a que foi submetido. E é possível que estes dois objetivos colidam em casos práticos (<xref ref-type="bibr" rid="B62">VEALE; BINNS; AUSLOOS, 2018</xref>). Consideremos o problema de identificar se um processo decisório é enviesado ou não. A busca por padrões de distorção ou discriminação em processos de tomada de decisão automatizada pode exigir um aumento na coleta de dados pessoais, para permitir que sejam identificados padrões sistêmicos que escapariam à análise de uma decisão considerada individualmente (<xref ref-type="bibr" rid="B61">VAN BEKKUM; BORGESIUS, 2023</xref>). Porém, um dos princípios que pautam PbD é a minimização dos dados pessoais em tratamento (<xref ref-type="bibr" rid="B31">LIMA; ALMADA; MARANHÃO, 2022</xref>, seç. 3.5), introduzindo assim tensões entre os requisitos de projeto que conduzem a um maior grau de privacidade e aqueles que conduzem a uma maior efetividade do direito à revisão (<xref ref-type="bibr" rid="B04">BAYAMLIOĞLU, 2022</xref>).</p>
            <p>O conflito entre PbD e outros imperativos cobertos pela proteção de dados pessoais é um exemplo dos juízos de valor envolvidos no projeto de sistemas técnicos. Diante de conflitos entre valores juridicamente protegidos, a estratégia regulatória de proteção de dados <italic>by design</italic> acaba por delegar para os agentes de tratamento importantes decisões a respeito de como sopesar direitos fundamentais (<xref ref-type="bibr" rid="B02">ALMADA, 2023</xref>). Uma vez que este sopesamento já apresenta desafios substanciais para os tribunais,<xref ref-type="fn" rid="fn30">30</xref> os agentes de tratamento—em especial aqueles de pequeno e médio porte—necessitarão de diretrizes interpretativas para encontrar boas soluções para estes conflitos de direitos. Caso contrário, decisões de atores privados acabarão por causar mais dano do que elas buscam prevenir.</p>
            <p>A proteção de dados <italic>by design</italic> é um instrumento que torna os agentes de tratamento garantidores da efetividade do sistema da LGPD. No contexto das decisões automatizadas, esta construção garante que os riscos decorrentes do uso de inteligência artificial e outras tecnologias de automação sejam mapeados pelos atores em melhor condição de resolvê-los. Porém, a diversidade de contextos de aplicação destas tecnologias e de valores em jogo nestes contextos faz com que a regulação baseada em risco produza enunciados normativos consideravelmente amplos, como examinado nesta seção. Assim, sua implementação exigirá a difusão de diretrizes e conhecimento que permitam o adequado mapeamento dos riscos existentes e soluções aplicáveis aos casos concretos.</p>
        </sec>
        <sec>
            <title>O PAPEL DA ANPD NA REGULAÇÃO DAS DECISÕES AUTOMATIZADAS</title>
            <p>A regulação de decisões automatizadas no ordenamento brasileiro, como discutido <italic>supra</italic>, não é exaustiva em relação às preocupações geradas e sua abordagem traz espaço para importantes dúvidas interpretativas. Os dispositivos a respeito da proteção de dados <italic>by design</italic> fornecem diretrizes gerais para a avaliação dos riscos associados ao tratamento de dados pessoais, mas não indicam medidas específicas a serem adotadas ou mesmo riscos específicos ao contexto das decisões automatizadas. Já o artigo 20 da LGPD traz alguns exemplos de decisões automatizadas que o legislador julga criar riscos particularmente relevantes<xref ref-type="fn" rid="fn31">31</xref> e indica salvaguardas específicas para o cenário de automação: o direito à revisão (LGPD, Artigo 20, <italic>caput</italic>), o direito à explicação (LGPD, Artigo 20, § 1°)<xref ref-type="fn" rid="fn32">32</xref> e, nos casos em que este não se aplica por razões de segredo comercial ou industrial, a realização de auditorias para a verificação de potenciais aspectos discriminatórios (LGPD, Artigo 20, § 2°). Resta, contudo, uma série de problemas informacionais: como diagnosticar que outras medidas são necessárias para sistemas em concreto? Como identificar as medidas aplicáveis em contextos de decisões parcialmente automatizadas? O que se deve fazer a respeito dos efeitos sistêmicos da automação? Todas estas questões permanecem em aberto a partir da leitura do texto da lei, de forma que os agentes de tratamento de dados pessoais e os tribunais precisarão extrair respostas de outras fontes.</p>
            <p>Uma fonte imediata para suprir esses aspectos na aplicação da LGPD às decisões automatizadas é a Autoridade Nacional de Proteção de Dados (ANPD). O Artigo 55-J da LGPD confere a esta autoridade diversas competências relevantes para a presente discussão, dentre elas encontram-se o poder de fiscalização e imposição de sanções em casos de tratamento em descumprimento à legislação (inciso IV), a difusão de conhecimento a respeito da proteção de dados pessoais (incisos V e VI), estimular a adoção de normas técnicas que facilitem o controle dos titulares sobre seus dados (inciso VII), e criar normas infralegais a respeito de vários aspectos da proteção de dados pessoais (incisos X, XIII e XVIII). Em particular, a autoridade é competente para estabelecer padrões técnicos mínimos que tornem aplicáveis as medidas de proteção de dados <italic>by design</italic>, considerando a natureza das informações tratadas, o estado atual da tecnologia e as características específicas do tratamento (LGPD, Artigo 46, § 1°). Ao fazê-lo, a ANPD pode criar normas que atendam às demandas específicas de determinadas operações de tratamento, bem como reconhecer e divulgar boas práticas adotadas por agentes de tratamento de dados (LGPD, Artigo 50, § 3º).</p>
            <p>Dentro deste quadro, competiria à ANPD decretar que a revisão de decisões automatizadas seja, em certos casos, necessariamente feita por um humano. Como examinado anteriormente neste artigo, uma eventual regra nesse sentido não poderia ter caráter geral, uma vez que o processo legislativo da LGPD acabou por rejeitar uma regra geral de revisão por humanos. Tal rejeição, contudo, não veda a exigência de revisão humana em casos específicos. O artigo 46, § 1º, da LGPD autoriza a ANPD a dispor sobre padrões técnicos mínimos para proteger dados pessoais de tratamento ilícito ou inadequado. De acordo com esta autorização, as disposições da autoridade devem considerar “[...] a natureza das informações tratadas, as características específicas do tratamento e o estado atual da tecnologia, [...] assim como os princípios previstos no caput do art. 6º desta Lei”. Uma vez que a tomada de decisão automatizada, como definida pela LGPD no artigo 20, é uma forma de tratamento de dados pessoais,<xref ref-type="fn" rid="fn33">33</xref> tal dispositivo permite que a autoridade de proteção de dados estabeleça requisitos técnicos mínimos que devem ser seguidos pelos particulares ao construir sistemas automatizados para tomada de decisão.</p>
            <p>Em uma primeira análise, a remoção da previsão explícita de revisão por pessoa natural fornece um sinal de que tal regulamentação deve estimular o desenvolvimento de tecnologias que permitam uma revisão de decisões automatizadas por meios eles próprios automatizados, ou no mínimo ser aberta a esta possibilidade. De fato, a pesquisa acadêmica em engenharia de software e em inteligência artificial vem desenvolvendo técnicas que se prestam a tais propósitos, como a representação computacional de normas de proteção de dados (<xref ref-type="bibr" rid="B46">ROBALDO <italic>et al</italic>., 2020</xref>), o uso de métricas de discriminação para detectar vieses em decisões algorítmicas (<xref ref-type="bibr" rid="B64">WACHTER; MITTELSTADT; RUSSELL, 2021</xref>) ou mesmo o uso de abordagens formais para a validação de software (<xref ref-type="bibr" rid="B29">KROLL <italic>et al</italic>., 2017</xref>). Contudo, as abordagens que hoje existem são insuficientes para capturar elementos importantes para diagnosticar se houve ou não uma lesão a interesses juridicamente protegidos: por exemplo, sistemas computacionais encontram dificuldades para lidar com a ambiguidade inerente aos textos jurídicos<xref ref-type="fn" rid="fn34">34</xref> e com formas de comunicação como o humor, que são altamente dependentes de informação a respeito do contexto de comunicação (<xref ref-type="bibr" rid="B43">RAYZ; RASKIN, 2019</xref>). Ademais, as diversas formas de opacidade associadas aos sistemas computacionais (<xref ref-type="bibr" rid="B11">BURRELL, 2016</xref>) podem ser um obstáculo à legitimidade de sistemas automatizados de revisão: como ter certeza de que o sistema revisor está efetuando uma avaliação justa e não somente validando os <italic>outputs</italic> anteriores?</p>
            <p>Estes e outros obstáculos fazem com que, ao menos no atual estado da arte, a revisão sem envolvimento humano seja viável apenas em tarefas particularmente simples, e não na maioria das situações em que se usa ou planeja usar uma ferramenta de decisão automatizada. Uma primeira contribuição que a ANPD poderia desempenhar seria clarificar as condições em que a revisão pode ser delegada. Tal clareza pode ser produzida através de mecanismos de ação direta da ANPD, como a edição de normas e diretrizes que estipulem casos em que a revisão automatizada é possível—ou ao menos forneçam critérios para que o controlador avalie a viabilidade desta. Além disso, a ANPD pode contribuir para a clareza do cenário regulatório através de mecanismos indutivos, como a difusão de conhecimento a respeito do estado da arte das decisões automatizadas ou o reconhecimento de práticas de autorregulação criadas no escopo do Artigo 50 da LGPD e que proponham boas diretrizes para avaliar a viabilidade de automação. Por estes mecanismos diretos e indiretos, a ANPD poderia trazer maior certeza em relação aos cenários em que a revisão puramente automatizada é possível sem prejuízo aos titulares de dados.</p>
            <p>Quando a automação do processo revisional for impossível, o cumprimento da obrigação imposta ao controlador do tratamento de dados pessoais pelo <italic>caput</italic> do Artigo 20 da LGPD exigirá a adoção de medidas de revisão envolvendo pessoa natural. Nestes casos de impossibilidade, a ANPD estaria autorizada a estabelecer padrões técnicos que estipulem que a revisão seja feita por um humano, uma vez que a participação de um humano se torna uma condição necessária para o efetivo direito à revisão. Dada essa base, eventual padronização nesse sentido seria necessariamente transitória, perdendo sua base legal no caso de surgimento de tecnologias capazes de viabilizar a revisão automatizada, mas contribuiria para a segurança jurídica ao tornar explícito o que o melhor conhecimento técnico a respeito do tema reputa possível ou impossível. Tendo em vista que o uso de sistemas de decisão automatizada não é (somente) uma elaboração da ficção científica, mas já faz parte do cotidiano de muitos brasileiros, a adequada definição de requisitos técnicos para a revisão de decisões automatizadas—incluindo talvez a exigência de um revisor humano—contribuirá para a melhor proteção dos direitos do titular de dados pessoais.</p>
            <p>A ANPD pode, também, contribuir para a governança da IA ao exercer seus poderes de fiscalização. Um primeiro instrumento para este fim é o poder de realizar auditorias para verificar aspectos discriminatórios em decisões automatizadas (LGPD, art. 20, § 2º), que a ANPD pode exercer quando os agentes de tratamento de dados invocam segredos comerciais ou industriais para não revelar informações ao titular de dados. Para além desta hipótese potencialmente restrita de aplicação, a ANPD também tem o poder de requisitar relatórios de impacto à proteção de dados pessoais (LGPD, Artigos 10, § 3º, e 38, <italic>caput</italic>), cuja realização exige que os agentes de tratamento mapeiem os riscos envolvidos em uma operação de tratamento de dados. Tais relatórios e auditorias não só fornecem subsídios para futuras ações sancionadoras da autoridade—caso se mostrem necessárias nos termos da lei—mas também podem eles mesmos induzir ajustes no comportamento dos agentes sujeitos a estas atividades de prestação de contas (<xref ref-type="bibr" rid="B12">BUSUIOC, 2021</xref>).</p>
            <p>O poder da ANPD em especificar os contornos dos dispositivos da LGPD não é ilimitado. Tendo em vista que o poder normativo de decretos e regulamentos é limitado à “fiel execução” do disposto na lei (CRFB, Artigo 84, IV), as normas emitidas pela autoridade não podem criar hipóteses de aplicação de dispositivos ou eliminar hipóteses previstas nestes. É questionável, por exemplo, se a ANPD tem competência para definir situações em que a revisão não seria obrigatória. Tal estipulação seria um mecanismo para filtrar a amplitude do conceito de “interesse” usado no <italic>caput</italic> do Artigo 20 da LGPD, desobrigando a revisão em casos julgados de menor impacto. Estabelecer um filtro nestas linhas, contudo, tornaria o direito à revisão inaplicável a situações em que o texto da LGPD prevê sua incidência, ao contrário da obrigação de revisão por humano, que meramente estipula o modo como o direito criado na lei deve ser assegurado. Para evitar que a obrigação da revisão gere um fardo excessivo para os agentes de tratamento, a ANPD pode lançar mão de outros mecanismos, como o estabelecimento de padrões simplificados para a revisão de decisões de caráter trivial ou de limitado impacto nos interesses do titular de dados. Desta forma, a autoridade poderia tornar mais factível o direito à revisão sem, no entanto, exceder os limites de sua competência legal.</p>
            <p>Ao enfrentar obstáculos como os elencados acima, a ANPD pode contribuir para que agentes de tratamento de dados pessoais possam diagnosticar e responder aos riscos associados a contextos de decisão automatizada. Por meio de sua produção normativa e técnica, esta autoridade pode atuar como difusora do conhecimento técnico existente a respeito das aplicações de inteligência artificial. Ao fazê-lo, a autoridade traria aportes para resolver disputas axiológicas como as descritas na seção anterior, bem como facilitaria o acesso de pequenas empresas e organizações do terceiro setor ao conhecimento necessário para o tratamento de dados pessoais. Neste papel, a atuação da ANPD coexiste com a atuação do setor privado, do terceiro setor, e de sistemas protetivos já existentes—como a ampla atuação do Ministério Público no campo da defesa do consumidor— no desenvolvimento de padrões técnicos para a proteção de dados (LGPD, Artigo 51), bem como no estabelecimento de regras de boas práticas e governança (LGPD, Artigo 40) e na criação de mecanismos de certificação.<xref ref-type="fn" rid="fn35">35</xref> Por último, mas não menos importante, a atuação sancionadora da ANPD, bem como as vindouras decisões dos tribunais a respeito da LGPD, servirão para verificar quais medidas técnicas, administrativas e de segurança se prestam à proteção de dados no caso concreto. Desta forma, o modelo brasileiro de proteção de dados pessoais oferece diversos mecanismos para sanar a imprecisão decorrente de sua ênfase na prevenção de riscos, ainda que seu funcionamento dependa da cooperação entre os diversos atores envolvidos.</p>
        </sec>
        <sec sec-type="conclusions">
            <title>CONSIDERAÇÕES FINAIS</title>
            <p>Decisões automatizadas são uma questão saliente nas sociedades modernas, para a qual a LGPD propõe uma resposta dupla. De um lado, o direito à revisão das decisões automatizadas introduz um instrumento para que estes titulares de dados busquem seus interesses sem precisar recorrer à jurisdição administrativa ou judicial. De outro, a adoção de medidas técnicas e administrativas voltadas aos sistemas de tomada de decisão faz com que os agentes de tratamento de dados tenham de adotar uma postura proativa no diagnóstico e prevenção de potenciais danos oriundos das decisões automatizadas. Contudo, a diversidade de contextos de aplicação de sistemas de tomada de decisão automatizada, bem como a possibilidade de automação parcial de decisões, faz com que tais normas devam cobrir uma vasta gama de casos e danos a prevenir.</p>
            <p>Para assegurar a efetiva prevenção destes danos, a LGPD impõe diversos deveres aos agentes de tratamento de dados, de forma a obrigar tais agentes a avaliar e enfrentar os potenciais danos decorrentes do uso de decisões automatizadas. A alternativa seria a adoção de dispositivos detalhados para responder às minúcias de cada potencial caso de aplicação, uma solução que aumentaria a complexidade já elevada da lei e traria riscos de que ela se tornasse desatualizada diante das mudanças tecnológicas. Tal decisão, todavia, traz dificuldades para os agentes de tratamento de dados pessoais, que passam a precisar realizar uma avaliação contextual dos riscos decorrentes da automação de decisões, bem como adotar medidas que podem ter elevada complexidade técnica ou administrativa.</p>
            <p>Sustentamos ao longo do artigo que este problema é fruto da novidade da lei e da complexidade dos cenários de uso das tecnologias de decisão automatizada. Portanto, a implementação do direito à revisão e das medidas de proteção de dados <italic>by design</italic> se beneficiará do conhecimento desenvolvido pelos vários atores sociais conforme a LGPD adquire maturidade. Para que isso ocorra, no entanto, faz-se necessária a ativa cooperação entre a ANPD e os atores públicos e privados que implementam sistemas de decisão automatizada. Caso contrário, os dispositivos que regulam decisões automatizadas correm o risco de se tornar uma ficção.</p>
            <p>Mesmo com esta cooperação ativa, a legislação de proteção de dados é insuficiente para oferecer plena proteção diante dos riscos identificados nas seções anteriores. Na primeira seção, apresentamos alguns dos limites dos instrumentos centrados na noção de decisão automatizada. A seguir, apontamos que a regulação <italic>by design</italic> pode ser usada para estender o alcance da legislação de proteção de dados para cobrir outros riscos advindo do uso da IA, mas, ao fazê-lo, delega decisões a respeito de direitos fundamentais para os agentes de tratamento de dados. Por fim, vimos que a ANPD pode suprir balizas para estas decisões, mas está sujeita a certos limites ao fazê-lo, em especial no que tange ao seu poder normativo. As propostas formuladas nas seções anteriores não devem, portanto, ser vistas como uma alternativa à introdução de normas específicas para a IA, como aquelas atualmente sob debate no contexto do PL 21/2020 e a proposta de Substitutivo recentemente submetida pela Comissão de Juristas do Senado Federal. Em trabalhos futuros, pretendemos explorar em que medida o conteúdo do Substitutivo supre as limitações aqui apontadas e dialoga adequadamente com a interpretação da LGPD aqui proposta.</p>
            <p>Ainda assim, os instrumentos examinados ao longo do artigo trazem ferramentas versáteis que podem ser utilizadas para enfrentar diversos dos riscos que o uso da IA pode trazer aos titulares de dados, e muitos dos sistemas de maior impacto social dependem de dados pessoais para seu funcionamento. Desta forma, a proteção de dados pessoais é necessária—ainda que não suficiente—para a adequada regulação dos sistemas de IA e seu uso na tomada de decisão.</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other" id="fn03">
                <label>3</label>
                <p>Ver, entre outros, (<xref ref-type="bibr" rid="B57">TOMASSETTI, 2020</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn04">
                <label>4</label>
                <p>(<xref ref-type="bibr" rid="B09">BRASIL, 2018</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p>Ver, por exemplo, (<xref ref-type="bibr" rid="B10">BRYSON; DIAMANTIS; GRANT, 2017</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn06">
                <label>6</label>
                <p>É importante frisar que os riscos não fornecem a única baliza da LGPD, que também estipula a defesa de diversos direitos individuais e coletivos ligados ao tratamento de dados pessoais (ZANATTA, 2021, seç. 2.1). Tais direitos restringem a margem de discrição do agente regulado, mas os deveres deste ainda são formulados em termos de riscos: ver, e.g., o Artigo 44 da LGPD. Para um tratamento mais geral do papel da regulação de risco na proteção de dados, ver (<xref ref-type="bibr" rid="B23">GELLERT, 2018</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn07">
                <label>7</label>
                <p>Regulamento Geral de Proteção de Dados (RGPD), também conhecido pela sigla em inglês, GDPR (<xref ref-type="bibr" rid="B59">UNIÃO EUROPEIA, 2016</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn08">
                <label>8</label>
                <p>De forma similar, <xref ref-type="bibr" rid="B49">Claudio Sarra (2020)</xref> também distingue o direito de opor-se a uma operação de tratamento de dados pessoais do direito a contestar os resultados dessa operação.</p>
            </fn>
            <fn fn-type="other" id="fn09">
                <label>9</label>
                <p>A respeito dos diversos modos de falha de sistemas automatizados, e dos perigos de pressupor que a operação destes sempre leva a resultados corretos, ver (<xref ref-type="bibr" rid="B42">RAJI <italic>et al</italic>., 2022</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn10">
                <label>10</label>
                <p>Estes danos podem decorrer, por exemplo, da produção de decisões inadequadas em função de falhas no algoritmo, ou de vazamento de informações a respeito do titular de dados por falhas de segurança no processo decisório.</p>
            </fn>
            <fn fn-type="other" id="fn11">
                <label>11</label>
                <p>Ainda que, na prática, seja implausível esperar um elevado número de pedidos de revisões baseados puramente em fatores procedimentais e não em um desfecho indesejável para o titular de dados.</p>
            </fn>
            <fn fn-type="other" id="fn12">
                <label>12</label>
                <p>Já que a possibilidade de defesa de interesses individuais e coletivos em juízo é protegida pelo art. 22 da LGPD.</p>
            </fn>
            <fn fn-type="other" id="fn13">
                <label>13</label>
                <p>Por exemplo, a definição de decisões automatizadas não engloba as decisões produzidas por sistemas de recomendação, como aqueles que indicam notícias em redes sociais, ainda que estes possam afetar os interesses do titular de dados de formas similares às decisões inteiramente automatizadas (<xref ref-type="bibr" rid="B17">COBBE; SINGH, 2019</xref>). Também pode ser difícil delimitar na prática quando uma decisão conta com envolvimento humano (<xref ref-type="bibr" rid="B07">BINNS; VEALE, 2021</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn14">
                <label>14</label>
                <p>A respeito da aplicação dos dispositivos de decisões automatizadas por autoridades judiciais e administrativas na União Europeia, ver (<xref ref-type="bibr" rid="B60">VALE; ZANFIR-FORTUNA, 2022</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn15">
                <label>15</label>
                <p>Estas tecnologias também são conhecidas como PETs, a partir da sigla em inglês <italic>privacy-enhancing Technologies</italic> (<xref ref-type="bibr" rid="B55">TAMÒ-LARRIEUX, 2018</xref>, pp. 21-22).</p>
            </fn>
            <fn fn-type="other" id="fn16">
                <label>16</label>
                <p>Nos termos do <italic>caput</italic> do Artigo 46 da LGPD, estes são “acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito”.</p>
            </fn>
            <fn fn-type="other" id="fn17">
                <label>17</label>
                <p>Uma decisão que não abra margem para contestação viola, no mínimo, o direito que o titular de dados pessoais tem de recorrer à justiça para reivindicar seus direitos.</p>
            </fn>
            <fn fn-type="other" id="fn18">
                <label>18</label>
                <p>Tal leitura segue da definição do princípio da prevenção (LGPD, Artigo 6<sup>o</sup>, VIII), segundo o qual se deve prevenir que o tratamento de dados resulte em danos, não restringindo estes aos danos ligados à autodeterminação informativa.</p>
            </fn>
            <fn fn-type="other" id="fn19">
                <label>19</label>
                <p>Para uma introdução à anonimização, os riscos aos quais ela responde, e seus limites, ver (<xref ref-type="bibr" rid="B21">FINCK; PALLAS, 2020</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn20">
                <label>20</label>
                <p>É o termo usado na União Europeia (RGPD, Artigo 25(1)), mas também aparece na LGPD: Artigo 45, § 5º.</p>
            </fn>
            <fn fn-type="other" id="fn21">
                <label>21</label>
                <p>Algumas destas medidas têm natureza educacional, como a adoção de treinamentos para os funcionários que utilizarão um sistema corporativo. Outras se referem aos arranjos internos para o tratamento de dados, como a definição de competências para o uso do sistema. Um terceiro conjunto de medidas administrativas trata de estruturas que facilitem o exercício dos direitos do titular de dados, como a criação de canais dedicados de atendimento.</p>
            </fn>
            <fn fn-type="other" id="fn22">
                <label>22</label>
                <p>Dados os amplos poderes que a legislação americana confere às autoridades em termos de requisição de dados para fins de segurança nacional, as autoridades europeias julgaram que nenhuma medida organizacional bastaria para proteger os dados contra acessos que não seriam aceitáveis nos parâmetros da lei europeia (<xref ref-type="bibr" rid="B20">EDPB, 2020</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn23">
                <label>23</label>
                <p>O que pode levar, por exemplo, à adoção de tecnologias de inteligência artificial explicável como uma forma de garantir o acesso à informação previsto pelo art. 20, § 1°, da LGPD (<xref ref-type="bibr" rid="B36">MARANHÃO; COZMAN; ALMADA, 2021</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn24">
                <label>24</label>
                <p>Ver, entre outros, (<xref ref-type="bibr" rid="B01">ABREU, 2018</xref>; <xref ref-type="bibr" rid="B17">COBBE; SINGH, 2019</xref>; <xref ref-type="bibr" rid="B52">SILVA, T., 2020</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn25">
                <label>25</label>
                <p>Aqui, tratamos apenas das variáveis de fato empregadas em um processo decisório. Este valor não deve ser confundido com o número muito maior de variáveis usado para a construção de modelos de grande escala, como o ChatGPT, uma vez que estas se manifestam no estágio anterior de criação do modelo, suscitando problemas de responsabilização que são distintos daqueles diretamente presentes na decisão automatizada: (<xref ref-type="bibr" rid="B18">COBBE; VEALE; SINGH, 2023</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn26">
                <label>26</label>
                <p>Ver, por exemplo, o uso de dados de telefonia para a geração de <italic>scores</italic> de crédito (<xref ref-type="bibr" rid="B19">DIETTRICH; DE SOUZA; GUERREIRO, 2020</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn27">
                <label>27</label>
                <p>Os obstáculos criados pela opacidade técnica não são absolutos, uma vez que técnicas investigativas podem revelar eventuais problemas com algoritmos mesmo quando os parâmetros e o uso destes são mantidos opacos (<xref ref-type="bibr" rid="B63">WASHINGTON, 2016</xref>). Todavia, tais medidas demandam um substancial esforço técnico para a reconstrução dos fatores desconhecidos, e sua efetividade pode ser limitada por fatores como sigilo comercial e industrial (<xref ref-type="bibr" rid="B13">BUSUIOC; CURTIN; ALMADA, 2023</xref>). Ainda que o Artigo 20, § 2º, da LGPD confira à ANPD o poder para realizar auditorias quando tais formas de sigilo são invocadas, eventuais auditorias são limitadas à verificação de aspectos discriminatórios, e precisarão elas mesmas examinar os fatores técnicos em questão.</p>
            </fn>
            <fn fn-type="other" id="fn28">
                <label>28</label>
                <p>A respeito das técnicas de inteligência artificial explicável e sua conexão com requisitos jurídicos, ver (<xref ref-type="bibr" rid="B06">BIBAL <italic>et al</italic>., 2021</xref>; <xref ref-type="bibr" rid="B34">MARANHÃO; COZMAN; ALMADA, 2021</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn29">
                <label>29</label>
                <p>A respeito da distinção conceitual entre privacidade e proteção de dados pessoais no ordenamento jurídico europeu, ver (<xref ref-type="bibr" rid="B28">KOKOTT; SOBOTTA, 2013</xref>). A fundamentação de tais direitos no ordenamento brasileiro também daria margem a similar distinção, mas o desenvolvimento desta excede os limites deste artigo.</p>
            </fn>
            <fn fn-type="other" id="fn30">
                <label>30</label>
                <p>A respeito do sopesamento como problema jurídico, ver (<xref ref-type="bibr" rid="B53">SILVA, V. A., 2021</xref>, p. 120–122) e, no domínio da tecnologia, (<xref ref-type="bibr" rid="B22">GARBEN, 2020</xref>; <xref ref-type="bibr" rid="B50">SARTOR, 2016</xref>), dentre outros.</p>
            </fn>
            <fn fn-type="other" id="fn31">
                <label>31</label>
                <p>O rol não-exaustivo do <italic>caput</italic> do artigo 20 da LGPD: “…incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.”</p>
            </fn>
            <fn fn-type="other" id="fn32">
                <label>32</label>
                <p>Há ampla discussão na literatura a respeito do conteúdo das informações que devem ser providas neste contexto. Ver (<xref ref-type="bibr" rid="B34">MARANHÃO; COZMAN; ALMADA, 2021</xref>; <xref ref-type="bibr" rid="B40">MULHOLLAND; FRAJHOF, 2019</xref>; <xref ref-type="bibr" rid="B48">SÁ; LIMA, 2020</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn33">
                <label>33</label>
                <p>A menos que envolva apenas dados não-pessoais.</p>
            </fn>
            <fn fn-type="other" id="fn34">
                <label>34</label>
                <p>A respeito das abordagens para representar textos e raciocínios jurídicos em forma computacional, ver, e.g., (<xref ref-type="bibr" rid="B37">MARANHÃO; FLORÊNCIO; ALMADA, 2021</xref>, seç. 3–4)</p>
            </fn>
            <fn fn-type="other" id="fn35">
                <label>35</label>
                <p>A LGPD, em seu Artigo 33, menciona a certificação como uma possibilidade no caso das transferências internacionais de dados.</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>REFERÊNCIAS</title>
            <ref id="B01">

                <mixed-citation>﻿ABREU, C. M. Discriminação de preços na economia digital: limites entre a eficiência e o abuso do poder econômico. <bold>Revista do IBRAC</bold>, <italic>[S. l.]</italic>, v. 24, n. 2, p. 309-329, 2018.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ABREU</surname>
                            <given-names>C. M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Discriminação de preços na economia digital: limites entre a eficiência e o abuso do poder econômico</article-title>
                    <source>Revista do IBRAC</source>
                    <volume>24</volume>
                    <issue>2</issue>
                    <fpage>309</fpage>
                    <lpage>329</lpage>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B02">

                <mixed-citation>ALMADA, M. Regulation by design and the governance of technological futures. <bold>European Journal of Risk Regulation</bold>, <italic>[S. l.]</italic>, early access, 2023.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ALMADA</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Regulation by design and the governance of technological futures</article-title>
                    <source>European Journal of Risk Regulation</source>
                    <comment>early access</comment>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B03">

                <mixed-citation>ARTICLE 29 WP. <bold>Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679</bold>. Bruxelas: Article 29 Working Party, 2018.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>ARTICLE 29 WP</collab>
                    </person-group>
                    <source>Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679</source>
                    <publisher-loc>Bruxelas</publisher-loc>
                    <publisher-name>Article 29 Working Party</publisher-name>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B04">

                <mixed-citation>BAYAMLIOĞLU, E. The right to contest automated decisions under the General Data Protection Regulation: Beyond the so-called “right to explanation”. <bold>Regulation &amp; Governance</bold>, <italic>[S. l.]</italic>, v. 16, n. 4, p. 1058-1078, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BAYAMLIOĞLU</surname>
                            <given-names>E.</given-names>
                        </name>
                    </person-group>
                    <article-title>The right to contest automated decisions under the General Data Protection Regulation: Beyond the so-called “right to explanation”</article-title>
                    <source>Regulation &amp; Governance</source>
                    <volume>16</volume>
                    <issue>4</issue>
                    <fpage>1058</fpage>
                    <lpage>1078</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B05">

                <mixed-citation>BEIGANG, F. On the Advantages of Distinguishing Between Predictive and Al-locative Fairness in Algorithmic Decision-Making. <bold>Minds and Machines</bold>, <italic>[S. l.]</italic>, v. 32, n. 4, p. 655-682, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BEIGANG</surname>
                            <given-names>F.</given-names>
                        </name>
                    </person-group>
                    <article-title>On the Advantages of Distinguishing Between Predictive and Al-locative Fairness in Algorithmic Decision-Making</article-title>
                    <source>Minds and Machines</source>
                    <volume>32</volume>
                    <issue>4</issue>
                    <fpage>655</fpage>
                    <lpage>682</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B06">

                <mixed-citation>BIBAL, A. <italic>et al.</italic> Legal requirements on explainability in machine learning. <bold>Artificial Intelligence and Law</bold>, <italic>[S. l.]</italic>, v. 29, n. 2, p. 149-169, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BIBAL</surname>
                            <given-names>A.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Legal requirements on explainability in machine learning</article-title>
                    <source>Artificial Intelligence and Law</source>
                    <volume>29</volume>
                    <issue>2</issue>
                    <fpage>149</fpage>
                    <lpage>169</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B07">

                <mixed-citation>BINNS, R.; VEALE, M. Is that your final decision? Multi-stage profiling, selective effects, and Article 22 of the GDPR. <bold>International Data Privacy Law</bold>, <italic>[S. l.]</italic>, v. 11, n. 4, 2021, p. 319-332.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BINNS</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>VEALE</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Is that your final decision? Multi-stage profiling, selective effects, and Article 22 of the GDPR</article-title>
                    <source>International Data Privacy Law</source>
                    <volume>11</volume>
                    <issue>4</issue>
                    <year>2021</year>
                    <fpage>319</fpage>
                    <lpage>332</lpage>
                </element-citation>
            </ref>
            <ref id="B08">

                <mixed-citation>BORDT, S. <italic>et al.</italic> Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial Contexts. <italic>In</italic>: <bold>Proceedings of FAccT ’</bold>22. Nova York: ACM, 2022, p. 891-905.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BORDT</surname>
                            <given-names>S.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <conf-name>Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial Contexts</conf-name>
                    <source>Proceedings of FAccT</source>
                    <edition>22</edition>
                    <conf-loc>Nova York</conf-loc>
                    <publisher-name>ACM</publisher-name>
                    <year>2022</year>
                    <fpage>891</fpage>
                    <lpage>905</lpage>
                </element-citation>
            </ref>
            <ref id="B09">

                <mixed-citation>BRASIL. <bold>Lei 13.709</bold>, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais).</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>BRASIL</collab>
                    </person-group>
                    <source>Lei 13.709</source>
                    <day>14</day>
                    <month>08</month>
                    <year>2018</year>
                    <comment>Lei Geral de Proteção de Dados Pessoais</comment>
                </element-citation>
            </ref>
            <ref id="B10">

                <mixed-citation>BRYSON, J. J.; DIAMANTIS, M. E.; GRANT, T. D. Of, for, and by the people: the legal lacuna of synthetic persons. <bold>Artificial Intelligence and Law</bold>, <italic>[S. l.]</italic>, v. 25, n. 3, p. 273-291, 2017.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRYSON</surname>
                            <given-names>J. J.</given-names>
                        </name>
                        <name>
                            <surname>DIAMANTIS</surname>
                            <given-names>M. E.</given-names>
                        </name>
                        <name>
                            <surname>GRANT</surname>
                            <given-names>T. D.</given-names>
                        </name>
                    </person-group>
                    <article-title>Of, for, and by the people: the legal lacuna of synthetic persons</article-title>
                    <source>Artificial Intelligence and Law</source>
                    <volume>25</volume>
                    <issue>3</issue>
                    <fpage>273</fpage>
                    <lpage>291</lpage>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B11">

                <mixed-citation>BURRELL, J. How the machine ‘thinks’: Understanding opacity in machine learning algorithms. <bold>Big Data &amp; Society</bold>, <italic>[S. l.]</italic>, v. 3, n. 1, p. 1-12, 2016.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BURRELL</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <article-title>How the machine ‘thinks’: Understanding opacity in machine learning algorithms</article-title>
                    <source>Big Data &amp; Society</source>
                    <volume>3</volume>
                    <issue>1</issue>
                    <fpage>1</fpage>
                    <lpage>12</lpage>
                    <year>2016</year>
                </element-citation>
            </ref>
            <ref id="B12">

                <mixed-citation>BUSUIOC, M. Accountable Artificial Intelligence: Holding Algorithms to Account. <bold>Public Administration Review</bold>, <italic>[S. l.]</italic>, v. 81, n. 5, p. 825-836, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BUSUIOC</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Accountable Artificial Intelligence: Holding Algorithms to Account</article-title>
                    <source>Public Administration Review</source>
                    <volume>81</volume>
                    <issue>5</issue>
                    <fpage>825</fpage>
                    <lpage>836</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B13">

                <mixed-citation>BUSUIOC, M.; CURTIN, D.; ALMADA, M. Reclaiming transparency: contesting the logics of secrecy within the AI Act. <bold>European Law Open</bold>, <italic>[S. l.]</italic>, v. 2, n. 1, p. 79-105, 2023.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BUSUIOC</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>CURTIN</surname>
                            <given-names>D.</given-names>
                        </name>
                        <name>
                            <surname>ALMADA</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Reclaiming transparency: contesting the logics of secrecy within the AI Act</article-title>
                    <source>European Law Open</source>
                    <volume>2</volume>
                    <issue>1</issue>
                    <fpage>79</fpage>
                    <lpage>105</lpage>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B14">

                <mixed-citation>BYGRAVE, L. A. Article 25. Data protection by design and by default. In: KUNER, C.; BYGRAVE, L. A; DOCKSEY, C. (Org.). <bold>The EU General Data Protection Regulation (GDPR)</bold>: A Commentary. Oxford: Oxford University Press, 2020. p. 571-581.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BYGRAVE</surname>
                            <given-names>L. A.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Article 25. Data protection by design and by default</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>KUNER</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>BYGRAVE</surname>
                            <given-names>L. A.</given-names>
                        </name>
                        <name>
                            <surname>DOCKSEY</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <source><bold>The EU General Data Protection Regulation (GDPR)</bold>: A Commentary</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>2020</year>
                    <fpage>571</fpage>
                    <lpage>581</lpage>
                </element-citation>
            </ref>
            <ref id="B15">

                <mixed-citation>BYGRAVE, L. A. Data Protection by Design and by Default: Deciphering the EU’s Legislative Requirements. <bold>Oslo Law Review</bold>, Oslo, v. 4, n. 2, p. 105-120, 2017.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BYGRAVE</surname>
                            <given-names>L. A.</given-names>
                        </name>
                    </person-group>
                    <article-title>Data Protection by Design and by Default: Deciphering the EU’s Legislative Requirements</article-title>
                    <source>Oslo Law Review</source>
                    <publisher-loc>Oslo</publisher-loc>
                    <volume>4</volume>
                    <issue>2</issue>
                    <fpage>105</fpage>
                    <lpage>120</lpage>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B16">

                <mixed-citation>CITRON, D. K.; PASQUALE, F. The Scored Society: Due Process for Automated Predictions. <bold>Washington Law Review</bold>, Seattle, v. 89, p. 2-33, 2014.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CITRON</surname>
                            <given-names>D. K.</given-names>
                        </name>
                        <name>
                            <surname>PASQUALE</surname>
                            <given-names>F.</given-names>
                        </name>
                    </person-group>
                    <article-title>The Scored Society: Due Process for Automated Predictions</article-title>
                    <source>Washington Law Review</source>
                    <publisher-loc>Seattle</publisher-loc>
                    <volume>89</volume>
                    <fpage>2</fpage>
                    <lpage>33</lpage>
                    <year>2014</year>
                </element-citation>
            </ref>
            <ref id="B17">

                <mixed-citation>COBBE, J.; SINGH, J. Regulating Recommending: Motivations, Considerations, and Principles. <bold>European Journal of Law and Technology</bold>, <italic>[S. l.]</italic>, v. 10, n. 3, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COBBE</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>SINGH</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <article-title>Regulating Recommending: Motivations, Considerations, and Principles</article-title>
                    <source>European Journal of Law and Technology</source>
                    <volume>10</volume>
                    <issue>3</issue>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B18">

                <mixed-citation>COBBE, J.; VEALE, Michael; SINGH, Jatinder. Understanding accountability in algorithmic supply chains. <italic>In</italic>: <bold>Proceedings of FAccT 2023</bold>. Nova York: ACM, 2023, p. 1186-1197.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COBBE</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>VEALE</surname>
                            <given-names>Michael</given-names>
                        </name>
                        <name>
                            <surname>SINGH</surname>
                            <given-names>Jatinder</given-names>
                        </name>
                    </person-group>
                    <conf-name>Understanding accountability in algorithmic supply chains</conf-name>
                    <source>Proceedings of FAccT 2023</source>
                    <conf-loc>Nova York</conf-loc>
                    <publisher-name>ACM</publisher-name>
                    <year>2023</year>
                    <fpage>1186</fpage>
                    <lpage>1197</lpage>
                </element-citation>
            </ref>
            <ref id="B19">

                <mixed-citation>DIETTRICH, L.; DE SOUZA, F.; GUERREIRO, A. Development of credit scores with telco data using Machine Learning and agile methodology in Brazil. In: <bold>SAS Global Forum 2020</bold>, <italic>[S.l.]</italic>: SAS, 16 jun. 2020.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DIETTRICH</surname>
                            <given-names>L.</given-names>
                        </name>
                        <name>
                            <surname>DE SOUZA</surname>
                            <given-names>F.</given-names>
                        </name>
                        <name>
                            <surname>GUERREIRO</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <conf-name>Development of credit scores with telco data using Machine Learning and agile methodology in Brazil</conf-name>
                    <source>SAS Global Forum 2020</source>
                    <publisher-name>S.l.</publisher-name>
                    <publisher-name>SAS</publisher-name>
                    <day>16</day>
                    <month>06</month>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B20">

                <mixed-citation>EDPB. <bold>Recommendations 01/2020 on measures that supplement transfer tools to ensure compliance with the EU level of protection of personal data</bold>. European Data Protection Board, 10 de novembro de 2020.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>EDPB</collab>
                    </person-group>
                    <source>Recommendations 01/2020 on measures that supplement transfer tools to ensure compliance with the EU level of protection of personal data</source>
                    <publisher-name>European Data Protection Board</publisher-name>
                    <day>10</day>
                    <month>11</month>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B21">

                <mixed-citation>FINCK, M.; PALLAS, F. They who must not be identiﬁed—distinguishing personal from non-personal data under the GDPR. <bold>International Data Privacy Law</bold>, <italic>[S. l.]</italic>, v. 10, n. 1, p. 11–36, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FINCK</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>PALLAS</surname>
                            <given-names>F.</given-names>
                        </name>
                    </person-group>
                    <article-title>They who must not be identiﬁed—distinguishing personal from non-personal data under the GDPR</article-title>
                    <source>International Data Privacy Law</source>
                    <volume>10</volume>
                    <issue>1</issue>
                    <fpage>11</fpage>
                    <lpage>36</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B22">

                <mixed-citation>GARBEN, S. Fundamental rights in EU copyright harmonization: Balancing without a solid framework: Funke Medien, Pelham, Spiegel Online. <bold>Common Market Law Review</bold>, Leiden, v. 57, n. 6, p. 1909-1932, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GARBEN</surname>
                            <given-names>S.</given-names>
                        </name>
                    </person-group>
                    <article-title>Fundamental rights in EU copyright harmonization: Balancing without a solid framework: Funke Medien, Pelham, Spiegel Online</article-title>
                    <source>Common Market Law Review</source>
                    <publisher-loc>Leiden</publisher-loc>
                    <volume>57</volume>
                    <issue>6</issue>
                    <fpage>1909</fpage>
                    <lpage>1932</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B23">

                <mixed-citation>GELLERT, R. Understanding the notion of risk in the General Data Protection Regulation. <bold>Computer Law &amp; Security Review</bold>, <italic>[S. l.]</italic>, v. 34, n. 2, p. 279-288, 2018.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GELLERT</surname>
                            <given-names>R.</given-names>
                        </name>
                    </person-group>
                    <article-title>Understanding the notion of risk in the General Data Protection Regulation</article-title>
                    <source>Computer Law &amp; Security Review</source>
                    <volume>34</volume>
                    <issue>2</issue>
                    <fpage>279</fpage>
                    <lpage>288</lpage>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B24">

                <mixed-citation>GORDON, G.; RIEDER, B.; SILENO, G.. On mapping values in AI Governance. <bold>Computer Law &amp; Security Review</bold>, <italic>[S. l.]</italic>, v. 46, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GORDON</surname>
                            <given-names>G.</given-names>
                        </name>
                        <name>
                            <surname>RIEDER</surname>
                            <given-names>B.</given-names>
                        </name>
                        <name>
                            <surname>SILENO</surname>
                            <given-names>G.</given-names>
                        </name>
                    </person-group>
                    <article-title>On mapping values in AI Governance</article-title>
                    <source>Computer Law &amp; Security Review</source>
                    <volume>46</volume>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B25">

                <mixed-citation>HILDEBRANDT, M. Privacy as Protection of the Incomputable Self: From Agnostic to Agonistic Machine Learning. <bold>Theoretical Inquiries in Law</bold>, <italic>[S. l.]</italic>, v. 20, n. 1, p. 83-121, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HILDEBRANDT</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Privacy as Protection of the Incomputable Self: From Agnostic to Agonistic Machine Learning</article-title>
                    <source>Theoretical Inquiries in Law</source>
                    <volume>20</volume>
                    <issue>1</issue>
                    <fpage>83</fpage>
                    <lpage>121</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B26">

                <mixed-citation>HOHFELD, W. N. Some Fundamental Legal Conceptions as Applied in Judicial Reasoning. <bold>The Yale Law Journal</bold>, New Haven, v. 23, n. 1, p. 16-59, 1913.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HOHFELD</surname>
                            <given-names>W. N.</given-names>
                        </name>
                    </person-group>
                    <article-title>Some Fundamental Legal Conceptions as Applied in Judicial Reasoning</article-title>
                    <source>The Yale Law Journal</source>
                    <publisher-loc>New Haven</publisher-loc>
                    <volume>23</volume>
                    <issue>1</issue>
                    <fpage>16</fpage>
                    <lpage>59</lpage>
                    <year>1913</year>
                </element-citation>
            </ref>
            <ref id="B27">

                <mixed-citation>HOSNI, D. S. S.; MARTINS, P. B. L. Tomada de Decisão Automatizada e a Regulamentação da Proteção de Dados: Alternativas Coletivas Oferecidas pela Lei Geral de Proteção de Dados. <bold>Internet &amp; Sociedade</bold>, São Paulo, v. 1, n. 2, p. 77-101, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HOSNI</surname>
                            <given-names>D. S. S.</given-names>
                        </name>
                        <name>
                            <surname>MARTINS</surname>
                            <given-names>P. B. L.</given-names>
                        </name>
                    </person-group>
                    <article-title>Tomada de Decisão Automatizada e a Regulamentação da Proteção de Dados: Alternativas Coletivas Oferecidas pela Lei Geral de Proteção de Dados</article-title>
                    <source>Internet &amp; Sociedade</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <volume>1</volume>
                    <issue>2</issue>
                    <fpage>77</fpage>
                    <lpage>101</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B28">

                <mixed-citation>KOKOTT, J.; SOBOTTA, C. The distinction between privacy and data protection in the jurisprudence of the CJEU and the ECtHR. <bold>International Data Privacy Law</bold>, <italic>[S. l.]</italic>, v. 3, n. 4, p. 222-228, 2013.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KOKOTT</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>SOBOTTA</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <article-title>The distinction between privacy and data protection in the jurisprudence of the CJEU and the ECtHR</article-title>
                    <source>International Data Privacy Law</source>
                    <volume>3</volume>
                    <issue>4</issue>
                    <fpage>222</fpage>
                    <lpage>228</lpage>
                    <year>2013</year>
                </element-citation>
            </ref>
            <ref id="B29">

                <mixed-citation>KROLL, J. <italic>et al.</italic> Accountable Algorithms. <italic>University of Pennsylvania Law Review</italic>, Filadélfia, v. 165, n. 3, pp. 633-705, 2017.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KROLL</surname>
                            <given-names>J.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Accountable Algorithms</article-title>
                    <source>University of Pennsylvania Law Review</source>
                    <publisher-loc>Filadélfia</publisher-loc>
                    <volume>165</volume>
                    <issue>3</issue>
                    <fpage>633</fpage>
                    <lpage>705</lpage>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B30">

                <mixed-citation>LAGIOIA, F.; SARTOR, G. Artificial intelligence in the big data era: risks and opportunities. In: CANNATACCI, J.; FALCE, V.; POLLICINO, O. (Org.). <bold>Legal Challenges of Big Data</bold>. Northampton: Edward Elgar, 2020. p. 280-307.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LAGIOIA</surname>
                            <given-names>F.</given-names>
                        </name>
                        <name>
                            <surname>SARTOR</surname>
                            <given-names>G.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Artificial intelligence in the big data era: risks and opportunities</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>CANNATACCI</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>FALCE</surname>
                            <given-names>V.</given-names>
                        </name>
                        <name>
                            <surname>POLLICINO</surname>
                            <given-names>O.</given-names>
                        </name>
                    </person-group>
                    <source>Legal Challenges of Big Data</source>
                    <publisher-loc>Northampton</publisher-loc>
                    <publisher-name>Edward Elgar</publisher-name>
                    <year>2020</year>
                    <fpage>280</fpage>
                    <lpage>307</lpage>
                </element-citation>
            </ref>
            <ref id="B31">

                <mixed-citation>LIMA, C. C. C.; ALMADA, M.; MARANHÃO, J. Data protection by design e data protection by default. Visão teórica e prática à luz da LGPD e do GDPR. In: VAINZOF, R.; SERAFINO, D.; STEINWASCHER, A. (Org.). <bold>Legal Innovation</bold>: O Futuro do Direito e o Direito do Futuro. São Paulo: Thomson Reuters Brasil, 2022. p. 265-288.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LIMA</surname>
                            <given-names>C. C. C.</given-names>
                        </name>
                        <name>
                            <surname>ALMADA</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>MARANHÃO</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Data protection by design e data protection by default</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>VAINZOF</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>SERAFINO</surname>
                            <given-names>D.</given-names>
                        </name>
                        <name>
                            <surname>STEINWASCHER</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <source><bold>Legal Innovation</bold>: O Futuro do Direito e o Direito do Futuro</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Thomson Reuters Brasil</publisher-name>
                    <year>2022</year>
                    <fpage>265</fpage>
                    <lpage>288</lpage>
                </element-citation>
            </ref>
            <ref id="B32">

                <mixed-citation>LÓPEZ, Nuria. Um direito, um dever: guia para o art. 20 da LGPD. In: OPICE BLUM, Renato (Org.). <italic>Proteção de Dados - Desafios e Soluções na Adequação à Lei</italic>. Rio de Janeiro: Forense, 2020.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LÓPEZ</surname>
                            <given-names>Nuria</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Um direito, um dever: guia para o art. 20 da LGPD</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>OPICE BLUM</surname>
                            <given-names>Renato</given-names>
                        </name>
                    </person-group>
                    <source>Proteção de Dados - Desafios e Soluções na Adequação à Lei</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Forense</publisher-name>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B33">

                <mixed-citation>MALGIERI, G.; COMANDÉ, G. Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation. <bold>International Data Privacy Law</bold>, <italic>[S. l.]</italic>, v. 7, n. 4, p. 243-265, 2017.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MALGIERI</surname>
                            <given-names>G.</given-names>
                        </name>
                        <name>
                            <surname>COMANDÉ</surname>
                            <given-names>G.</given-names>
                        </name>
                    </person-group>
                    <article-title>Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation</article-title>
                    <source>International Data Privacy Law</source>
                    <volume>7</volume>
                    <issue>4</issue>
                    <fpage>243</fpage>
                    <lpage>265</lpage>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B34">

                <mixed-citation>MARANHÃO, J.; ALMADA, M. Inteligência Artificial no Setor de Saúde: Ética e Proteção de Dados. In: DALLARI, A. B.; MONACO, G. F. C. (Org.). <italic>LGPD na Saúde</italic>. 1<sup>a</sup> edição ed. São Paulo: Thomson Reuters Brasil, 2021. p. 357-372.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MARANHÃO</surname>
                            <given-names>J</given-names>
                        </name>
                        <name>
                            <surname>ALMADA</surname>
                            <given-names>M</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Inteligência Artificial no Setor de Saúde: Ética e Proteção de Dados</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>DALLARI</surname>
                            <given-names>A. B</given-names>
                        </name>
                        <name>
                            <surname>MONACO</surname>
                            <given-names>G. F. C.</given-names>
                        </name>
                    </person-group>
                    <source>LGPD na Saúde</source>
                    <edition>1a edição ed.</edition>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Thomson Reuters Brasil</publisher-name>
                    <year>2021</year>
                    <fpage>357</fpage>
                    <lpage>372</lpage>
                </element-citation>
            </ref>
            <ref id="B35">

                <mixed-citation>MARANHÃO, J.; CAMPOS, R. R. Proteção de Dados de Crédito na Lei Geral de Proteção de Dados. <bold>Direito Público</bold>, <italic>[S. l.]</italic>, v. 16, n. 90, p. 132-154, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MARANHÃO</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>CAMPOS</surname>
                            <given-names>R. R.</given-names>
                        </name>
                    </person-group>
                    <article-title>Proteção de Dados de Crédito na Lei Geral de Proteção de Dados</article-title>
                    <source>Direito Público</source>
                    <volume>16</volume>
                    <issue>90</issue>
                    <fpage>132</fpage>
                    <lpage>154</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B36">

                <mixed-citation>MARANHÃO, J.; COZMAN, F. G.; ALMADA, M. Concepções de explicação e do direito à explicação de decisões automatizadas. In: VAINZOF, R.; GUTIERREZ, A. (Org.). <bold>Inteligência Artificial</bold>: Sociedade, Economia e Estado. São Paulo: Thomson Reuters Brasil, 2021. p. 137-154.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MARANHÃO</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>COZMAN</surname>
                            <given-names>F. G.</given-names>
                        </name>
                        <name>
                            <surname>ALMADA</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Concepções de explicação e do direito à explicação de decisões automatizadas</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>VAINZOF</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>GUTIERREZ</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência Artificial</bold>: Sociedade, Economia e Estado</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Thomson Reuters Brasil</publisher-name>
                    <year>2021</year>
                    <fpage>137</fpage>
                    <lpage>154</lpage>
                </element-citation>
            </ref>
            <ref id="B37">

                <mixed-citation>MARANHÃO, J.; FLORÊNCIO, J. A.; ALMADA, M. Inteligência artificial aplicada ao direito e o direito da inteligência artificial. <bold>Suprema</bold> - Revista de Estudos Constitucionais, Brasília, v. 1, n. 1, p. 154-180, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MARANHÃO</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>FLORÊNCIO</surname>
                            <given-names>J. A.</given-names>
                        </name>
                        <name>
                            <surname>ALMADA</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Inteligência artificial aplicada ao direito e o direito da inteligência artificial</article-title>
                    <source>Suprema</source>
                    <comment>Revista de Estudos Constitucionais</comment>
                    <publisher-loc>Brasília</publisher-loc>
                    <volume>1</volume>
                    <issue>1</issue>
                    <fpage>154</fpage>
                    <lpage>180</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B38">

                <mixed-citation>MARRAFON, M. A.; COUTINHO, L. L. C. L. Princípio da Privacidade por Design: Fundamentos e Efetividade Regulatória na Garantia do Direito à Proteção de Dados. <bold>Revista Eletrônica Direito e Política</bold>, <italic>[S. l.]</italic>, v. 15, n. 3, p. 955-984, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MARRAFON</surname>
                            <given-names>M. A.</given-names>
                        </name>
                        <name>
                            <surname>COUTINHO</surname>
                            <given-names>L. L. C. L.</given-names>
                        </name>
                    </person-group>
                    <article-title>Princípio da Privacidade por Design: Fundamentos e Efetividade Regulatória na Garantia do Direito à Proteção de Dados</article-title>
                    <source>Revista Eletrônica Direito e Política</source>
                    <comment>S. l.</comment>
                    <volume>15</volume>
                    <issue>3</issue>
                    <fpage>955</fpage>
                    <lpage>984</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B39">

                <mixed-citation>MENDES, Gilmar Ferreira. <bold>Referendo na Medida Cautelar na Ação Direta de Inconstitucionalidade 6.389 Distrito Federal</bold>. Brasília: Supremo Tribunal Federal, 7 de maio de 2020</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MENDES</surname>
                            <given-names>Gilmar Ferreira</given-names>
                        </name>
                    </person-group>
                    <source>Referendo na Medida Cautelar na Ação Direta de Inconstitucionalidade 6.389 Distrito Federal</source>
                    <publisher-loc>Brasília</publisher-loc>
                    <publisher-name>Supremo Tribunal Federal</publisher-name>
                    <day>7</day>
                    <month>05</month>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B40">

                <mixed-citation>MULHOLLAND, C.; FRAJHOF, I. Z. Inteligência artificial e a lei de proteção de dados pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (Org.). <bold>Inteligência Artificial e Direito</bold>: Ética, Regulação e Responsabilidade. São Paulo: Thomson Reuters Brasil, 2019.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MULHOLLAND</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>FRAJHOF</surname>
                            <given-names>I. Z.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Inteligência artificial e a lei de proteção de dados pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de machine learning</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>FRAZÃO</surname>
                            <given-names>A.</given-names>
                        </name>
                        <name>
                            <surname>MULHOLLAND</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência Artificial e Direito</bold>: Ética, Regulação e Responsabilidade</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Thomson Reuters Brasil</publisher-name>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B41">

                <mixed-citation>PRESIDÊNCIA DA REPÚBLICA. <bold>Mensagem n° 288, de 8 de julho de 2019</bold>. Mensagem de veto presidencial. Brasília: Presidência da República, 2019.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>PRESIDÊNCIA DA REPÚBLICA</collab>
                    </person-group>
                    <source>Mensagem n° 288, de 8 de julho de 2019</source>
                    <comment>Mensagem de veto presidencial</comment>
                    <publisher-loc>Brasília</publisher-loc>
                    <publisher-name>Presidência da República</publisher-name>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B42">

                <mixed-citation>RAJI, I. D. <italic>et al.</italic> The Fallacy of AI Functionality. <italic>In:</italic>
                    <bold>Proceedings of FAccT ’22</bold>. New York: Association for Computing Machinery, 2022. p. 959-972.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RAJI</surname>
                            <given-names>I. D.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <conf-name>The Fallacy of AI Functionality</conf-name>
                    <source>Proceedings of FAccT ’22</source>
                    <conf-loc>New York</conf-loc>
                    <publisher-name>Association for Computing Machinery</publisher-name>
                    <year>2022</year>
                    <fpage>959</fpage>
                    <lpage>972</lpage>
                </element-citation>
            </ref>
            <ref id="B43">

                <mixed-citation>RAYZ, J. T.; RASKIN, V. Fuzziness and Humor: Aspects of Interaction and Computation. <bold>Advances in Intelligent Systems and Computing</bold>. Cham: Springer, 2019. p. 655-666.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RAYZ</surname>
                            <given-names>J. T.</given-names>
                        </name>
                        <name>
                            <surname>RASKIN</surname>
                            <given-names>V.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Fuzziness and Humor: Aspects of Interaction and Computation</chapter-title>
                    <source>Advances in Intelligent Systems and Computing</source>
                    <publisher-loc>Cham</publisher-loc>
                    <publisher-name>Springer</publisher-name>
                    <year>2019</year>
                    <fpage>655</fpage>
                    <lpage>666</lpage>
                </element-citation>
            </ref>
            <ref id="B44">

                <mixed-citation>RECHTBANK AMSTERDAM. <bold>Decisão no caso HA RK 20-207</bold>. Amsterdam: Rechtbank Amsterdam, 11 mar. 2021.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>RECHTBANK AMSTERDAM</collab>
                    </person-group>
                    <source>Decisão no caso HA RK 20-207</source>
                    <publisher-loc>Amsterdam</publisher-loc>
                    <publisher-name>Rechtbank Amsterdam</publisher-name>
                    <day>11</day>
                    <month>03</month>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B45">

                <mixed-citation>RIVELLI, F.; SILVEIRA, R. F. Privacy By Design E Privacy By Default-Proteção da privacidade na área da saúde desde a concepção (e por padrão). In: DALLARI, A. B.; MONACO, G. F. C. (Org.). <bold>LGPD na Saúde</bold>. 1<sup>a</sup> edição ed. São Paulo: Thomson Reuters Brasil, 2021. p. 237-247.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RIVELLI</surname>
                            <given-names>F.</given-names>
                        </name>
                        <name>
                            <surname>SILVEIRA</surname>
                            <given-names>R. F.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Privacy By Design E Privacy By Default-Proteção da privacidade na área da saúde desde a concepção (e por padrão)</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>DALLARI</surname>
                            <given-names>A. B.</given-names>
                        </name>
                        <name>
                            <surname>MONACO</surname>
                            <given-names>G. F. C.</given-names>
                        </name>
                    </person-group>
                    <source>LGPD na Saúde</source>
                    <edition>1a edição ed.</edition>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Thomson Reuters Brasil</publisher-name>
                    <year>2021</year>
                    <fpage>237</fpage>
                    <lpage>247</lpage>
                </element-citation>
            </ref>
            <ref id="B46">

                <mixed-citation>ROBALDO, L. <italic>et al.</italic> Formalizing GDPR Provisions in Reified I/O Logic: The DAPRECO Knowledge Base. <bold>Journal of Logic, Language and Information</bold>, <italic>[S. l.]</italic>, v. 29, n. 4, p. 401-449, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ROBALDO</surname>
                            <given-names>L.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Formalizing GDPR Provisions in Reified I/O Logic: The DAPRECO Knowledge Base</article-title>
                    <source>Journal of Logic, Language and Information</source>
                    <volume>29</volume>
                    <issue>4</issue>
                    <fpage>401</fpage>
                    <lpage>449</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B47">

                <mixed-citation>ROBERTO, E. Responsabilidade civil pelo uso de sistemas de inteligência artificial: em busca de um novo paradigma. <bold>Internet &amp; Sociedade</bold>, São Paulo, v. 1, n. 1, p. 121–143, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ROBERTO</surname>
                            <given-names>E.</given-names>
                        </name>
                    </person-group>
                    <article-title>Responsabilidade civil pelo uso de sistemas de inteligência artificial: em busca de um novo paradigma</article-title>
                    <source>Internet &amp; Sociedade</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <volume>1</volume>
                    <issue>1</issue>
                    <fpage>121</fpage>
                    <lpage>143</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B48">

                <mixed-citation>SÁ, M. F. F. De; LIMA, T. M. M. Inteligência artificial e Lei Geral de Proteção de Dados Pessoais: o direito à explicação nas decisões automatizadas. <bold>Revista Brasileira de Direito Civil - RBDCivil</bold>, Rio de Janeiro, v. 26, n. 04, p. 227, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SÁ</surname>
                            <given-names>M. F. F. De</given-names>
                        </name>
                        <name>
                            <surname>LIMA</surname>
                            <given-names>T. M. M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Inteligência artificial e Lei Geral de Proteção de Dados Pessoais: o direito à explicação nas decisões automatizadas</article-title>
                    <source>Revista Brasileira de Direito Civil - RBDCivil</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <volume>26</volume>
                    <issue>04</issue>
                    <fpage>227</fpage>
                    <lpage>227</lpage>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B49">

                <mixed-citation>SARRA, C. Put Dialectics into the Machine: Protection against Automatic-decision-making through a Deeper Understanding of Contestability by Design. <bold>Global Jurist</bold>, <italic>[S. l.]</italic>, v. 20, n. 3, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SARRA</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <article-title>Put Dialectics into the Machine: Protection against Automatic-decision-making through a Deeper Understanding of Contestability by Design</article-title>
                    <source>Global Jurist</source>
                    <volume>20</volume>
                    <issue>3</issue>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B50">

                <mixed-citation>SARTOR, G. The right to be forgotten: balancing interests in the flux of time. <bold>International Journal of Law and Information Technology</bold>, <italic>[S. l.]</italic>, v. 24, n. 1, p. 72-98, 1 mar. 2016.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SARTOR</surname>
                            <given-names>G.</given-names>
                        </name>
                    </person-group>
                    <article-title>The right to be forgotten: balancing interests in the flux of time</article-title>
                    <source>International Journal of Law and Information Technology</source>
                    <volume>24</volume>
                    <issue>1</issue>
                    <fpage>72</fpage>
                    <lpage>98</lpage>
                    <day>1</day>
                    <month>03</month>
                    <year>2016</year>
                </element-citation>
            </ref>
            <ref id="B51">

                <mixed-citation>SCHAFER, B. Death by a Thousand Cuts: Cumulative Data Effects and the Corbyn Affair. <bold>Datenschutz und Datensicherheit - DuD</bold>, <italic>[S. l.]</italic>, v. 45, n. 6, p. 385-390, 1 jun. 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SCHAFER</surname>
                            <given-names>B.</given-names>
                        </name>
                    </person-group>
                    <article-title>Death by a Thousand Cuts: Cumulative Data Effects and the Corbyn Affair</article-title>
                    <source>Datenschutz und Datensicherheit - DuD</source>
                    <volume>45</volume>
                    <issue>6</issue>
                    <fpage>385</fpage>
                    <lpage>390</lpage>
                    <day>1</day>
                    <month>06</month>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B52">

                <mixed-citation>SILVA, T. Visão computacional e racismo algorítmico: branquitude e opacidade no aprendizado de máquina. <bold>Revista da ABPN</bold>, <italic>[S. l.]</italic>, v. 12, n. 31, 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SILVA</surname>
                            <given-names>T.</given-names>
                        </name>
                    </person-group>
                    <article-title>Visão computacional e racismo algorítmico: branquitude e opacidade no aprendizado de máquina</article-title>
                    <source>Revista da ABPN</source>
                    <volume>12</volume>
                    <issue>31</issue>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B53">

                <mixed-citation>SILVA, V. A. <bold>Direito Constitucional Brasileiro</bold>. São Paulo: Edusp, 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SILVA</surname>
                            <given-names>V. A.</given-names>
                        </name>
                    </person-group>
                    <source>Direito Constitucional Brasileiro</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Edusp</publisher-name>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B54">

                <mixed-citation>SILVA, P.; MEDEIROS, J. <bold>A polêmica da revisão (humana) sobre decisões automatizadas.</bold> Rio de Janeiro: ITS Rio, 10 dez. 2019. Disponível em https://feed.itsrio.org/a-pol%C3%AAmica-da-revis%C3%A3o-humana-sobre-decis%C3%B5es-automatizadas-a81592886345. Acesso em: 16 set. 2021.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SILVA</surname>
                            <given-names>P.</given-names>
                        </name>
                        <name>
                            <surname>MEDEIROS</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <source>A polêmica da revisão (humana) sobre decisões automatizadas</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>ITS Rio</publisher-name>
                    <day>10</day>
                    <month>12</month>
                    <year>2019</year>
                    <comment>Disponível em <ext-link ext-link-type="uri" xlink:href="https://feed.itsrio.org/a-pol%C3%AAmica-da-revis%C3%A3o-humana-sobre-decis%C3%B5es-automatizadas-a81592886345">https://feed.itsrio.org/a-pol%C3%AAmica-da-revis%C3%A3o-humana-sobre-decis%C3%B5es-automatizadas-a81592886345</ext-link></comment>
                    <date-in-citation content-type="access-date">16 set. 2021</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B55">

                <mixed-citation>TAMÒ-LARRIEUX, A. <bold>Designing for Privacy and its Legal Framework</bold>: Data Protection by Design and Default for the Internet of Things. Cham: Springer, 2018.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TAMÒ-LARRIEUX</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <source><bold>Designing for Privacy and its Legal Framework</bold>: Data Protection by Design and Default for the Internet of Things</source>
                    <publisher-loc>Cham</publisher-loc>
                    <publisher-name>Springer</publisher-name>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B56">

                <mixed-citation>TOBBIN, R. A.; CARDIN, V. S. G. Perfis Informacionais e Publicidade Comportamental: Direito à Autodeterminação Informativa e a Proteção de Dados Pessoais no Ambiente Virtual. <bold>Anais do Congresso Brasileiro de Processo Coletivo e Cidadania</bold>, Ribeirão Preto, n. 8, p. 1260-1276, 12 dez. 2020.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TOBBIN</surname>
                            <given-names>R. A.</given-names>
                        </name>
                        <name>
                            <surname>CARDIN</surname>
                            <given-names>V. S. G.</given-names>
                        </name>
                    </person-group>
                    <conf-name>Perfis Informacionais e Publicidade Comportamental: Direito à Autodeterminação Informativa e a Proteção de Dados Pessoais no Ambiente Virtual</conf-name>
                    <source>Anais do Congresso Brasileiro de Processo Coletivo e Cidadania</source>
                    <conf-loc>Ribeirão Preto</conf-loc>
                    <issue>8</issue>
                    <fpage>1260</fpage>
                    <lpage>1276</lpage>
                    <day>12</day>
                    <month>12</month>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B57">

                <mixed-citation>TOMASSETTI, J. Algorithmic Management, Employment, and the Self in Gig Work. In: DAS ACEVEDO, D. (Org.). <bold>Beyond the Algorithm</bold>: Qualitative Insights for Gig Work Regulation. Cambridge: Cambridge University Press, 2020. p. 123-145.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TOMASSETTI</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Algorithmic Management, Employment, and the Self in Gig Work</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>DAS ACEVEDO</surname>
                            <given-names>D.</given-names>
                        </name>
                    </person-group>
                    <source><bold>Beyond the Algorithm</bold>: Qualitative Insights for Gig Work Regulation</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Cambridge University Press</publisher-name>
                    <year>2020</year>
                    <fpage>123</fpage>
                    <lpage>145</lpage>
                </element-citation>
            </ref>
            <ref id="B58">

                <mixed-citation>TRIBUNAL EUROPEU DE DIREITOS HUMANOS. <bold>I v. Finland (application 20511/03)</bold>. Estrasburgo: Tribunal Europeu de Direitos Humanos, 17 jul. 2008.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>TRIBUNAL EUROPEU DE DIREITOS HUMANOS</collab>
                    </person-group>
                    <source>I v. Finland (application 20511/03)</source>
                    <publisher-loc>Estrasburgo</publisher-loc>
                    <publisher-name>Tribunal Europeu de Direitos Humanos</publisher-name>
                    <day>17</day>
                    <month>07</month>
                    <year>2008</year>
                </element-citation>
            </ref>
            <ref id="B59">

                <mixed-citation>UNIÃO EUROPEIA. <bold>Regulamento (UE) 2016/679</bold> do Parlamento Europeu e do Conselho de 27 de abril de 2016 relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (Texto relevante para efeitos do EEE).</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>UNIÃO EUROPEIA</collab>
                    </person-group>
                    <source>Regulamento (UE) 2016/679</source>
                    <comment>do Parlamento Europeu e do Conselho de 27 de abril de 2016 relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (Texto relevante para efeitos do EEE)</comment>
                    <year>2016</year>
                </element-citation>
            </ref>
            <ref id="B60">

                <mixed-citation>VALE, S. B.; ZANFIR-FORTUNA, G. <bold>Automated Decision-Making Under the GDPR</bold>: Practical Cases from Courts and Data Protection Authorities. Bruxelas: Future of Privacy Forum, 2022.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VALE</surname>
                            <given-names>S. B.</given-names>
                        </name>
                        <name>
                            <surname>ZANFIR-FORTUNA</surname>
                            <given-names>G.</given-names>
                        </name>
                    </person-group>
                    <source><bold>Automated Decision-Making Under the GDPR</bold>: Practical Cases from Courts and Data Protection Authorities</source>
                    <publisher-loc>Bruxelas</publisher-loc>
                    <publisher-name>Future of Privacy Forum</publisher-name>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B61">

                <mixed-citation>VAN BEKKUM, M.; BORGESIUS, F. Z. Using sensitive data to prevent discrimination by artificial intelligence: Does the GDPR need a new exception? <bold>Computer Law &amp; Security Review</bold>, <italic>[S. l.]</italic>, v. 48, 2023.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VAN BEKKUM</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>BORGESIUS</surname>
                            <given-names>F. Z.</given-names>
                        </name>
                    </person-group>
                    <article-title>Using sensitive data to prevent discrimination by artificial intelligence: Does the GDPR need a new exception?</article-title>
                    <source>Computer Law &amp; Security Review</source>
                    <volume>48</volume>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B62">

                <mixed-citation>VEALE, M.; BINNS, R.; AUSLOOS, J. When data protection by design and data subject rights clash. <bold>International Data Privacy Law</bold>, <italic>[S. l.]</italic>, v. 8, n. 2, p. 105-123, 2018.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VEALE</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>BINNS</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>AUSLOOS</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <article-title>When data protection by design and data subject rights clash</article-title>
                    <source>International Data Privacy Law</source>
                    <volume>8</volume>
                    <issue>2</issue>
                    <fpage>105</fpage>
                    <lpage>123</lpage>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B63">

                <mixed-citation>WASHINGTON, A. L. How to argue with an algorithm: Lessons from the Compas-ProPublica debate. <bold>Colorado Technology Law Journal</bold>, Boulder, v. 17, n. 1, p. 131-160, 2018.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WASHINGTON</surname>
                            <given-names>A. L.</given-names>
                        </name>
                    </person-group>
                    <article-title>How to argue with an algorithm: Lessons from the Compas-ProPublica debate</article-title>
                    <source>Colorado Technology Law Journal</source>
                    <publisher-loc>Boulder</publisher-loc>
                    <volume>17</volume>
                    <issue>1</issue>
                    <fpage>131</fpage>
                    <lpage>160</lpage>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B64">

                <mixed-citation>WACHTER, S.; MITTELSTADT, B.; RUSSELL, C. Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI. <bold>Computer Law &amp; Security Review</bold>, <italic>[S. l.]</italic>, v. 41, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WACHTER</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>MITTELSTADT</surname>
                            <given-names>B.</given-names>
                        </name>
                        <name>
                            <surname>RUSSELL</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <article-title>Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI</article-title>
                    <source>Computer Law &amp; Security Review</source>
                    <volume>41</volume>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B65">

                <mixed-citation>WINFIELD, A. F. T. <italic>et al.</italic> IEEE P7001: A Proposed Standard on Transparency. <bold>Frontiers in Robotics and AI</bold>, <italic>[S. l.]</italic>, v. 8, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WINFIELD</surname>
                            <given-names>A. F. T.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>IEEE P7001: A Proposed Standard on Transparency</article-title>
                    <source>Frontiers in Robotics and AI</source>
                    <volume>8</volume>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B66">

                <mixed-citation>WINNER, L. Do Artifacts Have Politics? <bold>Daedalus</bold>, Cambridge (Massachusetts), v. 109, n. 1, p. 121-136, 1980.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WINNER</surname>
                            <given-names>L.</given-names>
                        </name>
                    </person-group>
                    <article-title>Do Artifacts Have Politics?</article-title>
                    <source>Daedalus</source>
                    <publisher-loc>Cambridge (Massachusetts)</publisher-loc>
                    <volume>109</volume>
                    <issue>1</issue>
                    <fpage>121</fpage>
                    <lpage>136</lpage>
                    <year>1980</year>
                </element-citation>
            </ref>
        </ref-list>
    </back>
</article>
