<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">rdp</journal-id>
            <journal-title-group>
                <journal-title>Revista Direito Público</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Rev. Dir. Publico</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2236-1766</issn>
            <publisher>
                <publisher-name>Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.11117/rdp.v22i115.8317</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>Artigos</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>INTERSECÇÕES ENTRE A INTELIGÊNCIA ARTIFICIAL E A PROTEÇÃO DE DADOS NO DIREITO BRASILEIRO<xref ref-type="fn" rid="fn01">1</xref>
                </article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>INTERSECTIONS BETWEEN ARTIFICIAL INTELLIGENCE AND DATA PROTECTION IN BRAZILIAN LAW</trans-title>
                </trans-title-group>
                <trans-title-group xml:lang="es">
                    <trans-title>INTERSECCIONES ENTRE LA INTELIGENCIA ARTIFICIAL Y LA PROTECCIÓN DE DATOS EN EL DERECHO BRASILEÑO</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-4775-7161</contrib-id>
                    <name>
                        <surname>Catalan</surname>
                        <given-names>Marcos</given-names>
                    </name>
                    <role content-type="http://credit.niso.org/contributor-roles/conceptualization">Conceitualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/data-curation">Curadoria de Dados</role>
                    <role content-type="http://credit.niso.org/contributor-roles/formal-analysis">Análise Formal</role>
                    <role content-type="http://credit.niso.org/contributor-roles/funding-acquisition">Aquisição de Financiamento</role>
                    <role content-type="http://credit.niso.org/contributor-roles/investigation">Investigação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/methodology">Metodologia</role>
                    <role content-type="http://credit.niso.org/contributor-roles/project-administration">Administração de Projeto</role>
                    <role content-type="http://credit.niso.org/contributor-roles/software">Programas</role>
                    <role content-type="http://credit.niso.org/contributor-roles/resources">Recursos</role>
                    <role content-type="http://credit.niso.org/contributor-roles/supervision">Supervisão</role>
                    <role content-type="http://credit.niso.org/contributor-roles/validation">Validação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/visualization">Visualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-original-draft">Escrita (rascunho original)</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-review-editing">Escrita (revisão e edição)</role>
                    <xref ref-type="aff" rid="aff01"/>
                    <xref ref-type="corresp" rid="c01"/>
                    <bio>
                        <p>Pesquisador sênior (CNPq). Doutor summa cum laude pela Faculdade do Largo do São Francisco. <italic>Visiting researcher</italic> na <italic>Università degli studi di Parma</italic> (2025-2026). Estágio pós-doutoral na <italic>Facultat de Dret da Universitat de Barcelona</italic> (2015-2016) e no <italic>Mediterranea International Center for Human Rights Research</italic> (2020-2021). <italic>Visiting Scholar</italic> no <italic>Istituto Universitario di Architettura di Venezia</italic> (2015-2016). Cofundador da Rede de Pesquisas Agendas de Direito Civil Constitucional.</p>
                    </bio>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0003-1371-5921</contrib-id>
                    <name>
                        <surname>Ehrhardt</surname>
                        <given-names>Marcos</given-names>
                        <suffix>Junior</suffix>
                    </name>
                    <role content-type="http://credit.niso.org/contributor-roles/conceptualization">Conceitualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/data-curation">Curadoria de Dados</role>
                    <role content-type="http://credit.niso.org/contributor-roles/formal-analysis">Análise Formal</role>
                    <role content-type="http://credit.niso.org/contributor-roles/funding-acquisition">Aquisição de Financiamento</role>
                    <role content-type="http://credit.niso.org/contributor-roles/investigation">Investigação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/methodology">Metodologia</role>
                    <role content-type="http://credit.niso.org/contributor-roles/project-administration">Administração de Projeto</role>
                    <role content-type="http://credit.niso.org/contributor-roles/software">Programas</role>
                    <role content-type="http://credit.niso.org/contributor-roles/resources">Recursos</role>
                    <role content-type="http://credit.niso.org/contributor-roles/supervision">Supervisão</role>
                    <role content-type="http://credit.niso.org/contributor-roles/validation">Validação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/visualization">Visualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-original-draft">Escrita (rascunho original)</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-review-editing">Escrita (revisão e edição)</role>
                    <xref ref-type="aff" rid="aff02"/>
                    <xref ref-type="aff" rid="aff04"/>
                    <xref ref-type="corresp" rid="c02"/>
                    <bio>
                        <p>Doutor em Direito pela Universidade Federal de Pernambuco. Professor de Direito Civil dos cursos de mestrado e graduação da Universidade Federal de Alagoas e do Centro Universitário Cesmac. Editor da Revista Fórum de Direito Civil. Cofundador da Rede de Pesquisas Agendas de Direito Civil Constitucional.</p>
                    </bio>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-8570-2890</contrib-id>
                    <name>
                        <surname>Busatta</surname>
                        <given-names>Eduardo Luiz</given-names>
                    </name>
                    <role content-type="http://credit.niso.org/contributor-roles/conceptualization">Conceitualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/data-curation">Curadoria de Dados</role>
                    <role content-type="http://credit.niso.org/contributor-roles/formal-analysis">Análise Formal</role>
                    <role content-type="http://credit.niso.org/contributor-roles/funding-acquisition">Aquisição de Financiamento</role>
                    <role content-type="http://credit.niso.org/contributor-roles/investigation">Investigação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/methodology">Metodologia</role>
                    <role content-type="http://credit.niso.org/contributor-roles/project-administration">Administração de Projeto</role>
                    <role content-type="http://credit.niso.org/contributor-roles/software">Programas</role>
                    <role content-type="http://credit.niso.org/contributor-roles/resources">Recursos</role>
                    <role content-type="http://credit.niso.org/contributor-roles/supervision">Supervisão</role>
                    <role content-type="http://credit.niso.org/contributor-roles/validation">Validação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/visualization">Visualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-original-draft">Escrita (rascunho original)</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-review-editing">Escrita (revisão e edição)</role>
                    <xref ref-type="aff" rid="aff03"/>
                    <xref ref-type="corresp" rid="c03"/>
                    <bio>
                        <p>Doutor em Direito Público pelo Programa de Pós-Graduação em Direito da Universidade do Vale do Rio dos Sinos. Mestre em Direito Negocial pela Universidade Estadual de Londrina. Professor da Universidade Estadual do Oeste do Paraná. Procurador do Estado do Paraná.</p>
                    </bio>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <institution content-type="orgname">Rede Agendas de Direito Civil Constitucional</institution>
                <addr-line>
                    <city>Porto Alegre</city>
                    <state>RS</state>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Rede Agendas de Direito Civil Constitucional. Porto Alegre/RS. Brasil.</institution>
            </aff>
            <aff id="aff02">
                <institution content-type="orgname">Universidade Federal de Alagoas</institution>
                <addr-line>
                    <city>Maceió</city>
                    <state>AL</state>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Universidade Federal de Alagoas (UFAL) e Centro Universitário Cesmac. Maceió/AL. Brasil.</institution>
            </aff>
            <aff id="aff04">
                <institution content-type="orgname">Centro Universitário Cesmac</institution>
            </aff>
            <aff id="aff03">
                <institution content-type="orgname">Universidade Estadual do Oeste do Paraná</institution>
                <addr-line>
                    <city>Cascavel</city>
                    <state>PR</state>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Universidade Estadual do Oeste do Paraná (UNIOESTE). Cascavel/PR. Brasil</institution>
            </aff>
            <author-notes>
                <corresp id="c01">E-mail: <email>marcoscatalan@uol.com.br</email>
                </corresp>
                <corresp id="c02">E-mail: <email>marcosehrhardtjr@uol.com.br</email>
                </corresp>
                <corresp id="c03">E-mail: <email>elbusatta@gmail.com</email>
                </corresp>
                <fn fn-type="edited-by">
                    <label>Corpo Editorial:</label>
                    <p>Editor-Chefe: J.P.B</p>
                    <p>Editora-Adjunta: L.S.G</p>
                    <p>Editora Associada: L.S.G.</p>
                    <p>Pareceristas: 3</p>
                </fn>
            </author-notes>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2026</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <year>2025</year>
            </pub-date>
            <volume>22</volume>
            <issue>115</issue>
            <elocation-id>e8317</elocation-id>
            <history>
                <date date-type="received">
                    <day>11</day>
                    <month>03</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>11</day>
                    <month>03</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>11</day>
                    <month>03</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>22</day>
                    <month>07</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>01</day>
                    <month>08</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>05</day>
                    <month>09</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>23</day>
                    <month>09</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>25</day>
                    <month>11</month>
                    <year>2025</year>
                </date>
                <date date-type="accepted">
                    <day>16</day>
                    <month>12</month>
                    <year>2025</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution Non-Commercial</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais e que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMO</title>
                <p>Este artigo tem como pano de fundo algumas das inafastáveis intersecções havidas entre a <italic>inteligência artificial</italic> e os dados pessoais dos quais ela se alimenta, tendo como objetivo primário avaliar se o Direito brasileiro é apto a tutelar, considerado o atual estágio da técnica, os titulares de dados pessoais tratados cotidianamente. Ao ser alinhavado sob os influxos da crítica metodológica, da imaginação jus-sociológica e do método exploratório, a pesquisa permitiu inferir que uma hermenêutica sistêmica pautada pela fundamentalidade do direito à proteção de dados pessoais, o direito subjetivo a inferências razoáveis e a imperiosidade de tratamento de dados inferidos, a autorização inequívoca do titular para o treinamento de algoritmos de inteligência artificial e, ainda, a modulação dos deveres impostos aos agentes de tratamento, tendo em vista a natureza, escala, sensibilidade e eventuais danos havidos nesse processo, são fundamentais à adequada tutela da pessoa humana.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>This article explores some of the undeniable intersections between artificial intelligence and the personal data on which it feeds, with the aim of investigating whether Brazilian law, considering the current stage of the technique, can adequately protect the holders of personal data processed daily, considering the current stage of the technique. Aligned under the influences of methodological criticism, jus-sociological imagination and the exploratory method, the research allowed to infer that a systemic hermeneutics based on the fundamentality of the right to protection of personal data, the subjective right to reasonable inferences and the imperativeness of processing inferred data, the unequivocal authorization of the holder for the training of artificial intelligence algorithms and the modulation of duties imposed on processing agents taking into account the nature, scale, sensitivity and possible damages that may arise from the processing of personal data are fundamental to the adequate protection of the human person.</p>
            </trans-abstract>
            <trans-abstract xml:lang="es">
                <title>RESUMEN</title>
                <p>Este artículo explota algunas intersecciones entre la inteligencia artificial y los datos personales de los que se alimenta, con el objetivo principal de evaluar si la legislación brasileña es capaz de proteger, considerando el estado actual de la técnica, a los titulares de datos personales tratados diariamente. Al estar alineada bajo las influencias de la crítica metodológica, de la imaginación jussociológica y del método exploratorio, la investigación permitió inferir la relevancia de una hermenéutica sistémica guiada por la fundamentalidad del derecho a la protección de datos personales, la existencia de un derecho subjetivo a inferencias razonables, ser imperativo el procesamiento de los datos inferidos, ser necesaria la autorización inequívoca del titular para el entrenamiento de algoritmos de inteligencia artificial y, también, la necesidad de modulación de los deberes impuestos a los agentes procesadores, teniendo en cuenta la naturaleza, la escala, la sensibilidad y los posibles daños causados en este proceso, premisas fundamentales a la adecuada protección de la persona humana.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>PALAVRAS-CHAVE</title>
                <kwd>Inteligência artificial</kwd>
                <kwd>Dados pessoais</kwd>
                <kwd>Transformações das Relações Privadas</kwd>
                <kwd>Direito e tecnologia</kwd>
                <kwd>Lei Geral de Proteção de Dados Pessoais</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>KEYWORDS</title>
                <kwd>Artificial Intelligence</kwd>
                <kwd>Personal Data</kwd>
                <kwd>Transformations of Private Relations</kwd>
                <kwd>Law and Technology</kwd>
                <kwd>General Data Protection Act</kwd>
            </kwd-group>
            <kwd-group xml:lang="es">
                <title>PALABRAS CLAVE</title>
                <kwd>Inteligencia artificial</kwd>
                <kwd>Datos personales</kwd>
                <kwd>Transformaciones de las Relaciones Privadas</kwd>
                <kwd>Derecho y tecnología</kwd>
                <kwd>Ley General de Protección de Datos Personales</kwd>
            </kwd-group>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>Breves notas a título de introito</title>
            <p>O crescente recurso a tecnologias dependentes da <italic>inteligência artificial</italic> inegavelmente tem impactado a vida humana. O acesso à saúde, o mercado financeiro, a educação, a segurança pública e privada, o entretenimento e o turismo, bem como o <italic>e-commerce</italic>, emergem como campos nos quais essa interação parece ser mais evidente, ladeados pelo inconteste e incontrolável processo de automação da indústria e, mais recentemente, do setor de serviços.</p>
            <p>A <italic>literal</italic> revolução em curso carreia consigo uma miríade de questões inquietantes, entre elas as que procuram identificar a adequação do Direito brasileiro ao cenário fenomênico hodierno e, ainda, a sua capacidade de lidar com os desafios inerentes às mutações no modo de vida em sociedade, mormente quando se antevê o surgimento de tecnologias generativas, de processos de tomada de decisão sem controle humano, e ainda, de <italic>caixas-pretas</italic> guardando segredos sob o argumento de que é imperiosa a proteção da propriedade industrial.</p>
            <p>Atualmente, parece difícil negar que a ausência de regulação específica da <italic>inteligência artificial</italic> no Brasil potencializa os riscos inerentes ao avanço da técnica, uma vez que além de explorar vulnerabilidades humanas, elas têm o condão de exponenciar heurísticas e vieses concretamente identificados, amplificar a desigualdade social tão conhecida nos países latino-americanos e, ainda, fomentar processos altamente discriminatórios, tudo isso redundando na violação de inúmeros direitos civis.</p>
            <p>Exemplos notórios incluem algoritmos de reconhecimento facial que segregam pessoas com amparo em traços raciais, étnicos ou de gênero, ou, ainda, algoritmos que negam, à margem da lei, o acesso ao crédito, à educação ou à saúde (<xref ref-type="bibr" rid="B35">VÉLIZ, 2020</xref> e <xref ref-type="bibr" rid="B34">2021</xref>). Tais escolhas, longe de serem simples falhas técnicas – já que notadamente enviesadas –, espelham a complexidade ética e normativa que aflora na delegação, às máquinas, da tomada de decisões que impactam a vida humana.</p>
            <p>Paralelamente, a opacidade fundida a distintos aparatos que recorrem à <italic>inteligência artificial</italic>, exatamente por conta da névoa que intencionalmente envolve seus complexos fluxogramas de funcionamento, dificulta o fomento e a adoção de ações preventivas e, quando necessária, a responsabilização dos lesantes, pilares fundamentais em qualquer sistema jurídico que se afirme democrático, afinal, a impossibilidade de compreender aspectos afetos a <italic>como</italic> e <italic>por que</italic> uma decisão foi tomada, além de afrontar a normatividade pulsante do princípio da transparência, mina a confiança imperiosa à vida em sociedade.</p>
            <p>É impossível não perceber, então, o paradoxo havido na identificação de que enquanto os projetos arquitetônicos de <italic>sites</italic> e outros espaços projetados visando à sedução dos consumidores – e, de forma cada vez mais frequente, a modulação do comportamento humano (<xref ref-type="bibr" rid="B07">DELEUZE, 2008</xref>; <xref ref-type="bibr" rid="B03">CASSINO, 2021</xref>; <xref ref-type="bibr" rid="B06">DARMODY, ZWICK, 2020</xref>; <xref ref-type="bibr" rid="B17">HUR, 2018</xref>; <xref ref-type="bibr" rid="B31">SILVEIRA, 2017</xref>) – são protegidos a sete chaves, a privacidade e a intimidade são desnudadas (<xref ref-type="bibr" rid="B22">LACE, 2005</xref>; <xref ref-type="bibr" rid="B30">SIBILIA, 2008</xref>; <xref ref-type="bibr" rid="B35">VÉLIZ, 2020</xref>), comercializadas e consumidas sem qualquer pudor, até porque o excesso de informação disponível na <italic>Internet,</italic> em vez de projetar alguma luz na escuridão (<xref ref-type="bibr" rid="B15">HAN, 2017</xref>), tem intensidade suficiente para ofuscar mesmo os olhares mais críticos.</p>
            <p>No mais, a escorreita compreensão das possibilidades deletérias imanentes ao avanço da técnica – moldura que, obviamente, não esgota o universo de preocupações envolvendo os efeitos pernósticos concretamente projetados desde a <italic>inteligência artificial</italic> (<xref ref-type="bibr" rid="B09">EHRHARDT JUNIOR, CATALAN, NUNES, 2023<italic>,</italic></xref> tampouco as inúmeras vantagens que carreia consigo – redunda na conclusão de que a esperada regulação do tema, no Brasil, não deverá limitar-se a tratar a reparação, nem a fomentar o dueto prevenção e precaução.</p>
            <p>Será preciso garantir que a inovação tecnológica se dê de forma a respeitar a promessa de vidas dignas levada a cabo em 1988, bem como os direitos fundamentais gestados na normatividade identificada no acoplamento da liberdade com a igualdade substancial e a solidariedade social, sem ignorar, ademais, o valor social da livreiniciativa.</p>
            <p>Não se pode ignorar a existência de estreita relação entre a regulação aguardada e a legislação erigida, visando à tutela de dados pessoais no Brasil, tema que ganhou destaque nos últimos anos com a promulgação da Lei Geral de Proteção de Dados, importante marco na proteção do direito à privacidade e à segurança da informação. Isso se deve, em especial, ao sucesso dos sistemas impulsionados pela <italic>inteligência artificial,</italic> que depende, em grande medida, da coleta, tratamento e processamento massivo de dados.</p>
            <p>É possível frisar que no contexto brasileiro, na ausência de legislação específica sobre o assunto, tem-se defendido que a Lei Geral de Proteção de Dados deve servir como baliza normativa a impor obrigações quando sistemas automatizados forem alimentados por dados pessoais, de modo a evitar práticas que comprometam tanto a privacidade como outros direitos atribuídos aos titulares dos dados tratados. Uma vez identificada a violação, cumpre sancionar as condutas normativamente qualificadas como reprováveis (<xref ref-type="bibr" rid="B01">BUSATTA, 2024</xref>).</p>
            <p>Nesse diapasão, a regulação da <italic>inteligência artificial</italic> deve buscar complementar o quadro normativo existente no Brasil, garantindo que a inovação tecnológica se oriente por limites éticos matizados por vieses não utilitaristas e, ainda, pela imperiosa e inegociável tutela de toda pessoa humana.</p>
            <p>É verdade que referida perspectiva não resta imune às críticas daqueles que temem que a regulação excessiva obste que as potencialidades imanentes à <italic>inteligência artificial</italic> possam ser plenamente exploradas em benefício da sociedade (<xref ref-type="bibr" rid="B08">DOMINGOS, 2015</xref>). Tais preocupações, entretanto, parecem não resistir à imperiosidade de diálogo entre as muitas fontes a serem usadas na construção das respostas normativas esperadas no tratamento da matéria, um diálogo que deverá inexoravelmente ter como atrator o equilíbrio entre o aguardado e, até mesmo, bem-vindo desenvolvimento tecnológico e a inafastável proteção das muitas vulnerabilidades humanas. Outro não parece ser o caminho indicado pela Constituição Federal vigente desde 1988.</p>
            <p>A discussão sobre a regulação da <italic>inteligência artificial</italic>, ao menos à primeira vista, parece transbordar a simples adaptação da legislação existente no país, requerendo a revisão semântica de <italic>signos</italic> como responsabilidade, privacidade, segurança e autonomia, à luz das possibilidades afetas às tecnologias disruptivas gestadas na Revolução Digital e, ainda, das muitas angústias fundidas ao modelo de racionalidade que informa os contornos dados pela Modernidade à autonomia privada e ao seu consequente lógico, a <italic>pacta sunt servanda</italic>.</p>
            <p>Sem descurar as lições assentadas nos parágrafos precedentes, a abordagem regulatória expectada no futuro próximo deverá ser também colorida com tons pinçados dos princípios abstratamente aplicáveis às distintas tecnologias, atentando, especialmente, às especificidades de cada mecanismo, técnica ou mercado concretamente mapeado e, sobretudo, à interdependência que permeia a inovação e a proteção dos muitos direitos consagrados nas searas constitucional e infraconstitucional, mesmo que esses, recorrentemente, demandem um melhor detalhamento de sua posologia normativa abstratamente prevista na legislação e, por que não, em suas manifestações nos meandros da <italic>law in movement</italic>.</p>
            <p>No mais, antes que este breve introito alcance o seu fim, é preciso anotar que as reflexões que vivificam essa pesquisa foram intencionalmente grafadas sob os influxos da crítica metodológica (<xref ref-type="bibr" rid="B14">GUSTIN, DIAS, 2013</xref>) e da imaginação jus-sociológica (<xref ref-type="bibr" rid="B18">JACOBSEN, TESTER, 2015</xref>), escolhas científica e literária conscientemente incorporadas ao texto. O método utilizado tem viés exploratório, legitimando a pesquisa a tatear elementos ocultos nas sombras do porvir.</p>
            <sec>
                <title>Dados pessoais alimentam a <italic>inteligência artificial</italic>: um horizonte de preocupações</title>
                <p>Antes de seguir a trilha antecipada, parece ser oportuna a formulação de um acordo semântico acerca do que vem a ser a <italic>inteligência artificial</italic>, afinal, se de um lado, pensamento e inteligência são características que diferenciam a humanidade de outras espécies, de outro, a alteridade é uma marca indelével em cada pessoa, um acordo que pressupõe perceber que o intelecto do <italic>Homo sapiens</italic> serviu como chave ao incremento de habilidades cognitivas extremamente avançadas, como a linguagem, o raciocínio abstrato, a capacidade de resolução de problemas complexos e a criatividade.</p>
                <p>É aparentemente inquestionável a constatação de que a aptidão à crítica e ao raciocínio analítico permitiu ao ser humano melhor compreender o mundo, questionar o conteúdo de crenças e tradições e, ainda, lapidar explicações teóricas para fenômenos naturais e artificiais, dado que reforça a explicação de porque a expressão <italic>Homo sapiens</italic> foi eleita como o nome científico para designar toda a espécie humana, afinal. É que o adjetivo <italic>sapiens</italic> enaltece a inteligência como traço definidor da espécie, característica crucial à adaptação e sobrevivência em diferentes ambientes, à criação de ferramentas, à comunicação e, no limite, à própria vida em sociedade.</p>
                <p>A inteligência, então, é um atributo humano, talvez exclusivamente humano, algo apenas simulado em sistemas autônomos impulsionados pelo que se convencionou denominar <italic>inteligência artificial</italic>. Sublinhe-se, todavia, que mesmo não sendo escorreita, a expressão foi mantida ao longo do texto, visando a evitar desnecessários desacordos semânticos.</p>
                <p>Anote-se, então, de modo a permitir que o texto flua, que a <italic>inteligência artificial</italic> reflete nada mais que a aptidão de um sistema cibernético para <italic>copiar</italic>, <italic>imitar</italic> ou <italic>emular</italic> funções cognitivas humanas, identificando e resolvendo problemas de modo autônomo e absorvendo a experiência adquirida (<xref ref-type="bibr" rid="B12">FÜRST, BÜRGUER, 2023</xref>) de modo a dar-lhe uso prático. De forma muito simplificada, ela consiste na simulação de processos cognitivos visando à solução de questões com distintos graus de complexidade (<xref ref-type="bibr" rid="B19">JESUS DIÁZ, CORDÓN GARCIA, HERRERA, 2022</xref>).</p>
                <p>Tema candente há mais de meio século, curiosamente, são diversas as aproximações mapeadas na literatura entre <italic>ela</italic> e a racionalidade humana. Em termos gerais, há alusões ao fato de que as máquinas tentam pensar como humanos, tomar decisões fundadas em idêntica racionalidade, agir racionalmente ou, ainda, atuar como se fossem seres de carne de osso (<xref ref-type="bibr" rid="B27">RUSSELL, NORVIG, 2010</xref>). Mesmo que se escolha qualquer outra moldura envolvendo a ideia, resta patente que, ao menos metaforicamente, o coração que impulsiona tais máquinas tem em sua composição algoritmo(s) desenhado(s) por seres humanos com propósitos práticos no intuito de dar conta de problemas da vida mundana cotidiana (<xref ref-type="bibr" rid="B29">SAUX, 2023</xref>).</p>
                <p>Sem diminuir sua importância, mais que mero atributo de mecanismos autossuficientes, a <italic>inteligência artificial</italic> é o elemento cardeal que lhes garante essa qualificação ao permitir-lhes desempenhar as funções para as quais foram projetados sem nenhuma forma de controle ou intervenção humana direta. Sozinhos, com amparo nos dados que estão ao seu alcance, tais algoritmos elegerão os caminhos que lhes pareçam mais escorreitos e, quando oportuno, adaptarão sua configuração às exigências do ambiente que os envolve (<xref ref-type="bibr" rid="B16">HANSEN BECK, BERNARDES, 2023</xref>).</p>
                <p>Ocorre que, como a <italic>inteligência artificial</italic> busca emular a inteligência humana em aspectos específicos, principalmente naqueles relacionados ao processamento de informações, reconhecimento de padrões, tomada de decisões visando à solução de problemas, nota-se que ela precisa conhecer o comportamento humano, o que exige que se alimente de dados, de uma imensa quantidade de dados.</p>
                <p>No que toca à sua operação, é igualmente factível antecipar que agentes autônomos estarão cada vez mais presentes no cotidiano da vida em sociedade, impulsionando a realização de tarefas repetitivas e, ainda, facilitando a interação das pessoas com distintas máquinas dotadas de interfaces como assistentes virtuais, sistemas de reconhecimento de voz e imagem, ou mesmo, em um futuro cada vez mais próximo, com a tecnologia ciborgue ou os muitos metaversos antecipados nas narrativas contemporâneas.</p>
                <p>O processo de automação, interação e aceitação social da <italic>inteligência artificial</italic> inegavelmente aumentará a produtividade e eficiência em diversas atividades, revolucionando áreas como a Medicina – com o desenvolvimento de sistemas de diagnóstico mais precisos, tratamentos personalizados ou cirurgias robóticas –, a Indústria – com a otimização de processos de produção e logística – e, ainda, as Ciências – possibilitando avanços em pesquisas e descobertas de novos processos, técnicas etc. –, ainda que, como exposto, provavelmente seguirá sendo incapaz de replicar, por inteiro, toda a complexidade fundida à inteligência e à sagacidade humanas.</p>
                <p>É preciso atentar ainda ao fato de que um algoritmo pode analisar padrões e preferências com base em dados pessoais para fornecer recomendações e experiências personalizadas, prática utilizada em plataformas de <italic>streaming</italic>, comércio eletrônico e publicidade <italic>online</italic>, além de, obviamente, ser o coração das redes sociais.</p>
                <p>O cenário hodierno vê, assim, interações digitais transformadas em perfis detalhados que mapeiam tendências, preferências, desejos e, certamente, vulnerabilidades humanas, algo que interessa sobremodo aos grandes <italic>players</italic> do ramo da tecnologia. Cada clique, e até mesmo a quantidade de atenção dedicada a determinado conteúdo exposto em um <italic>site</italic> ou aplicativo, é registrado e tratado, viabilizando a criação de perfis detalhados dos usuários, bem como o recurso a estratégias sofisticadas de modulação comportamental (<xref ref-type="bibr" rid="B36">VERBICARO, HOMCI, 2024</xref>). A tecnologia hodiernamente existente é tão avançada que consegue identificar a parte da tela – do computador, do <italic>tablet</italic> ou mesmo do telefone celular – que fisgou a atenção do usuário ao mapear a direção do olhar preso às imagens pulsantes na superfície do écran.</p>
                <p>Se há algum acerto na afirmação de que os dados impulsionam a economia digital como o petróleo impulsionou a Segunda Revolução Industrial – metáfora que peca por ignorar o fato de que o petróleo é um bem finito –, não se pode ignorar que nesse ambiente a <italic>inteligência artificial</italic> atuaria como uma refinaria a processar o óleo bruto, visando gerar valor econômico. Assim, da mesma forma que refinarias transformam o petróleo em diversos produtos refinados como a gasolina e o diesel, aquela obtém informações significativas e <italic>insights</italic> acionáveis a partir de dados em estado bruto.</p>
                <p>Este processo alimenta-se da exploração de heurísticas e vieses cognitivo-comportamentais de forma perigosamente individualizada, emergindo como um risco ao exercício de liberdades positivas, pois, provavelmente, mais que influenciar de forma genérica decisões pessoais nos cenários forjados na Sociedade de Consumo, literalmente, modula a conduta humana ao desprezar o fato de que “a liberdade de escolha não se resume à ausência de coerção, pressupondo o acesso a informações claras, precisas, adequadas e suficientes sobre os produtos e serviços adquiridos, o esclarecimento do consumidor acerca das características, riscos e benefícios concretos daquilo que lhe é ofertado e, ainda, a ausência de modulação, intencional, de quaisquer atos de consumo” (<xref ref-type="bibr" rid="B02">CARTA DE BELÉM DO PARÁ, 2024.</xref>).</p>
                <p>Sublinhe-se que aspectos como o <italic>frequently bought together</italic> e as recomendações de produtos são exemplos clássicos de como os algoritmos podem direcionar as escolhas dos usuários de maneira quase imperceptível (<xref ref-type="bibr" rid="B05">CRUZ, 2021</xref>), a despeito de se alimentarem de seu rastro digital. A mesma preocupação é identificada quando alimentam artificialmente a escassez por meio ofertas limitadas no tempo, cuidadosamente apresentadas visando maximizar a adesão dos consumidores (<xref ref-type="bibr" rid="B28">SANTOS, 2022</xref>) mediante recurso ao <italic>fear of missing out</italic>.</p>
                <p>De outro lado, a personalização excessiva construiu câmaras de eco nas quais as escolhas de cada usuário são continuamente reforçadas por meio de sugestões baseadas em suas atividades anteriores, limitando a exposição a novas ideias e perspectivas (<xref ref-type="bibr" rid="B39">WOLFGANG, 2022</xref>), castrando, portanto, a liberdade humana. O pantagruélico apetite do mercado cresce a cada vantagem comercial (<xref ref-type="bibr" rid="B41">ZUBOFF, 2020</xref>) que consegue identificar, mesmo quando muitas delas tenham brotado em pastos semeados sob solo sagrado.</p>
                <p>Ocorre que a normalização da dependência dos algoritmos guiando escolhas diárias, ladeada pela homogeneização e segregação de informações, pelo fomento ao preconceito e pela discriminação, estimula a formulação de questões que buscam saber não apenas quem controla os algoritmos ou quais são seus verdadeiros propósitos, mas, especialmente, quais os limites éticos e normativos de sua influência sobre as vidas humanas (<xref ref-type="bibr" rid="B39">WOLFGANG, 2022</xref>; <xref ref-type="bibr" rid="B33">SUSSER, ROESSLER, NISSENBAUM, 2019</xref>).</p>
                <p>Não se olvida que a <italic>inteligência artificial</italic> pode ser uma importante ferramenta a serviço da humanidade. O ponto é que ela se alimenta de dados pessoais ante a constante necessidade de treinamento e compreensão do mundo: aprendizado de máquina, computação em nuvem, <italic>big data</italic> e internet das coisas são tecnologias fortemente ligadas à coleta do rastro digital deixado pelas pessoas, problema que cresce exponencialmente com o advento da versão generativa da <italic>inteligência artificial</italic> baseada em grandes modelos de linguagem e, portanto, que opera predominantemente com dados extraídos da <italic>Internet,</italic> mediante processo conhecido como <italic>raspagem</italic> (<xref ref-type="bibr" rid="B21">KING, MEINHARDT</xref>)<italic>,</italic> o que dificulta ainda mais o controle desse processo, pois nem sequer é possível identificar os atores sociais ligados a referidas ações.</p>
            </sec>
        </sec>
        <sec>
            <title>Um brevíssimo diálogo entre o Norte e o Sul: sobre leis destinadas a regrar a <italic>inteligência artificial</italic> e a promover a proteção de dados pessoais</title>
            <p>Demonstrada a íntima relação entre <italic>inteligência artificial</italic> e dados pessoais, é indubitável que as leis que visam à proteção de dados serão aplicadas quando aquela os utilize mesmo na hipótese de treinamento, afinal, tais leis regulamentam o tratamento de dados pessoais, independentemente do método ou da finalidade inerente ao uso (<xref ref-type="bibr" rid="B38">WINAU, 2023</xref>).</p>
            <p>Na hipótese, em um primeiro momento, duas são as possíveis consequências: (a) caso exista, em determinado sistema jurídico, uma lei específica regulando a <italic>inteligência artificial</italic> e outra cuidando dos dados pessoais, haverá a necessidade de aplicação sistemática de referidas leis; por outro lado, (b) na ausência de lei regulamentando pontualmente a <italic>inteligência artificial</italic> – como sói ocorrer, atualmente, no Brasil –, não haverá vácuo normativo quando a tecnologia for utilizada para o tratamento de dados pessoais, pois a legislação correlata será aplicada.</p>
            <p>A União Europeia, ao que tudo indica, escolheu trilhar a primeira via, com a aprovação do Regulamento Europeu sobre <italic>inteligência artificial</italic>. A evidente sobreposição dos cenários normativos foi reconhecida pelo legislador europeu, que recorreu à expressão “dados pessoais” em aproximadamente oitenta ocasiões (PARLAMENTO EUROPEU), sendo inegável que a concretização do Regulamento Europeu destinado ao regramento do assunto enfrentará dificuldades devido a possíveis conflitos com o Regulamento Geral de Proteção de Dados (GDPR).</p>
            <p>Consoante leciona Mona Winau, o principal desafio parece estar atado ao fato de que enquanto o Regulamento Europeu destinado ao tratamento do tema busca estabelecer normas técnicas gerais para sistemas de <italic>inteligência artificial</italic> complexos e em constante evolução, o Regulamento Geral de Proteção de Dados aborda questões de proteção de dados de forma mais contextual, o que sugere que a conciliação de abordagens tão diferentes pode exigir a redução do nível de abstração identificado no primeiro, a fim de acomodar a avaliação caso a caso exigida no segundo diploma normativo para determinadas questões (<xref ref-type="bibr" rid="B38">WINAU, 2023</xref>).</p>
            <p>De outra banda, como antecipado, o Brasil se enquadra no segundo grupo de casos. Ao menos por ora, inexiste no país um diploma legislativo que se dedique à regulação da <italic>inteligência artificial</italic>.</p>
            <p>Em verdade, a proposta em trâmite no Congresso Nacional, por uma série de razões, não parece ter tração suficiente para que, no curto ou médio prazo, venha a se transformar em lei, o que avulta a importância de buscar uma gramática de proteção de dados pessoais que tenha em conta as especificidades da <italic>inteligência artificial,</italic> de modo a fazer frente aos desafios colossais existentes na contemporaneidade. Não se pode olvidar, ademais, que ao menos de modo pontual, o Anteprojeto de Código Civil também poderá impactar o regramento do assunto.</p>
            <sec>
                <title>A proteção de dados pessoais ante o avanço da técnica: uma hermenêutica possível</title>
                <p>A inafastável aplicação das leis de proteção de dados pessoais, nas ocasiões em que estes são tratados por meio de técnicas de <italic>inteligência artificial</italic>, é algo tão óbvio que defendê-lo não passaria de uma trivialidade desnecessária. De outra banda, é imprescindível sublinhar a imperiosidade da construção de uma sólida hermenêutica jurídica, de modo a fornecer as chaves de leitura necessárias para que as leis de proteção de dados cumpram seu papel em contextos tecnológicos deveras desafiadores, porquanto o universo da <italic>inteligência artificial</italic> usualmente envolve situações marcadas pelo ineditismo.</p>
                <p>É preciso, então, definir como os princípios e as demais balizas normativas previstas na legislação responsável pela proteção de dados no Brasil devem ser aplicados concretamente nos casos que envolvem a <italic>inteligência artificial</italic>, razão pela qual, sem descurar a relevância da adaptação de todas as regras da Lei Geral de Proteção de Dados ao contexto fenomênico que alimenta as reflexões alinhavadas neste texto, este estudo enfatiza cinco vetores hermenêuticos considerados essenciais à concretização do direito fundamental à proteção de dados.</p>
                <p>Tais vetores – ou atratores normativos, não parece equivocado afirmar – abordam questões críticas, atuando como forças orientadoras ou como vias interpretativas robustas, direcionadas a um objetivo específico: a ampla tutela da pessoa humana.</p>
                <p>Os signos <italic>vetor</italic> ou <italic>atrator</italic>, intencionalmente pinçados no vernáculo, procuram cinzelar o dinamismo, a intencionalidade e a capacidade de impulsionar um movimento e, ainda, sublinhar que muito além das usuais abstrações dogmáticas tão caras ao direito civil clássico, atuam como vias aptas a conduzir à efetivação do direito à proteção de dados – <italic>também</italic> – em suas intersecções com a <italic>inteligência artificial</italic>.</p>
                <p>Mais que isso, tem-se que cada um dos pontos destacados nesta investigação emerge como medida, requisito ou diretriz normativa necessária para que o direito à proteção de dados seja assegurado no contexto específico do desenvolvimento e uso da <italic>inteligência artificial</italic>.</p>
                <p>Ainda: cada proposição há de atuar como um vetor que, aliado aos demais, implique uma resultante robusta na proteção de dados em ambientes envoltos pela tecnologia emergente no século XXI, pois, como salienta Morin, o todo é maior que a simples soma das partes (<xref ref-type="bibr" rid="B23">MORIN, 2003</xref>).</p>
                <p>Dito isso, cabe salientar que o primeiro entre os vetores sobrelevados pode ser identificado no <italic>direito fundamental à proteção de dados pessoais</italic>, previsto na Constituição e esmiuçado no regramento estabelecido na Lei Geral de Proteção de Dados. Ressalte-se a necessidade de novo acordo semântico envolvendo os <italic>princípios</italic> previstos na Lei 13.709/2018, terminologia mantida a despeito das dúvidas acerca do acerto no recurso ao retrocitado signo linguístico.</p>
                <p>Embora a Constituição não especifique salvaguardas detalhadas ao tratar desse direito, a lei referida traz, em seu artigo 6º, dez <italic>princípios</italic> basilares que formam a “coluna vertebral” na proteção de dados pessoais no Brasil. Referidos <italic>princípios</italic>, entre os quais se destacam a finalidade e a adequação, a necessidade, o livre acesso e a transparência, sintetizam a lógica, a função e os aspectos mais relevantes na estruturação de referido direito fundamental. Boa parte da apontada lei densifica os meios de aplicação dessas premissas legais.</p>
                <p>Ato contínuo, tendo em vista a ausência de diretrizes constitucionais específicas, é correto defender que tais <italic>princípios</italic> passam a integrar o conteúdo constitucional do direito à proteção de dados, formando um bloco de constitucionalidade (<xref ref-type="bibr" rid="B04">COELHO, 1994</xref>), a representar as salvaguardas constitucionalmente adequadas à efetivação do direito pautado por estas reflexões. De fato, representam o que há de mais legítimo e atual na proteção de dados pessoais, mesmo que estejam aquém do que se encontra previsto no Regulamento Geral de Proteção de Dados da União Europeia, bem como do progressivo desenvolvimento do tema no continente europeu.</p>
                <p>Desse modo, parece ser perfeitamente defensável que, embora não estejam literalmente tracejados na Constituição, os <italic>princípios</italic> elencados na Lei Geral de Proteção de Dados absorvem conteúdo materialmente constitucional, dando forma ao coração desse direito que, se ferido, não terá como alimentar com a energia necessária a complexa estrutura pensada para a proteção de dados pessoais no Brasil.</p>
                <p>Em síntese, é possível afirmar que o direito fundamental à proteção de dados pessoais forjado no país ganhou vida com a existência e a eficácia dos <italic>princípios</italic> previstos no artigo 6º da Lei Geral de Proteção de Dados, vetores que devem ser interpretados sistematicamente com a Constituição por meio de um “círculo hermenêutico<sup>”</sup><xref ref-type="fn" rid="fn05">5</xref> apto a dar-lhe concretude e legitimidade mediante parâmetros orientadores de sua interpretação e aplicação.</p>
                <p>O retrocitado vetor normativo tem como principal relevância prática, além de permitir maior refinamento e concretização do direito fundamental à proteção de dados pessoais, tornar os princípios constantes da Lei Geral de Proteção de Dados aplicáveis às relações que, em princípio, seriam refratárias às soluções oferecidas por referida lei. De fato, a LGPD não é aplicável no tratamento de diversos dados pessoais, conforme expressa disposição do Art. 4°.</p>
                <p>A aporia aparente pode ser transposta quando se vislumbra que o tratamento de dados pessoais <italic>imunes</italic> à LGPD é matizado pelo direito fundamental à proteção de dados pessoais. Assim, ao integrar os referidos <italic>princípios</italic> ao conteúdo material do direito fundamental à proteção de dados pessoais, identifica-se um claro aumento do espectro de proteção dos titulares de dados pessoais sujeitos àqueles tratamentos.</p>
                <p>O segundo atrator tem como pano de fundo a noção de cadeia de dados. Em síntese, há dados mais importantes que outros, embora dados considerados inferiores permitam a derivação, a inferência ou a construção de dados superiores – estes últimos, muito mais relevantes para os fins que motivam o seu tratamento no contexto do sistema econômico capitalista.</p>
                <p>Nesse cenário, os dados de ordem inferior, como cliques, páginas visitadas, tempo de visualização etc., sozinhos, possuem pouquíssima relevância. O acoplamento desses dados, entretanto, mormente diante do aumento da capacidade de processamento e do recurso a ferramentas de <italic>inteligência artificial</italic>, produz novos dados – agora, de ordem superior –, o que é feito em escala e complexidade analítica sem precedentes. É possível inferir, com elevado grau de precisão, o estado gestacional das consumidoras por meio da identificação de padrões de compra de cosméticos sem fragrância (<xref ref-type="bibr" rid="B24">NISSENBAUM, 2019</xref>).</p>
                <p>Dados de ordem superior podem exigir formas de proteção distintas dos dados de ordem inferior, ao contrário do que tem sido comumente defendido, pois, se uma bomba pode ser construída tendo adubo como matéria-prima, ou uma bebida letal pode ser produzida com base em um líquido inócuo, não parece razoável defender que, também no âmbito da proteção de dados, a matéria-prima e seus produtos recebam idêntico tratamento normativo (<xref ref-type="bibr" rid="B24">NISSENBAUM, 2019</xref>). Isso significa que os dados inferidos ou construídos por meio de ferramentas alimentadas pela <italic>inteligência artificial</italic> devem ser qualificados como dados pessoais, uma condição <italic>sine qua non</italic> para a sua adequada proteção no cenário hodierno.</p>
                <p>A chave de leitura proposta parece ter sido indiretamente reconhecida pela própria Lei Geral de Proteção de Dados Pessoais ao estabelecer (a) o direito à revisão das decisões tomadas com base no tratamento de dados pessoais quando – ainda que o recurso ao <italic>signo</italic> interesse, sem sinonímia com <italic>direito</italic>, possa dar margem à tutela de subjetividades e fomentar o solipsismo – afetem os interesses das pessoas (Art. 20), bem como (b) o direito à explicabilidade de referidas decisões (Art. 20, § 1°), dispositivos que evidenciam a necessidade de considerar as inferências e construções algorítmicas como dados pessoais, de modo a garantir a efetividade desses direitos.</p>
                <p>Resta patente que se tais inferências estiverem relacionadas a uma pessoa identificada ou identificável, serão consideradas dados pessoais, na forma do Art. 5°, I, da Lei Geral de Proteção de Dados, afinal, não há como dissociar informações construídas por algoritmos da ideia de dado pessoal, uma vez que se referem, diretamente, a pessoas específicas.</p>
                <p>A questão ganha relevância na emergência da <italic>inteligência artificial</italic> generativa, em especial com os grandes modelos de linguagem (LLM), como o <italic>ChatGPT</italic>, o <italic>ChatSonic</italic>, o <italic>Jasper Chat</italic>, o <italic>Youchat</italic>, a <italic>Perplexity AI</italic> ou o <italic>Character</italic>
                    <italic>AI</italic>, treinados para processar e gerar textos em linguagem natural. À medida que tais sistemas podem fornecer dados sobre pessoas, às vezes, tendenciosos ou falsos, parece imprescindível que referidas informações sejam tratadas como dados pessoais sujeitos às salvaguardas e direitos estampados no Direito pátrio, mitigando, assim, os riscos associados a cada vez mais comum disseminação de informações enganosas ou discriminatórias por meio dessas tecnologias.</p>
                <p>O terceiro atrator que se procura lapidar tem como lastro um fato notório: o uso da <italic>Inteligência Artificial</italic> no tratamento de dados para a obtenção de inferências não intuitivas é uma prática deveras comum na contemporaneidade. Referidas inferências frequentemente resultam em discriminações negativas, o que evidencia a necessidade de ultrapassar a regulação simplista, aludindo a quais tipos de dados podem ser coletados, aspecto que parece ter primazia nas discussões sobre privacidade e autodeterminação informativa na atualidade.</p>
                <p>É imprescindível refletir sobre aspectos que tangenciam <italic>como</italic> e <italic>para que</italic> os dados pessoais serão tratados enquanto pressupostos na edificação de um “direito a inferências razoáveis” (<xref ref-type="bibr" rid="B37">WACHTER, MITTELSTADT, 2019</xref>), fomentando a possibilidade de controle <italic>ex ante</italic> do uso dos dados pessoais pelo agente de tratamento. Isso pressupõe a avaliação de três aspectos fundamentais: (a) a legitimidade da utilização de determinada base de dados para a inferência específica pretendida, pois nem todas as bases de dados são adequadas ou legítimas; (b) a checagem da relevância e adequação da inferência buscada para o propósito do processamento, afinal, mesmo que se recorra a uma base de dados adequada, algumas inferências podem ser desnecessárias, injustificadas ou potencialmente discriminatórias, porquanto violam direitos e liberdades individuais; e (c) a garantia de que os dados e métodos utilizados para gerar as inferências sejam precisos, confiáveis e baseados em evidências científicas sólidas, já que inferências derivadas de algoritmos enviesados, dados inconsistentes ou técnicas opacas representam um risco significativo aos titulares dos dados.</p>
                <p>Uma abordagem hermenêutica com amparo na ideia de um “direito a inferências razoáveis” (<xref ref-type="bibr" rid="B37">WACHTER, MITTELSTADT, 2019</xref>) legitima repensar hermeneuticamente as soluções previstas na(s) lei(s) de proteção de dados a partir de práticas identificadas fenomenicamente (<xref ref-type="bibr" rid="B13">GRUNDMANN, MICKLITZ, RENNER, 2021</xref>) na era do <italic>Big Data</italic> e da <italic>inteligência artificial</italic>, muitas vezes atuando sob o manto da ilicitude. A ideia implica o estabelecimento de critérios rigorosos para o uso legítimo e ético dos dados pessoais, de forma a mitigar os riscos afetos à discriminação, violação da privacidade e consequências de decisões enviesadas ou opacas.</p>
                <p>Em suma, embora a regulação sobre a coleta de dados seja importante, é fundamental ampliar o escopo da proteção de dados pessoais, abordando também aspectos que abarquem <italic>como</italic> e <italic>para que</italic> esses dados são tratados, especialmente em contextos que envolvem <italic>inteligência artificial</italic> e inferências não intuitivas.</p>
                <p>O quarto ponto de relevância hermenêutica a ser enfatizado liga-se empiricamente ao uso secundário de dados pessoais para o treinamento de sistemas de <italic>inteligência artificial</italic>, aspecto considerado crítico nesta investigação científica, razão pela qual merece uma especial atenção.</p>
                <p>Qualquer reflexão sobre o tema não pode desprezar o fato de que, consoante estabelecido pela Lei Geral de Proteção de Dados Pessoais, dados pessoais tratados para determinada finalidade não podem ser reutilizados para finalidades incompatíveis com a que fora originalmente estabelecida. Trata-se de uma disposição crucial para proteger a legítima confiança, bem como a autodeterminação informativa dos titulares dos dados.</p>
                <p>A noção de <italic>incompatibilidade</italic> notadamente não se refere à impossibilidade física, mas à sua feição jurídica, e deve ser identificada quando o tratamento ulterior não guardar relação de proximidade ou conexão lógica com o tratamento inicial. Se ele ocorrer, haverá violação da expectativa razoável do titular dos dados, o que ocorreria, por exemplo, quando dados pessoais coletados para fins de <italic>marketing</italic> vierem a ser reutilizados na análise de crédito.</p>
                <p>A partir daí, a utilização de dados pessoais para o treinamento de algoritmos de <italic>inteligência artificial</italic> deve ser considerada finalidade incompatível com a finalidade original da coleta, exceto se houver uma nova autorização, expressa, do titular, afinal, o treinamento de sistemas de <italic>inteligência artificial</italic> envolve processos complexos e imprevisíveis.</p>
                <p>A atribuição de sentido ao <italic>signo</italic>
                    <italic>incompatibilidade</italic> deve ser feita com lastro na boa-fé objetiva, levando em consideração a legítima expectativa do titular em relação ao uso de seus dados pessoais, e não necessariamente às necessidades e práticas postas em movimento pelo sistema de mercados. Embora os agentes de tratamento geralmente adotem finalidades amplas e abrangentes em suas políticas de privacidade, isso não deve ser interpretado como uma carta branca para a reutilização indiscriminada de dados para qualquer finalidade. Em princípio, permissões para a reutilização de dados previstas nas condições gerais de contratação deverão ser consideradas como não escritas, mormente se houver <italic>overload</italic> informativo, dificuldade de compreensão da linguagem utilizada ou ausência de relação direta entre os fins propostos.</p>
                <p>No aspecto prático, a questão do uso secundário de dados pessoais para treinamento de <italic>inteligência artificial</italic> enfrenta desafios que transitam pela dificuldade de controle e fiscalização do uso pelos titulares e autoridades competentes. No entanto, é fundamental que sejam estabelecidos mecanismos efetivos de transparência, consentimento informado e prestação de contas de modo a garantir que os direitos e as liberdades individuais sejam respeitados.</p>
                <p>A utilização de dados pessoais para o treinamento de algoritmos de <italic>inteligência artificial</italic> deve, assim, ser considerada uma nova finalidade, exigindo uma autorização específica e inequívoca do titular, abordagem essencial para preservar a confiança e a autodeterminação informativa das pessoas, e apta a garantir que seus dados sejam tratados de forma transparente, lícita e dentro dos limites do consentimento fornecido.</p>
                <p>Finalmente, não se pode deixar de sublinhar que tanto a Lei Geral de Proteção de Dados como o Regulamento Geral sobre a Proteção de Dados reconhecem a existência de um amplo espectro de risco no tratamento de dados pessoais, a variar consoante diversos fatores relevantes – tipos de dados, escala de tratamento, natureza do tratamento, escopo, finalidade, tecnologia envolvida etc. –, variação esta que deve ser observada na imposição e modulação de deveres aos agentes de tratamento. Tal abordagem decorre, em última instância, da compatibilização dos princípios constitucionais da solidariedade, isonomia material e livre- iniciativa, bem como da imposição constitucional de proteção eficiente ou adequada dos direitos fundamentais envolvidos.</p>
                <p>No Brasil, o Art. 44 da Lei Geral de Proteção de Dados estabelece que o tratamento de dados será considerado irregular quando não observar a legislação ou quando não fornecer a segurança que o titular possa razoavelmente esperar. O Art. 46, por sua vez, ao tratar do dever de segurança dos agentes de tratamento de dados, determina que, caso a autoridade nacional estabeleça padrões técnicos mínimos, deverá considerar a natureza das informações tratadas, as características específicas do tratamento e o estado atual da tecnologia, especialmente no caso de dados pessoais sensíveis.</p>
                <p>Por seu turno, ao abordar as boas práticas, o § 1º do Art. 50 determina que devem ser levados em consideração o escopo, a natureza, a finalidade, a probabilidade e a gravidade dos riscos e dos benefícios decorrentes do tratamento de dados do titular. Da mesma forma, o § 2º institui que, na densificação dos princípios da segurança e da prevenção, o controlador deve observar a estrutura, a escala e o volume de suas operações, bem como a sensibilidade dos dados tratados e a probabilidade e a gravidade dos danos para os titulares dos dados. Além disso, a implementação de programas de governança deve ser adaptada à estrutura, à escala e ao volume de suas operações, e ainda, à sensibilidade dos dados tratados (inciso I, “c”).</p>
                <p>Resta patente que a Lei Geral de Proteção de Dados adota uma “abordagem baseada em riscos” (<xref ref-type="bibr" rid="B26">QUELLE, 2020</xref>; <xref ref-type="bibr" rid="B20">KARJALAINEN, 2022</xref>), na qual deveres e obrigações dos agentes de tratamento devem ser modulados de acordo com a natureza, escala, sensibilidade e potenciais danos envolvidos no tratamento de dados pessoais. Essa abordagem visa equilibrar a proteção dos direitos e liberdades individuais, modulando a conduta esperada dos agentes de tratamento, com lastro nos princípios constitucionais e na necessidade de proteção eficiente e adequada.</p>
                <p>O uso da <italic>inteligência artificial</italic> deve ser considerado atividade de alto risco, exigindo a aplicação das mais rigorosas salvaguardas e obrigações previstas no direito pátrio. Isso se deve, principalmente, à escalabilidade e à opacidade inerentes aos sistemas de <italic>inteligência artificial</italic>.</p>
                <p>A escalabilidade refere-se à capacidade desses sistemas de processarem e gerarem inferências a partir de enormes volumes de dados, exponenciando os impactos de eventuais falhas, enviesamentos ou violações de privacidade. A opacidade, por sua vez, diz respeito não apenas à dificuldade de compreender e auditar os processos internos de algoritmos, que muitas vezes se encontram em <italic>caixas-pretas</italic> insondáveis – mesmo para seus desenvolvedores –, mas também está ligada à imprevisibilidade e à autonomia crescente desses sistemas. É que muitos sistemas de <italic>inteligência artificial</italic>, especialmente aqueles baseados em aprendizado profundo, exibem comportamentos emergentes e imprevisíveis, sendo difícil antecipar e mitigar seus riscos potenciais.</p>
                <p>Essas características representam riscos significativos para os direitos e liberdades dos titulares de dados, como discriminações injustificadas, decisões automatizadas enviesadas, violações de privacidade e falta de transparência e prestação de contas, razão pela qual o tratamento de dados pessoais por meio de <italic>inteligência artificial</italic> deve ser submetido aos mais elevados padrões de segurança, privacidade desde a concepção, avaliações de impacto, auditorias independentes e mecanismos de supervisão humana.</p>
            </sec>
        </sec>
        <sec>
            <title>Um epílogo, eternamente, provisório</title>
            <p>A relevância da Lei Geral de Proteção de Dados como base para a proteção do direito fundamental à privacidade e à segurança dos dados pessoais no Brasil é um dado de realidade que parece irrefutável, carregando em seu ventre os vetores interpretativos para a prevenção e a solução de problemas que, direta ou indiretamente, envolvem o tratamento de dados pessoais capturados ou inferidos por sistemas de <italic>inteligência artificial</italic> com lastro naqueles.</p>
            <p>Tais inferências, em especial quando decorrentes de sistemas de <italic>inteligência artificial</italic>, potencialmente afetam direitos e liberdades individuais, mormente no contexto da tecnologia generativa, apta a produzir textos, emular vozes e imagens com crescente perfeição, dado de realidade que exige a lapidação de critérios éticos e normativos ante o risco de discriminação e violação da privacidade, entre outras formas de lesão.</p>
            <p>Outro ponto relevante consiste na exigência de consentimento expresso para o uso secundário de dados pessoais no treinamento de modelos de <italic>inteligência artificial</italic>, de modo a preservar a confiança e a autodeterminação informativa dos titulares dos dados.</p>
            <p>O uso de <italic>inteligência artificial</italic> no tratamento de dados pessoais deve ser considerado como atividade de alto risco, a demandar a aplicação das mais rigorosas salvaguardas previstas na Lei Geral de Proteção de Dados, devido à escalabilidade, à opacidade e à autonomia imanentes à retrocitada tecnologia, sobremodo porque podem gerar impactos significativos aos direitos dos titulares dos dados utilizados.</p>
            <p>A efetividade dos direitos fundamentais no contexto da <italic>inteligência artificial</italic> depende de uma regulação que atue nos campos da precaução e da prevenção, não apenas antecipando os desafios que surgirão no porvir, mas criando incentivos e moldando <italic>nudges</italic> que estimulem todas as personagens envolvidas, para que saiam da inércia fundida à natureza humana. Enfim, a <italic>inteligência artificial</italic> tem o potencial de transformar a sociedade de maneiras profundamente positivas, o que ocorrerá, entretanto, apenas se for desenvolvida e utilizada dentro de um quadro regulatório que priorize o bem-estar humano, leia-se, de todo ser humano.</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other" id="fn01">
                <label>1</label>
                <p>Esta investigação científica foi desenvolvida no contexto do programa de estágio pós-doutoral oferecido pelo <italic>Mediterranea International Center for Human Rights Research</italic> sob a supervisão do primeiro autor, embora, todos os subscritores desta pesquisa tenham contribuído, igualmente, na elaboração do projeto de pesquisa, escolha da metodologia, seleção das fontes, condução da investigação, validação da hipótese antecipada enquanto possibilidade e, enfim, ao longo do processo de redação desde os primeiros rascunhos até a versão final e preparação para esta publicação.</p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p>A reflexão tem em conta que por ocasião de atribuição de sentido ao direito fundamental à proteção de dados pessoais caberá ao intérprete ir da parte ao todo e do todo à parte (<xref ref-type="bibr" rid="B32">STRECK, 2017</xref>).</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>Referências</title>
            <ref id="B01">
                <mixed-citation>BUSATTA, Eduardo Luiz. <bold>Dados pessoais e reparação civil.</bold> Rio de Janeiro: Forense, 2024.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BUSATTA</surname>
                            <given-names>Eduardo Luiz</given-names>
                        </name>
                    </person-group>
                    <source>Dados pessoais e reparação civil</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Forense</publisher-name>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B02">
                <mixed-citation>CARTA DE BELÉM DO PARÁ. <bold>XIII Agendas de Direito Civil Constitucional</bold>. Belém do Pará: UFPA / CESUPA. 2024.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>CARTA DE BELÉM DO PARÁ</collab>
                    </person-group>
                    <source>XIII Agendas de Direito Civil Constitucional</source>
                    <publisher-loc>Belém do Pará</publisher-loc>
                    <publisher-name>UFPA / CESUPA</publisher-name>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B03">
                <mixed-citation>CASSINO, João Francisco. Modulação deleuzeana, modulação algorítmica e manipulação midiática. In: SOUZA, Joyce; AVELINO, Rodolfo; SILVEIRA, Sérgio Amadeu da (Org.). <bold>A sociedade de controle</bold>: manipulação e modulação nas redes digitais. São Paulo: Hedra, 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CASSINO</surname>
                            <given-names>João Francisco</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Modulação deleuzeana, modulação algorítmica e manipulação midiática</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>SOUZA</surname>
                            <given-names>Joyce</given-names>
                        </name>
                        <name>
                            <surname>AVELINO</surname>
                            <given-names>Rodolfo</given-names>
                        </name>
                        <name>
                            <surname>SILVEIRA</surname>
                            <given-names>Sérgio Amadeu da</given-names>
                        </name>
                    </person-group>
                    <source><bold>A sociedade de controle</bold>: manipulação e modulação nas redes digitais</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Hedra</publisher-name>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B04">
                <mixed-citation>COELHO, Bernardo Leôncio Moura. O bloco de constitucionalidade e a proteção à criança. <bold>Revista de Informação Legislativa</bold>, Brasília, v. 31, n. 123, p. 259-266, jul./set. 1994.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COELHO</surname>
                            <given-names>Bernardo Leôncio Moura</given-names>
                        </name>
                    </person-group>
                    <article-title>O bloco de constitucionalidade e a proteção à criança</article-title>
                    <source>Revista de Informação Legislativa</source>
                    <publisher-loc>Brasília</publisher-loc>
                    <volume>31</volume>
                    <issue>123</issue>
                    <fpage>259</fpage>
                    <lpage>266</lpage>
                    <season>jul./set</season>
                    <year>1994</year>
                </element-citation>
            </ref>
            <ref id="B05">
                <mixed-citation>CRUZ, Sylvio Augusto. Big data e o fim do livre arbítrio: a democracia manipulada. <bold>Pensar Acadêmico</bold>, Manhuaçu, v. 19, n. 3, p. 186-187, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CRUZ</surname>
                            <given-names>Sylvio Augusto</given-names>
                        </name>
                    </person-group>
                    <article-title>Big data e o fim do livre arbítrio: a democracia manipulada</article-title>
                    <source>Pensar Acadêmico</source>
                    <publisher-loc>Manhuaçu</publisher-loc>
                    <volume>19</volume>
                    <issue>3</issue>
                    <fpage>186</fpage>
                    <lpage>187</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B06">
                <mixed-citation>DARMODY, Aron; ZWICK, Detlev. Manipulate to empower: hyper-relevance and the contradictions of marketing in the age of surveillance capitalism. <bold>Big Data &amp; Society</bold>, Hampshire, v. 7, n. 1, [<italic>s.p.</italic>], 2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DARMODY</surname>
                            <given-names>Aron</given-names>
                        </name>
                        <name>
                            <surname>ZWICK</surname>
                            <given-names>Detlev</given-names>
                        </name>
                    </person-group>
                    <article-title>Manipulate to empower: hyper-relevance and the contradictions of marketing in the age of surveillance capitalism</article-title>
                    <source>Big Data &amp; Society</source>
                    <publisher-loc>Hampshire</publisher-loc>
                    <volume>7</volume>
                    <issue>1</issue>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B07">
                <mixed-citation>DELEUZE, Gilles. <bold>Conversações</bold>. Trad. Peter Pál Pelbart. São Paulo: 34, 2008.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DELEUZE</surname>
                            <given-names>Gilles</given-names>
                        </name>
                    </person-group>
                    <source>Conversações</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Pelbart</surname>
                            <given-names>Peter Pál</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>34</publisher-name>
                    <year>2008</year>
                </element-citation>
            </ref>
            <ref id="B08">
                <mixed-citation>DOMINGOS, Pedro. <bold>O algoritmo mestre</bold>: como a inteligência artificial vai redesenhar o mundo. São Paulo: Novatec, 2015.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DOMINGOS</surname>
                            <given-names>Pedro</given-names>
                        </name>
                    </person-group>
                    <source><bold>O algoritmo mestre</bold>: como a inteligência artificial vai redesenhar o mundo</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Novatec</publisher-name>
                    <year>2015</year>
                </element-citation>
            </ref>
            <ref id="B09">
                <mixed-citation>EHRHARDT JUNIOR, Marcos; CATALAN, Marcos; NUNES, Cláudia Ribeiro Pereira (Org.). <bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios. Belo Horizonte: Fórum, 2023.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>EHRHARDT</surname>
                            <given-names>Marcos</given-names>
                            <suffix>JUNIOR</suffix>
                        </name>
                        <name>
                            <surname>CATALAN</surname>
                            <given-names>Marcos</given-names>
                        </name>
                        <name>
                            <surname>NUNES</surname>
                            <given-names>Cláudia Ribeiro Pereira</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios</source>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Fórum</publisher-name>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B10">
                <mixed-citation>EHRHARDT JUNIOR, Marcos; CATALAN, Marcos; NUNES, Cláudia Ribeiro Pereira (Org.). <bold>Inteligência artificial e relações privadas</bold>: relações existenciais e a proteção da pessoa humana. Belo Horizonte: Fórum, 2023.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>EHRHARDT</surname>
                            <given-names>Marcos</given-names>
                            <suffix>JUNIOR</suffix>
                        </name>
                        <name>
                            <surname>CATALAN</surname>
                            <given-names>Marcos</given-names>
                        </name>
                        <name>
                            <surname>NUNES</surname>
                            <given-names>Cláudia Ribeiro Pereira</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência artificial e relações privadas</bold>: relações existenciais e a proteção da pessoa humana</source>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Fórum</publisher-name>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B11">
                <mixed-citation>EHRHARDT JUNIOR, Marcos; CATALAN, Marcos; NUNES, Cláudia Ribeiro Pereira (Org.). <bold>Inteligência artificial e relações privadas</bold>: relações patrimoniais: entre o consumo, os contratos e os danos. Belo Horizonte: Fórum, 2023.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>EHRHARDT</surname>
                            <given-names>Marcos</given-names>
                            <suffix>JUNIOR</suffix>
                        </name>
                        <name>
                            <surname>CATALAN</surname>
                            <given-names>Marcos</given-names>
                        </name>
                        <name>
                            <surname>NUNES</surname>
                            <given-names>Cláudia Ribeiro Pereira</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência artificial e relações privadas</bold>: relações patrimoniais: entre o consumo, os contratos e os danos</source>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Fórum</publisher-name>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B12">
                <mixed-citation>FÜRST, Maria Eduarda; BÜRGUER, Marcelo. Inteligência artificial: conceitos introdutórios e algumas de suas aplicações. In: EHRHARDT JUNIOR, Marcos; CATALAN, Marcos; NUNES, Cláudia Ribeiro Pereira (Org.). <bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios. Belo Horizonte: Fórum, 2023.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FÜRST</surname>
                            <given-names>Maria Eduarda</given-names>
                        </name>
                        <name>
                            <surname>BÜRGUER</surname>
                            <given-names>Marcelo</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Inteligência artificial: conceitos introdutórios e algumas de suas aplicações</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>EHRHARDT</surname>
                            <given-names>Marcos</given-names>
                            <suffix>JUNIOR</suffix>
                        </name>
                        <name>
                            <surname>CATALAN</surname>
                            <given-names>Marcos</given-names>
                        </name>
                        <name>
                            <surname>NUNES</surname>
                            <given-names>Cláudia Ribeiro Pereira</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios</source>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Fórum</publisher-name>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B13">
                <mixed-citation>GRUNDMANN, Stefan; MICKLITZ, Hans-Wolfgang; RENNER, Moritz. New private law theory: the core ideas. In: GRUNDMANN, Stefan; MICKLITZ, Hans-Wolfgang; RENNER, Moritz. <bold>New private law theory</bold>: a pluralist approach. Cambridge: Cambridge, 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GRUNDMANN</surname>
                            <given-names>Stefan</given-names>
                        </name>
                        <name>
                            <surname>MICKLITZ</surname>
                            <given-names>Hans-Wolfgang</given-names>
                        </name>
                        <name>
                            <surname>RENNER</surname>
                            <given-names>Moritz</given-names>
                        </name>
                    </person-group>
                    <chapter-title>New private law theory: the core ideas</chapter-title>
                    <person-group person-group-type="author">
                        <name>
                            <surname>GRUNDMANN</surname>
                            <given-names>Stefan</given-names>
                        </name>
                        <name>
                            <surname>MICKLITZ</surname>
                            <given-names>Hans-Wolfgang</given-names>
                        </name>
                        <name>
                            <surname>RENNER</surname>
                            <given-names>Moritz</given-names>
                        </name>
                    </person-group>
                    <source><bold>New private law theory</bold>: a pluralist approach</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Cambridge</publisher-name>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B14">
                <mixed-citation>GUSTIN, Miracy; DIAS, Maria Tereza Fonseca. <bold>Repensando a pesquisa jurídica</bold>. 4. ed. Belo Horizonte: Del Rey Editora, 2013.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GUSTIN</surname>
                            <given-names>Miracy</given-names>
                        </name>
                        <name>
                            <surname>DIAS</surname>
                            <given-names>Maria Tereza Fonseca</given-names>
                        </name>
                    </person-group>
                    <source>Repensando a pesquisa jurídica</source>
                    <edition>4. ed.</edition>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Del Rey Editora</publisher-name>
                    <year>2013</year>
                </element-citation>
            </ref>
            <ref id="B15">
                <mixed-citation>HAN, Byung-Chul. <bold>A sociedade da transparência</bold>. Trad. Enio Paulo Giachini. Petrópolis: Vozes, 2017.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HAN</surname>
                            <given-names>Byung-Chul</given-names>
                        </name>
                    </person-group>
                    <source>A sociedade da transparência</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Giachini</surname>
                            <given-names>Enio Paulo</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>Petrópolis</publisher-loc>
                    <publisher-name>Vozes</publisher-name>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B16">
                <mixed-citation>HANSEN BECK, Felipe Quintela; BERNARDES, Marília Bengtsson. Reconhecimento da personalidade jurídica dos agentes artificiais autônomos como entes de capacidade reduzida. In: EHRHARDT JUNIOR, Marcos; CATALAN, Marcos; NUNES, Cláudia Ribeiro Pereira (Org.). <bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios. Belo Horizonte: Fórum, 2023.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HANSEN BECK</surname>
                            <given-names>Felipe Quintela</given-names>
                        </name>
                        <name>
                            <surname>BERNARDES</surname>
                            <given-names>Marília Bengtsson</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Reconhecimento da personalidade jurídica dos agentes artificiais autônomos como entes de capacidade reduzida</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>EHRHARDT</surname>
                            <given-names>Marcos</given-names>
                            <suffix>JUNIOR</suffix>
                        </name>
                        <name>
                            <surname>CATALAN</surname>
                            <given-names>Marcos</given-names>
                        </name>
                        <name>
                            <surname>NUNES</surname>
                            <given-names>Cláudia Ribeiro Pereira</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios</source>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Fórum</publisher-name>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B17">
                <mixed-citation>HUR, Domenico Uhng. Deleuze e a constituição do diagrama de controle. <bold>Fractal</bold>, Niterói, v. 30, n. 2, p. 173-179, 2018.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HUR</surname>
                            <given-names>Domenico Uhng</given-names>
                        </name>
                    </person-group>
                    <article-title>Deleuze e a constituição do diagrama de controle</article-title>
                    <source>Fractal</source>
                    <publisher-loc>Niterói</publisher-loc>
                    <volume>30</volume>
                    <issue>2</issue>
                    <fpage>173</fpage>
                    <lpage>179</lpage>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B18">
                <mixed-citation>JACOBSEN, Michael Hviid; TESTER, Keith. Introdução. In: BAUMAN, Zygmunt. <bold>Para que serve a sociologia?</bold> Trad. Carlos Alberto Medeiros. Rio de Janeiro: Zahar, 2015. </mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>JACOBSEN</surname>
                            <given-names>Michael Hviid</given-names>
                        </name>
                        <name>
                            <surname>TESTER</surname>
                            <given-names>Keith</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Introdução</chapter-title>
                    <person-group person-group-type="author">
                        <name>
                            <surname>BAUMAN</surname>
                            <given-names>Zygmunt</given-names>
                        </name>
                    </person-group>
                    <source>Para que serve a sociologia?</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Medeiros</surname>
                            <given-names>Carlos Alberto</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Zahar</publisher-name>
                    <year>2015</year>
                </element-citation>
            </ref>
            <ref id="B19">
                <mixed-citation>JESUS DIÁZ, María José Del; CORDÓN GARCIA, Óscar; HERRERA, Francisco. Una visión actual de la inteligencia artificial: recorrido histórico, datos y aprendizaje, y responsabilidad en el diseño y uso. In: PERALTA, Alfonso; SALVADOR TORRES, Leopoldo; HERRERA, Francisco (Org.). <bold>El derecho y la inteligencia artificial</bold>. Granada: Universidad de Granada, 2022.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>JESUS DIÁZ</surname>
                            <given-names>María José Del</given-names>
                        </name>
                        <name>
                            <surname>CORDÓN GARCIA</surname>
                            <given-names>Óscar</given-names>
                        </name>
                        <name>
                            <surname>HERRERA</surname>
                            <given-names>Francisco</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Una visión actual de la inteligencia artificial: recorrido histórico, datos y aprendizaje, y responsabilidad en el diseño y uso</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>PERALTA</surname>
                            <given-names>Alfonso</given-names>
                        </name>
                        <name>
                            <surname>SALVADOR TORRES</surname>
                            <given-names>Leopoldo</given-names>
                        </name>
                        <name>
                            <surname>HERRERA</surname>
                            <given-names>Francisco</given-names>
                        </name>
                    </person-group>
                    <source>El derecho y la inteligencia artificial</source>
                    <publisher-loc>Granada</publisher-loc>
                    <publisher-name>Universidad de Granada</publisher-name>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B20">
                <mixed-citation>KARJALAINEN, Tuulia. All talk, no action? The effect of the GDPR accountability principle on the EU data protection paradigm. <bold>European Data Protection Law Review</bold>, Berlin, v. 8, n. 1, p. 19-30, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KARJALAINEN</surname>
                            <given-names>Tuulia</given-names>
                        </name>
                    </person-group>
                    <article-title>All talk, no action? The effect of the GDPR accountability principle on the EU data protection paradigm</article-title>
                    <source>European Data Protection Law Review</source>
                    <publisher-loc>Berlin</publisher-loc>
                    <volume>8</volume>
                    <issue>1</issue>
                    <fpage>19</fpage>
                    <lpage>30</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B21">
                <mixed-citation>KING, Jennifer; MEINHARDT, Caroline. <bold>Rethinking privacy in the AI Era</bold><italic>:</italic> policy provocations for a data-centric word. Disponível em: https://hai.stanford.edu/whitepaper-rethinking-privacy-ai-era-policy-provocations-data-centric-world. Acesso em: 15 mai. 2024.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KING</surname>
                            <given-names>Jennifer</given-names>
                        </name>
                        <name>
                            <surname>MEINHARDT</surname>
                            <given-names>Caroline</given-names>
                        </name>
                    </person-group>
                    <source><bold>Rethinking privacy in the AI Era</bold><italic>:</italic> policy provocations for a data-centric word</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://hai.stanford.edu/whitepaper-rethinking-privacy-ai-era-policy-provocations-data-centric-world">https://hai.stanford.edu/whitepaper-rethinking-privacy-ai-era-policy-provocations-data-centric-world</ext-link></comment>
                    <date-in-citation content-type="access-date">15 mai. 2024</date-in-citation>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B22">
                <mixed-citation>LACE, Susanne. <bold>The glass consumer</bold>: life in a surveillance society. Bristol: Policy, 2005.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LACE</surname>
                            <given-names>Susanne</given-names>
                        </name>
                    </person-group>
                    <source><bold>The glass consumer</bold>: life in a surveillance society</source>
                    <publisher-loc>Bristol</publisher-loc>
                    <publisher-name>Policy</publisher-name>
                    <year>2005</year>
                </element-citation>
            </ref>
            <ref id="B23">
                <mixed-citation>MORIN, Edgar. <bold>A cabeça bem-feita</bold>: repensar a reforma, reformar o pensamento. Trad. Eloá Jacobina. 8. ed. Rio de Janeiro: Bertrand Brasil, 2003.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MORIN</surname>
                            <given-names>Edgar</given-names>
                        </name>
                    </person-group>
                    <source><bold>A cabeça bem-feita</bold>: repensar a reforma, reformar o pensamento</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Jacobina</surname>
                            <given-names>Eloá</given-names>
                        </name>
                    </person-group>
                    <edition>8. ed</edition>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Bertrand Brasil</publisher-name>
                    <year>2003</year>
                </element-citation>
            </ref>
            <ref id="B24">
                <mixed-citation>NISSENBAUM, Helen. Contextual integrity up and down the data food chain. <italic><bold>Theoretical Inquiries in Law</bold>, Berlin, v.</italic> 20, p. 221-256, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>NISSENBAUM</surname>
                            <given-names>Helen</given-names>
                        </name>
                    </person-group>
                    <article-title>Contextual integrity up and down the data food chain</article-title>
                    <source>Theoretical Inquiries in Law</source>
                    <publisher-loc>Berlin</publisher-loc>
                    <volume>20</volume>
                    <fpage>221</fpage>
                    <lpage>256</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B25">
                <mixed-citation>PASQUALE, Frank. <bold>The black box society</bold>: the secret algorithms that control money and information. Cambridge: Harvard, 2015.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PASQUALE</surname>
                            <given-names>Frank</given-names>
                        </name>
                    </person-group>
                    <source><bold>The black box society</bold>: the secret algorithms that control money and information</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Harvard</publisher-name>
                    <year>2015</year>
                </element-citation>
            </ref>
            <ref id="B26">
                <mixed-citation>QUELLE, Claudia. The ‘risk revolution’ in EU data protection law: we can't have our cake and eat it, too. In: LEENES, Ronald et al. (Ed.). <bold><italic>Data</italic> protection and privacy</bold>: the age of intelligent machines. London: Hart, 2020.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>QUELLE</surname>
                            <given-names>Claudia</given-names>
                        </name>
                    </person-group>
                    <chapter-title>The ‘risk revolution’ in EU data protection law: we can't have our cake and eat it, too</chapter-title>
                    <person-group person-group-type="editor">
                        <name>
                            <surname>LEENES</surname>
                            <given-names>Ronald</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <source><bold><italic>Data</italic> protection and privacy</bold>: the age of intelligent machines</source>
                    <publisher-loc>London</publisher-loc>
                    <publisher-name>Hart</publisher-name>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B27">
                <mixed-citation>RUSSELL, Stuart; NORVIG, Peter. <bold>Artificial intelligence</bold><italic>:</italic> a modern approach. 3. ed. New Jersey: Pearson, 2010.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RUSSELL</surname>
                            <given-names>Stuart</given-names>
                        </name>
                        <name>
                            <surname>NORVIG</surname>
                            <given-names>Peter</given-names>
                        </name>
                    </person-group>
                    <source><bold>Artificial intelligence</bold><italic>:</italic> a modern approach</source>
                    <edition>3. ed</edition>
                    <publisher-loc>New Jersey</publisher-loc>
                    <publisher-name>Pearson</publisher-name>
                    <year>2010</year>
                </element-citation>
            </ref>
            <ref id="B28">
                <mixed-citation>SANTOS, Isabela. A vulnerabilidade dos titulares de dados diante de grandes plataformas e big techs: um paralelo entre as violações ao GDPR e à LGPD no que tange à base legal do consentimento. <bold>Revista dos Estudantes de Direito da Universidade de Brasília</bold>, Brasília, v. 18, n. 1, p. 241-262, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SANTOS</surname>
                            <given-names>Isabela</given-names>
                        </name>
                    </person-group>
                    <article-title>A vulnerabilidade dos titulares de dados diante de grandes plataformas e big techs: um paralelo entre as violações ao GDPR e à LGPD no que tange à base legal do consentimento</article-title>
                    <source>Revista dos Estudantes de Direito da Universidade de Brasília</source>
                    <publisher-loc>Brasília</publisher-loc>
                    <volume>18</volume>
                    <issue>1</issue>
                    <fpage>241</fpage>
                    <lpage>262</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B29">
                <mixed-citation>SAUX, Edgardo Ignacio. La inteligencia artificial: un antes y un despues en el derecho. In: EHRHARDT JUNIOR, Marcos; CATALAN, Marcos; NUNES, Cláudia Ribeiro Pereira (Org.). <bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios. Belo Horizonte: Fórum, 2023.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SAUX</surname>
                            <given-names>Edgardo Ignacio</given-names>
                        </name>
                    </person-group>
                    <chapter-title>La inteligencia artificial: un antes y un despues en el derecho</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>EHRHARDT</surname>
                            <given-names>Marcos</given-names>
                            <suffix>JUNIOR</suffix>
                        </name>
                        <name>
                            <surname>CATALAN</surname>
                            <given-names>Marcos</given-names>
                        </name>
                        <name>
                            <surname>NUNES</surname>
                            <given-names>Cláudia Ribeiro Pereira</given-names>
                        </name>
                    </person-group>
                    <source><bold>Inteligência artificial e relações privadas</bold>: possibilidades e desafios</source>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Fórum</publisher-name>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B30">
                <mixed-citation>SIBILIA, Paula. <bold>O show do eu</bold>: a intimidade como espetáculo. Rio de Janeiro: Nova Fronteira, 2008.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SIBILIA</surname>
                            <given-names>Paula</given-names>
                        </name>
                    </person-group>
                    <source><bold>O show do eu</bold>: a intimidade como espetáculo</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Nova Fronteira</publisher-name>
                    <year>2008</year>
                </element-citation>
            </ref>
            <ref id="B31">
                <mixed-citation>SILVEIRA, Sergio Amadeu da. <bold>Tudo sobre todos</bold>: redes digitais, privacidade e venda de sados pessoais (e-PUB). São Paulo: SESC, 2017.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SILVEIRA</surname>
                            <given-names>Sergio Amadeu da</given-names>
                        </name>
                    </person-group>
                    <source><bold>Tudo sobre todos</bold>: redes digitais, privacidade e venda de sados pessoais (e-PUB)</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>SESC</publisher-name>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B32">
                <mixed-citation>STRECK, Lenio Luiz. <bold>Dicionário de hermenêutica</bold>: quarenta temas fundamentais da teoria do direito à luz da crítica hermenêutica do Direito. Belo Horizonte: Letramento / Casa do Direito, 2017.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>STRECK</surname>
                            <given-names>Lenio Luiz</given-names>
                        </name>
                    </person-group>
                    <source><bold>Dicionário de hermenêutica</bold>: quarenta temas fundamentais da teoria do direito à luz da crítica hermenêutica do Direito</source>
                    <publisher-loc>Belo Horizonte</publisher-loc>
                    <publisher-name>Letramento / Casa do Direito</publisher-name>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B33">
                <mixed-citation>SUSSER, Daniel; ROESSLER, Beate; NISSENBAUM, Helen. Technology, autonomy, and manipulation. <bold>Internet Policy Review</bold>, Berlin, v. 8, n. 2, [<italic>s.p.</italic>], 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SUSSER</surname>
                            <given-names>Daniel</given-names>
                        </name>
                        <name>
                            <surname>ROESSLER</surname>
                            <given-names>Beate</given-names>
                        </name>
                        <name>
                            <surname>NISSENBAUM</surname>
                            <given-names>Helen</given-names>
                        </name>
                    </person-group>
                    <article-title>Technology, autonomy, and manipulation</article-title>
                    <source>Internet Policy Review</source>
                    <publisher-loc>Berlin</publisher-loc>
                    <volume>8</volume>
                    <issue>2</issue>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B34">
                <mixed-citation>VÉLIZ, Carissa. Moral zombies: why algorithms are not moral agents. <bold>AI &amp; SOCIETY</bold>, [<italic>s.l.</italic>]. n. 36, p. 487-497, 2021.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VÉLIZ</surname>
                            <given-names>Carissa</given-names>
                        </name>
                    </person-group>
                    <article-title>Moral zombies: why algorithms are not moral agents</article-title>
                    <source>AI &amp; SOCIETY</source>
                    <comment>s.l.</comment>
                    <issue>36</issue>
                    <fpage>487</fpage>
                    <lpage>497</lpage>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B35">
                <mixed-citation>VÉLIZ, Carissa. <bold>Privacy is power</bold>: why and how you should take back control of your data. Londres: Transworld, 2020.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VÉLIZ</surname>
                            <given-names>Carissa</given-names>
                        </name>
                    </person-group>
                    <source><bold>Privacy is power</bold>: why and how you should take back control of your data</source>
                    <publisher-loc>Londres</publisher-loc>
                    <publisher-name>Transworld</publisher-name>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B36">
                <mixed-citation>VERBICARO, Dennis; HOMCI, Janaina Vieira. O tratamento de dados pessoais por serviços simbióticos no consumo digital. <bold>Revista de Direito do Consumidor</bold>, São Paulo, v. 152, a. 33, p. 75-100, 2024.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VERBICARO</surname>
                            <given-names>Dennis</given-names>
                        </name>
                        <name>
                            <surname>HOMCI</surname>
                            <given-names>Janaina Vieira</given-names>
                        </name>
                    </person-group>
                    <article-title>O tratamento de dados pessoais por serviços simbióticos no consumo digital</article-title>
                    <source>Revista de Direito do Consumidor</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <volume>152</volume>
                    <issue>33</issue>
                    <fpage>75</fpage>
                    <lpage>100</lpage>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B37">
                <mixed-citation>WACHTER, Sandra; MITTELSTADT, Brent. A right to reasonable inferences: re-thinking data protection law in the age of big data and AI. <bold>Columbia Business Law Review</bold>, New York, n. 2, [<italic>s.p.</italic>], 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WACHTER</surname>
                            <given-names>Sandra</given-names>
                        </name>
                        <name>
                            <surname>MITTELSTADT</surname>
                            <given-names>Brent</given-names>
                        </name>
                    </person-group>
                    <article-title>A right to reasonable inferences: re-thinking data protection law in the age of big data and AI</article-title>
                    <source>Columbia Business Law Review</source>
                    <publisher-loc>New York</publisher-loc>
                    <issue>2</issue>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B38">
                <mixed-citation>WINAU, Mona. Areas of tension in the application of AI and Data Protection Law. <bold>European Data Protection Law Review</bold>, Berlin, v. 9, n. 2, p. 123-135, 2023.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WINAU</surname>
                            <given-names>Mona</given-names>
                        </name>
                    </person-group>
                    <article-title>Areas of tension in the application of AI and Data Protection Law</article-title>
                    <source>European Data Protection Law Review</source>
                    <publisher-loc>Berlin</publisher-loc>
                    <volume>9</volume>
                    <issue>2</issue>
                    <fpage>123</fpage>
                    <lpage>135</lpage>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B39">
                <mixed-citation>WOLFGANG, Hoffmann-Riem. <bold>Teoria geral do direito digital</bold>. Trad. Ítalo Fuhrmann. 2. ed. Rio de Janeiro: Forense, 2022.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WOLFGANG</surname>
                            <given-names>Hoffmann-Riem</given-names>
                        </name>
                    </person-group>
                    <source>Teoria geral do direito digital</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Fuhrmann</surname>
                            <given-names>Ítalo</given-names>
                        </name>
                    </person-group>
                    <edition>2. ed</edition>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Forense</publisher-name>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B40">
                <mixed-citation>ZANFIR, Gabriela. Forgetting about consent: why the focus should be on “suitable safeguards” in Data Protection Law. In: GUTWIRTH, Serge; LEENES, Ronald; DE HERT, Paul (Ed.). <bold>Reloading data protection</bold>. [<italic>s. l.</italic>]: Springer / Dordrecht, 2014.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ZANFIR</surname>
                            <given-names>Gabriela</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Forgetting about consent: why the focus should be on “suitable safeguards” in Data Protection Law</chapter-title>
                    <person-group person-group-type="editor">
                        <name>
                            <surname>GUTWIRTH</surname>
                            <given-names>Serge</given-names>
                        </name>
                        <name>
                            <surname>LEENES</surname>
                            <given-names>Ronald</given-names>
                        </name>
                        <name>
                            <surname>DE HERT</surname>
                            <given-names>Paul</given-names>
                        </name>
                    </person-group>
                    <source>Reloading data protection</source>
                    <publisher-loc>s. l.</publisher-loc>
                    <publisher-name>Springer / Dordrecht</publisher-name>
                    <year>2014</year>
                </element-citation>
            </ref>
            <ref id="B41">
                <mixed-citation>ZUBOFF, Shoshana. <italic><bold>A era do capitalismo de vigilância</bold></italic>: a luta por um futuro humano na nova fronteira do poder. Trad. George Schlesinger. Rio de Janeiro: Intrínseca, 2020.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ZUBOFF</surname>
                            <given-names>Shoshana</given-names>
                        </name>
                    </person-group>
                    <source><italic><bold>A era do capitalismo de vigilância</bold></italic>: a luta por um futuro humano na nova fronteira do poder</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Schlesinger</surname>
                            <given-names>George</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Intrínseca</publisher-name>
                    <year>2020</year>
                </element-citation>
            </ref>
        </ref-list>
    </back>
</article>
