<?xml version="1.0" encoding="utf-8"?><!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">rdp</journal-id>
            <journal-title-group>
                <journal-title>Revista Direito Público</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Rev. Dir. Publico</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2236-1766</issn>
            <publisher>
                <publisher-name>Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.11117/rdp.v18i99.5741</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>Assunto Especial</subject>
                    <subj-group>
                        <subject>Dossiê – Democracia, <italic>Fake News</italic> e eleições</subject>
                    </subj-group>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>Combinando Bibliotecas de Anúncios com Checagem de Fatos para Aumentar a Transparência sobre a Desinformação<xref ref-type="fn" rid="fn01">1</xref></article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>Combining Ad Libraries with Fact Checking to Increase Transparency of Misinformation</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-8497-6291</contrib-id>
                    <name>
                        <surname>HARTMANN</surname>
                        <given-names>IVAR ALBERTO</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                    <xref ref-type="fn" rid="fn77"/>
                    <xref ref-type="corresp" rid="c01"/>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <institution content-type="orgname">Instituto de Ensino e Pesquisa</institution>
                <addr-line>
                    <named-content content-type="city">São Paulo</named-content>
                    <named-content content-type="state">SP</named-content>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Instituto de Ensino e Pesquisa (Insper). São Paulo (SP). Brasil.</institution>
            </aff>
            <author-notes>
                <fn fn-type="other" id="fn77">
                    <label>Ivar Alberto Hartmann</label>
                    <p>Professor Associado do Insper – SP. Doutor em Direito Público pela UERJ. Mestre em Direito Público pela PUC-RS. Mestre em Direito (LL.M.) pela Harvard Law School.</p>
                </fn>
                <corresp id="c01">E-mail: <email>ivarhartmann@gmail.com</email>
                </corresp>
            </author-notes>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2023</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <season>Jul-Sep</season>
                <year>2021</year>
            </pub-date>
            <volume>18</volume>
            <issue>99</issue>
            <fpage>470</fpage>
            <lpage>495</lpage>
            <history>
                <date date-type="received">
                    <day>30</day>
                    <month>06</month>
                    <year>2021</year>
                </date>
                <date date-type="accepted">
                    <day>18</day>
                    <month>10</month>
                    <year>2021</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution Non-Commercial</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais e que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMO</title>
                <p>Ainda que muitas pessoas associem <italic>fake news</italic> a políticos, um componente fundamental da atual crise de desinformação ameaçando democracias é o fenômeno de <italic>sites</italic> que produzem desinformação por razões comerciais. Pessoas e organizações sem escrúpulos lucram emulando o estilo de comunicação de veículos de imprensa tradicionais, mas sem o esforço para cumprir diretrizes jornalísticas básicas na produção de informação verídica. A razão pela qual esse modelo de negócios é viável é que uma parcela crescente do dinheiro para anúncios é alocada por algoritmos. Veículos obscuros não atrairiam receita substancial de propaganda se as empresas estivessem tomando decisões individualizadas sobre onde colocar seus anúncios. Mas o microdirecionamento removeu o incentivo dos anunciantes de associar sua marca somente a fontes de notícias com boa reputação. Em substituição ao antigo modelo, agora as empresas anunciantes recebem uma oferta de grupos demográficos cuidadosamente demarcados e tomam decisões baseadas em quem atingir com a propaganda, em vez de decisões sobre qual <italic>site</italic> patrocinar. Decisões automatizadas de alocação de anúncios podem ser obscuras até para os próprios anunciantes. Este artigo adota metodologia teórica para identificar uma possível solução para mitigar o problema. O resultado encontrado é de que uma resposta regulatória que criasse mais transparência para os anúncios algorítmicos, assim realinhando os incentivos dos anunciantes, negaria receita de propaganda a publicadores de desinformação prejudicial. A melhor forma de alcançar esse objetivo é fornecer às empresas anunciantes e ao público em geral um conjunto de dados detalhados em larga escala sobre gastos com propaganda que seja cruzado com bases de dados de checagem de fatos.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>While most people might associate fake news with politicians, a substantial component of the current misinformation crisis threatening democracies is websites producing misinformation for commercial reasons. Unscrupulous players profit by emulating the communication style of traditional news outlets, but without going through the effort of applying journalistic guidelines to produce accurate information. The reason this business model is viable is that an increasingly large share of advertising money is allocated by algorithms. Shady publishers would not attract substantial revenue if companies were making individualized choices of where to place their ads. But microtargeting has removed advertisers’ incentive to associate their brand solely with reputable news sources. Instead, companies are served neatly carved demographics, and make decisions based on who to target, rather than which website to sponsor. Automated decisions on ad placement can be obscure even to advertisers themselves. This paper adopts theoretical methodology to identify a possibly solution to mitigate the problem. The main finding is that a regulatory response which introduced more transparency to programmatic advertising, thus realigning the incentives of advertisers, would deny ad revenue to harmful misinformation publishers. The best way to achieve this is to provide companies, and the public, with access to large scale, detailed data on advertising spending that is cross-referenced against databases of fact-checked content.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>PALAVRAS-CHAVE</title>
                <kwd>
                    <italic>Fake news</italic>
                </kwd>
                <kwd>desinformação</kwd>
                <kwd>regulação de plataformas</kwd>
                <kwd>liberdade de expressão</kwd>
                <kwd>anúncios algorítmicos</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>KEYWORDS</title>
                <kwd>Fake news</kwd>
                <kwd>misinformation</kwd>
                <kwd>platform regulation</kwd>
                <kwd>freedom of expression</kwd>
                <kwd>algorithmic advertising</kwd>
            </kwd-group>
            <counts>
                <fig-count count="0"/>
                <table-count count="0"/>
                <equation-count count="0"/>
                <ref-count count="61"/>
                <page-count count="26"/>
            </counts>
        </article-meta>
    </front>
    <body>
        <p>SUMMARY: Introduction; 1 The problem; 2 Existing ad-transparency initiatives; 2.1 Ad libraries as a driver of accountability; 2.2 Shortcomings of ad libraries; 3 The proposed response; 3.1 Implementation; Conclusion; References.</p>
        <sec sec-type="intro">
            <title>INTRODUÇÃO</title>
            <p>Ainda que muitas pessoas associem <italic>fake news</italic> a políticos, um componente fundamental da atual crise de desinformação ameaçando democracias é o fenômeno de <italic>sites</italic> que produzem desinformação por razões comerciais<xref ref-type="fn" rid="fn03">3</xref>. A pandemia exacerbou esse problema, pois oferece solo fértil para teorias da conspiração e aqueles dispostos a publicá-las em troca de lucro com anúncios. Uma imprensa responsável não deveria satisfazer os desejos de seus leitores de eventualmente explicar problemas globais complexos com teorias infantis. Entretanto, pessoas e organizações sem escrúpulos lucram emulando o estilo de comunicação de veículos de imprensa tradicionais<xref ref-type="fn" rid="fn04">4</xref>, mas sem o esforço para cumprir diretrizes jornalísticas básicas na produção de informação verídica<xref ref-type="fn" rid="fn05">5</xref>.</p>
            <p>A razão pela qual esse modelo de negócios é viável é que uma parcela crescente do dinheiro para anúncios é alocada por algoritmos. Veículos obscuros não atrairiam receita substancial de propaganda se as empresas estivessem tomando decisões individualizadas sobre <italic>onde</italic> colocar seus anúncios. Mas o microdirecionamento removeu o incentivo dos anunciantes de associar sua marca somente a fontes de notícias com boa reputação. Em substituição ao antigo modelo, agora as empresas anunciantes recebem uma oferta de grupos demográficos cuidadosamente demarcados e tomam decisões baseadas em <italic>quem</italic> atingir com a propaganda, em vez de decisões sobre qual <italic>site</italic> patrocinar. Decisões automatizadas de alocação de anúncios podem ser obscuras até para os próprios anunciantes. Uma resposta regulatória que criasse mais transparência para os anúncios algorítmicos, assim realinhando os incentivos dos anunciantes, negaria receita de propaganda a publicadores de desinformação prejudicial. A melhor forma de alcançar esse objetivo é fornecer às empresas anunciantes e ao público em geral um conjunto de dados detalhados em larga escala sobre gastos com propaganda que seja cruzado com bases de dados de checagem de fatos.</p>
            <p>A checagem de fatos tornou-se popular nos últimos anos como uma defesa jornalística central contra a desinformação. Ao passo que seu uso para diretamente repelir <italic>fake news</italic> permanece crucial, a combinação de checagens de fatos com transparência aprimorada sobre anúncios pode servir para iluminar a trilha do dinheiro que estimula a produção de desinformação. A transparência poderia ajudar a ampliar a responsabilidade e a fiscalização dos anúncios algorítmicos, iluminando o caminho dos recursos financeiros até os veículos de <italic>fake news</italic>. Este artigo propõe um quadro de obrigações especiais de transparência por parte de plataformas de anúncios digitais para produzir maior informação pública sobre o perfil, tamanho e impacto da desinformação <italic>online</italic> subsidiada por anúncios<xref ref-type="fn" rid="fn06">6</xref>. A criação de repositórios de informação sob acesso aberto concernente aos recursos que custeiam o conteúdo depois visado pela checagem de fatos ampliaria o conhecimento público sobre o problema e seus padrões, oferecendo um desincentivo forte para empresas que atualmente patrocinam a desinformação por meio de anúncios microdirecionados.</p>
            <p>O objetivo deste artigo é sumarizar os problemas e os efeitos da desinformação com finalidade de lucro e de anúncios algorítmicos, oferecendo então uma proposta de solução para mitigar esses problemas. A metodologia adotada é teórica.</p>
            <p>A parte 2 deste artigo apresenta o problema: como anúncios algorítmicos colocam em risco a saúde da esfera pública. A parte 3 descreve a forma como as plataformas digitais voluntariamente passaram a disponibilizar bibliotecas de anúncios veiculados, incluindo listas de propagandas políticas e informações básicas sobre elas, constituindo uma das mais efetivas respostas ao problema até agora. A parte 4 oferece uma proposta para obrigar uma ampliação do escopo das bibliotecas de anúncios, cruzando-as com os resultados de processos de checagem de fatos. A parte 5 conclui.</p>
        </sec>
        <sec>
            <title>1 O PROBLEMA</title>
            <p>Em todas as democracias constitucionais, material publicado em <italic>sites</italic> comuns e <italic>blogs</italic> e financiado por propaganda na forma de <italic>banners</italic> é uma peça crucial do quebra-cabeças da desinformação <italic>online</italic><xref ref-type="fn" rid="fn07">7</xref>. O ganho financeiro é uma motivação para <italic>fake news</italic> tanto quanto o ganho político<xref ref-type="fn" rid="fn08">8</xref>. A desinformação com finalidade lucrativa ou desinformação abusiva é particularmente prejudicial a uma fórum público saudável porque é produzida com uma velocidade maior e disseminada de maneira organizada, orientada pelo objetivo do lucro. De fato, “o principal motivador por trás da recente explosão de <italic>fake news</italic> na internet é a receita de propaganda”<xref ref-type="fn" rid="fn09">9</xref>. Isso pode ser diferenciado de <italic>fake news</italic> postadas por razões puramente ideológicas e eleitorais, mesmo que atores políticos desempenhem um papel importante espalhando <italic>fake news</italic> de finalidade lucrativa produzida por terceiros<xref ref-type="fn" rid="fn10">10</xref>. A despeito de experimentos científicos cujos resultados sugerem que as pessoas conseguem (até certo ponto) identificar <italic>fake news</italic>, elas também são mais propensas a acreditar em desinformação alinhada com suas afiliações políticas<xref ref-type="fn" rid="fn11">11</xref>.</p>
            <p>A desinformação mascarada de jornalismo legítimo não é um novo fenômeno. O que fez a balanço pender a favor da desinformação nos últimos anos é o novo sistema de financiamento por meio de anúncios algorítmicos. Por meio desse sistema, os anunciantes escolhem o perfil demográfico das pessoas que gostariam que fossem expostas à sua propaganda e os algoritmos então escolhem o local de veiculação independentemente da integridade do conteúdo regularmente ali publicado<xref ref-type="fn" rid="fn12">12</xref>. Isso significa que as empresas não mais escolhem o local de seus anúncios de maneira consciente e com base na reputação do veículo de mídia.</p>
            <p>Parte do problema decorre da maneira como os modelos de negócio do Google e do Facebook interagem um com o outro<xref ref-type="fn" rid="fn13">13</xref>. O comportamento do usuário em relação a conteúdo pago ou promovido no Facebook é um fator determinante do fluxo de leitores para a desinformação fora da plataforma, hospedada em <italic>sites</italic> e <italic>blogs</italic>, que, por sua vez, são custeados por anúncios algorítmicos administrados pelo Google<xref ref-type="fn" rid="fn14">14</xref>. As duas empresas são profundamente interligadas no ecossistema de <italic>fake news</italic><xref ref-type="fn" rid="fn15">15</xref> e, mesmo após as iniciativas focadas em reduzir a desinformação desde 2016, elas continuam a explorá-la de forma lucrativa<xref ref-type="fn" rid="fn16">16</xref>.</p>
            <p>Como resultado, a infraestrutura essencial de financiamento da imprensa não consiste mais em decisões públicas e responsáveis sobre alocação de propaganda, em que empresas buscam associar sua imagem àquela de uma fonte de notícias de boa reputação. Em vez disso, os recursos de propaganda são guiados por decisões automatizadas realizadas por algoritmos obscuros que privilegiam a retroalimentação do sistema da plataforma digital. Esse é exatamente o “modelo necessário para que <italic>fake news</italic> possam florescer”<xref ref-type="fn" rid="fn17">17</xref>. Os algoritmos são treinados para oferecer conteúdo noticioso independentemente de sua integridade e de uma forma que tais decisões permanecem imunes ao escrutínio público. À medida que os <italic>sites</italic> de teorias da conspiração gradualmente aumentam sua receita, engolindo parcelas maiores da receita de anúncios que emana primariamente do Google Ads, seu modelo econômico compete com aquele de veículos legítimos de imprensa, sufocando-o<xref ref-type="fn" rid="fn18">18</xref>.</p>
            <p>Anúncios algorítmicos são movidos por microdirecionamento, que cria um déficit de responsabilidade pública. As pessoas sabem quais anúncios foram mostrados a elas, mas não possuem maneira sustentável de descobrir quais anúncios as plataformas digitais mostraram para terceiros<xref ref-type="fn" rid="fn19">19</xref>. O microdirecionamento também ameaça a saúde do discurso público ao fragmentar os eleitores em grupos cuja compreensão da realidade pode ser mutuamente incompatível ou exclusiva<xref ref-type="fn" rid="fn20">20</xref>. Adicionalmente, o microdirecionamento para propaganda eleitoral “tem um risco peculiar de dano não associado à propaganda eleitoral tradicional: a interferência com direitos à privacidade e à proteção de dados pessoais”<xref ref-type="fn" rid="fn21">21</xref>.</p>
            <p>A transparência importa porque afeta o comportamento dos cidadãos em relação à propaganda política e, portanto, as atitudes dos leitores em relação aos veículos que lucram com o uso de <italic>fake news</italic> para se aproveitar de controvérsias políticas. Em um experimento para testar o quão efetivas são as atuais medidas de transparência sobre anúncios de produtos comerciais adotadas pelo Facebook, Matthew T. Binford e vários coautores descobriram que elas não são suficientes para garantir a ciência dos usuários<xref ref-type="fn" rid="fn22">22</xref>. Eles não conseguem separar uma postagem natural de uma propaganda. No entanto, se os leitores sabem que a mensagem é um anúncio pago, eles atribuem-lhe menos credibilidade, compartilham-na com menos frequência e também adotam uma percepção mais negativa da marca<xref ref-type="fn" rid="fn23">23</xref>.</p>
            <p>Muito do atual fluxo de desinformação é fornecido por veículos cuja estrutura de incentivos é opaca. O sistema de anúncios algorítmicos recompensa editores cujas publicações são pensadas dentro da lógica de maximizar atenção – e nada mais. A transparência poderia iluminar os recursos bancando instâncias específicas de <italic>fake news</italic>, expondo publicadores desonestos. Com o tempo, isso mudaria o comportamento dos leitores em relação a tais veículos e impactaria negativamente a imagem da marca de seus anunciantes, envergonhando, assim, as empresas que alimentam o sistema contínuo de desinformação abusiva.</p>
        </sec>
        <sec>
            <title>2 AS INICIATIVAS EXISTENTES PARA TRANSPARÊNCIA SOBRE ANÚNCIOS</title>
            <sec>
                <title>2.1 Bibliotecas de anúncios como fomentadoras de responsabilidade</title>
                <p>A mais efetiva ferramenta de apoio à transparência ampliada no ecossistema de propaganda <italic>online</italic> tem sido a disponibilização de bibliotecas de anúncios. Trata-se de repositórios curados por plataformas digitais listando todo o conteúdo promovido e impulsionado, incluindo os metadados relevantes, como o dinheiro pago para aumentar o alcance de um <italic>post</italic> e a informação básica sobre as pessoas que realmente o visualizaram<xref ref-type="fn" rid="fn24">24</xref>. Facebook e Instagram lançaram uma biblioteca de anúncios em 2018<xref ref-type="fn" rid="fn25">25</xref>, seguidos pelo Twitter<xref ref-type="fn" rid="fn26">26</xref> e então o Google, embora o último apenas inclua na biblioteca anúncios sobre candidatos à eleição<xref ref-type="fn" rid="fn27">27</xref>.</p>
                <p>Existem diversos benefícios centrais que decorrem dessas bibliotecas, particularmente o fato de que elas revelam os recursos despejados no <italic>marketing</italic> político por meio de plataformas digitais de propaganda. As bibliotecas desacobertam o perfil e padrões de ação das operações não orgânicas em redes sociais encampadas por campanhas políticas. Isso permite que a imprensa, a academia e ONGs possam digerir essa informação e compartilhar suas análises com o público em geral. Se um <italic>post</italic> específico desinforma eleitores, há interesse público significativo na divulgação de dados sobre seu impulsionamento pago e os alvos – informações que eram totalmente inacessíveis antes das bibliotecas de anúncios. As bibliotecas fornecem conhecimento valioso sobre o conteúdo, autores e audiência de <italic>fake news</italic> artificialmente disseminada. Elas também permitem que pesquisadores observem o impacto de campanhas específicas após seu encerramento, procurando por mudanças no comportamento daqueles expostos à desinformação.</p>
                <p>Em adição aos esforços voluntários das plataformas digitais, muitos países pressionaram por transparência ampliada no contexto da propaganda digital por meio da regulação de deveres de divulgação de informações sobre anúncios algorítmicos, especialmente em conexão com eleições. O Código de Práticas sobre Desinformação da União Europeia de 2018 exige que as empresas aderindo ao Código promovam a disrupção de modelos de desinformação abusiva, restringindo a receita de propaganda adotando medidas que incluem parcerias com organizações de checagem de fatos<xref ref-type="fn" rid="fn28">28</xref>. Em 2019, a Comissão Europeia elogiou as bibliotecas de anúncios estabelecidas pelo Facebook, Google e Twitter, porém criticou suas deficiências de desenho (por deixar de fora anúncios sobre questões políticas) e de implementação (dificuldades técnicas severas no acesso aos dados)<xref ref-type="fn" rid="fn29">29</xref>.</p>
                <p>Nos Estados Unidos, um projeto de lei introduzido em 2019, chamado de <italic>Honest Ads Act</italic> (Lei das Propagandas Honestas), exigiria que as plataformas digitais, sob algumas circunstâncias específicas, publicassem “um arquivo público de todas as comunicações eleitorais compradas” que incluiria “uma cópia digital do anúncio, uma descrição da audiência visada pelo anúncio, o número de visualizações geradas, as datas e horários de publicação, as taxas cobradas e a informação de contato do contratante”<xref ref-type="fn" rid="fn30">30</xref>. O projeto faz parte de uma lista de propostas que o Congresso norte-americano está considerando em 2021 com o intuito de reduzir o poder das plataformas digitais e sua falta de responsabilidade<xref ref-type="fn" rid="fn31">31</xref>.</p>
                <p>No Brasil, o projeto conhecido como Lei das <italic>Fake News</italic> foi aprovado rapidamente no Senado em 2020 e continua em tramitação na Câmara dos Deputados em fevereiro de 2021. Entre as várias alterações legais, incluindo algumas muito problemáticas<xref ref-type="fn" rid="fn32">32</xref>, o projeto cria duas obrigações importantes para as empresas de redes sociais no que diz respeito às suas obrigações de divulgação de informações. Primeiro, elas são obrigadas a publicar uma base de dados aberta de todos os anúncios que mencionem um candidato, coalizão ou partido político, independentemente de tais anúncios terem sido veiculados durante uma campanha eleitoral. A base de dados deve incluir a identidade do anunciante, o total gasto e a duração da campanha. Segundo, inspirado na lei alemã <italic>Neztdurchsetzungsgesetz</italic> (Lei de Fiscalização da Rede), de 2017, o projeto obriga empresas a publicar relatórios quadrimestrais de moderação de conteúdo, incluindo estatísticas sobre por <italic>bots</italic> e redes de distribuição artificial de conteúdo, bem como sobre conteúdo impulsionado e publicitário não identificados como tal pelos autores e detectado pela plataforma, incluindo a medida adotada<xref ref-type="fn" rid="fn33">33</xref>.</p>
            </sec>
            <sec>
                <title>2.2 As insuficiências das bibliotecas de anúncios</title>
                <p>As bibliotecas de anúncios, em sua versão atual, padecem de uma série de deficiências. Primeiro, elas são limitadas em seu escopo. Abrangem apenas anúncios feitos por políticos, partidos e seus representantes. Os critérios de seleção são restritos à propaganda conectada às eleições e nem todas as bibliotecas incluem as propagandas sobre questões políticas controversas, as chamadas “<italic>issue ads</italic>”.</p>
                <p>Limitar os anúncios disponíveis nessas bibliotecas àqueles classificados como “políticos” falha em prover uma solução adequada para a identificação dos fluxos de desinformação<xref ref-type="fn" rid="fn34">34</xref>. Mesmo durante eleições, a desinformação abusiva não é oriunda apenas de <italic>sites</italic> e perfis explicitamente associados a candidatos e partidos. Os mecanismos de identificação e classificação utilizados para identificar propaganda política nas plataformas digitais também são suscetíveis a erros<xref ref-type="fn" rid="fn35">35</xref>. Usar automação para definir quais anúncios são de natureza política – porque seu conteúdo é político ou porque o <italic>site</italic> no qual foram veiculados é político – cria um risco severo para a acurácia, particularmente quando em combinação com a falta de dados confiáveis sobre a <italic>performance</italic> dos algoritmos de diferentes empresas. Além disso, esse método de separar anúncios políticos dos demais pode ser facilmente fraudado<xref ref-type="fn" rid="fn36">36</xref>.</p>
                <p>O segundo problema é que algumas bibliotecas cobrem apenas a propaganda feita durante o período eleitoral. A desinformação é um desafio para o debate público o ano inteiro, todos os anos, pois influencia aquilo que cidadãos fazem não apenas como eleitores, mas também na condição de comunicadores que guiam o discurso público. Felizmente, um ano após a criação de sua biblioteca de anúncios, o Facebook decidiu ampliar o escopo temporal para incluir qualquer anúncio em qualquer tipo de perfil ou página, no lugar de apenas aqueles classificados como propaganda política<xref ref-type="fn" rid="fn37">37</xref>. O Twitter deu um passo além e baniu a propaganda política por inteiro, porém não ofereceu informações sobre como irá aplicar essa regra aos anúncios sobre questões políticas<xref ref-type="fn" rid="fn38">38</xref>. O Twitter ainda não fornece dados sobre os anúncios que a própria plataforma considera não políticos.</p>
                <p>Um terceiro problema está relacionado às condições de acesso e usabilidade dos dados. A biblioteca do Facebook, por exemplo, é crivada de <italic>bugs</italic> que tornam impossível a extração da informação<xref ref-type="fn" rid="fn39">39</xref>. O requisito de que pesquisadores confirmem sua identidade antes de obter acesso também é problemático<xref ref-type="fn" rid="fn40">40</xref>. A informação de interesse público deveria ser de acesso aberto, em vez de restrita por meio de demandas de informações pessoais ou uma exigência de declarações sobre o propósito do acesso pelo cidadão<xref ref-type="fn" rid="fn41">41</xref>. As plataformas atualmente negam o acesso aos dados em grandes volumes, tanto diretamente, como faz o Twitter<xref ref-type="fn" rid="fn42">42</xref>, quanto indiretamente, como o Facebook, ao limitar o número de resultados devolvidos nas buscas pelos anúncios<xref ref-type="fn" rid="fn43">43</xref>. Ao passo que falhas técnicas provavelmente serão consertadas em algum momento, problemas de acesso derivados de opções deliberadas de desenho da biblioteca são mais preocupantes.</p>
                <p>O quarto problema está relacionado ao escopo geográfico inconsistente das bibliotecas. O Google fornece informações sobre anúncios apenas na Austrália, União Europeia, Reino Unido, Índia, Israel, Nova Zelândia, Taiwan e Estados Unidos. O Facebook inclui um número muito maior de países em mais continentes<xref ref-type="fn" rid="fn44">44</xref>. A biblioteca do Twitter, descontinuada desde que a empresa decidiu banir a propaganda política como um todo em 2019, oferece dados sobre anúncios políticos antigos direcionados à maioria dos países, porém a informação sobre anúncios de temas políticos é restrita aos Estados Unidos.</p>
                <p>Um quinto problema diz respeito à inconsistência nos dados catalogados pelas bibliotecas de anúncios. Dado o papel crucial que o microdirecionamento desempenha no sistema de financiamento de desinformação dos anúncios algorítmicos, as informações sobre as características da audiência escolhida pelo anunciante é vital para que as bibliotecas de anúncios possam preencher sua função. O Twitter inclui toda a informação sobre como o anúncio foi direcionado. O Google fornece informação sobre todas as opções de direcionamento disponíveis para propaganda política, nomeadamente localização geográfica, idade e gênero. O Facebook não oferece nenhuma informação sobre direcionamento, mas apenas dados sobre o perfil dos usuários que efetivamente visualizaram a propaganda<xref ref-type="fn" rid="fn45">45</xref>.</p>
                <p>Dentre esses cinco problemas, o escopo temático das bibliotecas de anúncios é o mais urgente. Ao restringir suas bibliotecas a anúncios “políticos” ou sobre “temas políticos”, Google e Twitter negam ao público acesso a dados vitais sobre desinformação abusiva que frequentemente não se encaixa facilmente em tais categorias. <italic>Fake news</italic> não é um problema exclusivamente <italic>sobre</italic> eleições ou <italic>durante</italic> eleições; é uma doença da esfera pública em rede que, por sua vez, prejudica o funcionamento da democracia<xref ref-type="fn" rid="fn46">46</xref>. Mensagens e <italic>sites</italic> com teorias da conspiração sobre o coronavírus, por exemplo, mostraram-se um pesadelo para as autoridades públicas de saúde em 2020, com efeitos reais no contexto político<xref ref-type="fn" rid="fn47">47</xref>.</p>
                <p>Além do mais, a desinformação não é produzida e disseminada apenas por políticos ou partidos<xref ref-type="fn" rid="fn48">48</xref>. Muito do conteúdo falso publicado em <italic>sites</italic> não tem conexão direta com políticos específicos. <italic>Fake news</italic> antivacina que dificulta as iniciativas de inoculação contra a Covid-19 é um problema mais imediato do que a difamação de candidatos a cargo público e que possui implicações muito mais profundas<xref ref-type="fn" rid="fn49">49</xref>.</p>
                <p>Uma quantia significativa do dinheiro que estimula a desinformação está ausente das bibliotecas de anúncios de Google e Twitter em razão da escolha de desenho que limita a transparência apenas a anúncios “políticos” ou sobre “temas políticos”. Isso impede a sociedade civil de acessar e analisar dados valiosos sobre como <italic>fake news</italic> é promovida, ou de questionar o papel mais amplo da propaganda no ecossistema de desinformação. Da mesma forma, a biblioteca de anúncios do Facebook junta uma quantidade maciça de anúncios sem opções de classificação que tornem possível isolar anúncios de <italic>fake news</italic>. As seções seguintes apresentam uma proposta para remediar tais deficiências, por meio da obrigação de que todas as bibliotecas de anúncios se elevem a um <italic>standard</italic> comum mais exigente, de modo a facilitar a fiscalização do ecossistema de desinformação.</p>
            </sec>
        </sec>
        <sec>
            <title>3 A SOLUÇÃO PROPOSTA</title>
            <p>Este artigo propõe que todas as grandes plataformas<xref ref-type="fn" rid="fn50">50</xref> sejam forçadas a criar e manter bibliotecas de todo o conteúdo pago ou patrocinado, populadas de acordo com critérios universais, incluindo metadados sobre a URL, o conteúdo, a identidade do anunciante, o valor gasto e todas as opções de direcionamento de usuários selecionadas pelo anunciante. O conjunto de informações sobre cada anúncio e os requisitos de forma de acesso nessa proposta criam obrigações que vão além das atuais bibliotecas voluntárias. Essa transparência ampliada pode não ser necessária em todos os casos, mas a proposta descrita aqui tem como alvo um grupo específico de conteúdo pago ou patrocinado que tem uma indicação forte de abuso: conteúdo que foi objeto de checagem de fatos realizada por organizações acreditadas de checagem. As bibliotecas deveriam ser desenhadas com atenção à facilidade de uso, particularmente por usuários com habilidades sofisticadas, incluindo a garantia de que o material seja publicado em formato aberto e legível por máquina.</p>
            <p>O repositório completo deve estar disponível para <italic>download</italic>, e ideal-mente deveria existir a opção de selecionar dados de acordo com um período temporal específico. O acesso não deveria ser prejudicado pela oferta apenas de resultados para buscas limitadas, ou de visualizações apresentadas em painéis interativos. Tais funções são úteis para determinadas categorias de usuários, mas elas deveriam ser oferecidas como uma alternativa ao <italic>download</italic> dos dados crus. É vital que usuários com mais experiência possam facilmente obter a totalidade dos dados relevantes que buscam.</p>
            <p>O elemento mais inovador dessa proposta é o critério de permitir que a biblioteca de anúncios seja cruzada com os resultados de checagens de fatos. Para servir como uma ferramenta robusta contra a desinformação, bibliotecas de anúncios deveriam ser classificadas de acordo com “avaliações da validade de afirmações feitas por servidores públicos e instituições com uma tentativa explícita de identificar se a afirmação é factual”<xref ref-type="fn" rid="fn51">51</xref>.</p>
            <p>Para ser claro, o ponto não é que todo o conteúdo pago ou promovido deveria ser subsequentemente objeto de checagem de fatos. Essa medida seria proibitivamente cara e ampla em demasia. No lugar disso, as plataformas devem cruzar suas bases de dados de conteúdo promovido, de um lado, com as bases de dados de conteúdo que foi sujeitado a checagem de fatos, do outro, de forma que seja possível produzir uma nova base de dados aberta abrangendo todo o conteúdo que foi promovido e que sofreu checagem de fatos. Ainda que exista um custo de classificar o conteúdo promovido dessa forma, esse é um fardo razoável para as plataformas digitais, considerando seu papel no problema.</p>
            <p>O objetivo dessa proposta é menos aumentar as chances de que pessoas expostas a anúncios falsos sejam inoculadas com a checagem dos fatos e mais viabilizar escrutínio público ampliado sobre o ecossistema de desinformação. De qualquer forma, os efeitos testados da checagem de fatos de desinformação importam. Mesmo antes de 2016, estudos científicos já apontavam para a habilidade da checagem de fatos de influenciar a opinião do leitor<xref ref-type="fn" rid="fn52">52</xref>. Pessoas com maior experiência e conhecimento sobre política têm chance maior de serem influenciadas por resultados de checagem de fatos, ainda que tais iniciativas possam surtir algum efeito também com leitores menos letrados em política<xref ref-type="fn" rid="fn53">53</xref>. Com efeito, os resultados das checagens de fatos podem “afetar positivamente crenças, independentemente da ideologia política, posições preexistentes, contexto (campanha <italic>vs.</italic> comum), e se o leitor refuta a afirmação falsa por inteiro ou apenas partes da afirmação”, ainda que isso tenha menos efeito durante as eleições<xref ref-type="fn" rid="fn54">54</xref>.</p>
            <p>Assim como a moderação algorítmica ofusca quais notícias são realmente mostradas em <italic>feeds</italic> recomendados e popularmente lidas, frustrando a responsabilidade de plataformas de rede social<xref ref-type="fn" rid="fn55">55</xref>, anúncios algorítmicos escondem onde a empresa alocou o anúncio, o que impede a responsabilidade pública tanto do veículo quanto do anunciante<xref ref-type="fn" rid="fn56">56</xref>. A ampliação da clareza e acessibilidade das bibliotecas de anúncios não apenas entregaria informação útil para a sociedade em geral, mas também para as próprias empresas pagando pelos anúncios, dando a elas consciência sobre onde suas propagandas aparecem e, assim, alguma parcela do controle que os anúncios algorítmicos furtaram.</p>
            <p>A organização ativista global Sleeping Giants, que trabalha para pressionar anunciantes que apoiam conteúdo problemático, atualmente emprega uma estratégia efetiva baseada em registrar manualmente imagens de anúncios veiculados em <italic>sites</italic> específicos. Com as bibliotecas de anúncios aqui propostas, as plataformas digitais iriam publicar esse material automaticamente, permitindo que campanhas contra a desinformação sujeita a checagem de fatos possam escalar de maneira efetiva. Organizações da sociedade civil, a academia e a imprensa teriam acesso a material muito mais relevante com o qual engajar o debate público sobre a desinformação. É evidente que o “ativismo em torno dos anúncios algorítmicos é necessariamente complexo e, portanto, desafiador”<xref ref-type="fn" rid="fn57">57</xref>. No entanto, percepções públicas sobre marcas que inadvertidamente financiam desinformação são uma peça chave do quebra-cabeças, como o trabalho da Sleeping Giants demonstra<xref ref-type="fn" rid="fn58">58</xref>. As evidências demonstram que a associação às <italic>fake news</italic> impacta adversamente a imagem pública das empresas, fazendo o leitor desacreditar no veículo de mídia. Níveis mais baixos de credibilidade da fonte, por sua vez, impactam negativamente a opinião do leitor sobre a marca anunciada<xref ref-type="fn" rid="fn59">59</xref>. Um “novo movimento de consumidores está surgindo” por meio dessa dinâmica de exposição<xref ref-type="fn" rid="fn60">60</xref>, garantindo tração a ferramentas tradicionais de regulação como a transparência, em combinação com efeitos de mercado como a percepção sobre marcas e a gestão de reputação corporativa.</p>
            <sec>
                <title>3.1 Implementação</title>
                <p>Essa proposta é uma variação da uma iniciativa que Facebook, Google e Twitter já adotaram, o que sugere que não seria excessivamente custosa ou desafiadora para implementar<xref ref-type="fn" rid="fn61">61</xref>. Como uma resposta regulatória, ela não nega aos consumidores nenhum serviço ou função e, portanto, não sufoca a inovação<xref ref-type="fn" rid="fn62">62</xref>. Facebook, Google e Twitter, cada uma oferece alguns dos componentes descritos acima, mas nunca todos eles conjuntamente. Entretanto, ainda que as bibliotecas de anúncios já existem em diferentes formatos, uma versão mais ampla, combinada com bases de dados internacionais de checagem de fatos, seria um grande passo adiante em termos de apoiar o trabalho crítico feito pela sociedade civil e por jornalistas no sentido de jogar luz sobre como a desinformação se espalha. É importante destacar, de qualquer forma, que essa proposta não importa, de maneira alguma, na remoção de informações já presentes em bibliotecas de anúncios quando elas não têm relação com checagem de fatos. A proposta é sobre a obrigação de publicação de dados adicionais em formato específico, não sobre apagar informações já em domínio público.</p>
                <p>Abby Wood e Ann Ravel argumentaram que a disponibilidade de listas abertas de anúncios permitiria que cidadãos viessem a saber quando são o alvo de esquemas abusivos de desinformação no estilo “dividir e conquistar”, perpetrados por meio de anúncios algorítmicos, ao mesmo tempo impedindo que anúncios sejam usados para inviabilizar o direito de resposta<xref ref-type="fn" rid="fn63">63</xref>. Da mesma forma, aprimorar a transparência no contexto da propaganda digital serviria de apoio a projetos como o NewsGuard, que trabalham com a “indústria de propaganda para tornar disponíveis para anunciantes em plataformas de grande escala índices apolíticos e transparentes de confiabilidade de <italic>sites</italic> de notícias”<xref ref-type="fn" rid="fn64">64</xref>. Um dos principais desafios de enfrentar a desinformação abusiva é que não sabemos o que não sabemos<xref ref-type="fn" rid="fn65">65</xref>. Idealmente, a pesquisa empírica sobre práticas de plataformas digitais deveria informar a regulação inteligente. Em seu formato atual, a lei frequentemente empodera empresas para processar pesquisadores que obtiveram e usaram informações publicamente disponíveis em suas plataformas digitais<xref ref-type="fn" rid="fn66">66</xref>.</p>
                <p>O aspecto mais desafiador sob o ponto de vista técnico dessa proposta é que as plataformas teriam que decidir se vastas quantidades de conteúdo promovido que elas hospedam sofreram checagem de fatos. Ainda que seja muito fácil criar uma lista de URLs com conteúdo que foi sujeito a checagens, é bem mais complicado empreender uma análise sobre se tal conteúdo aparece em outros lugares. Fazer isso quando o conteúdo é constituído por vídeos ou imagens adiciona ainda mais uma camada de complexidade.</p>
                <p>Entretanto, ao considerar os desafios técnicos subjacentes, vale a pena levar em conta que as plataformas digitais possuem anos de experiência na identificação automatizada de tipos específicos de conteúdo. A implementação da proposta, seja em cumprimento com uma alteração legislativa, seja de maneira voluntária, exigiria um esforço de organização ou moderação de conteúdo que é automático, transparente, <italic>ex post</italic> e centralizado<xref ref-type="fn" rid="fn67">67</xref>. A inteligência artificial já é um fator comum na moderação de conteúdo <italic>online</italic>, e técnicas como o desenvolvimento de redes adversariais aumentaram bastante a precisão de decisões automatizadas<xref ref-type="fn" rid="fn68">68</xref>. O Google, por exemplo, notoriamente usa IA em sua função Content ID para tomar decisões sobre moderação. Existem críticas relevantes à maneira como o Content ID foi implementado para <italic>remover conteúdo produzido por usuários</italic><xref ref-type="fn" rid="fn69">69</xref>, mas tais preocupações não se aplicam da mesma forma no que diz respeito a decisões automatizadas para produzir bibliotecas de anúncios. No caso da proposta aqui descrita, falsos positivos são um problema apenas na medida em que podem prejudicar a eficácia da biblioteca como uma ferramenta para a transparência. Eles não causam o mesmo tipo de risco para a liberdade de expressão que o uso do Content ID.</p>
                <p>Outro elemento mais complexo é a decisão sobre quais repositórios de checagem de fatos utilizar. Se as plataformas se recusarem a implementar essa proposta voluntariamente, desenhar uma estrutura regulatória que definisse o perfil de uma checagem “aceitável” poderia tanto ser desafiador tecnicamente quanto, em alguns casos, fomentar questões constitucionais difíceis. Qualquer exigência regulatória teria que ser precisa o suficiente para viabilizar a fiscalização sobre o cumprimento, mas a tarefa de definir o escopo do repositório seria idealmente delegada a uma agência independente. Existem inúmeras agências de checagem de fatos operando em diferentes países<xref ref-type="fn" rid="fn70">70</xref>, sob sistemas de governança variados, como o modelo de sala de edição e o modelo ONG, com níveis diversos de transparência em relação às fontes<xref ref-type="fn" rid="fn71">71</xref>.</p>
                <p>Um ponto de partida poderia ser de deferência em relação à Agência Internacional de Checagem de Fatos e, particularmente, aos signatários de seu código de princípios<xref ref-type="fn" rid="fn72">72</xref>. A lista atualmente contém 29 membros, incluindo países como África do Sul, França, Espanha, Estados Unidos, Brasil, Sérvia, Turquia e Bósnia Herzegovina. O Reporter’s Lab da Universidade de Duke gerencia uma base de dados separada de mais de 300 instituições ativas de checagem de fatos no mundo inteiro que preencheram determinados critérios, incluindo transparência de fontes, revelação de afiliações, e uma prática balanceada de checar afirmações de diferentes partidos políticos<xref ref-type="fn" rid="fn73">73</xref>. Essas listas poderiam ser um começo para determinar os parâmetros das bibliotecas de anúncios.</p>
            </sec>
        </sec>
        <sec sec-type="conclusions">
            <title>CONCLUSÃO</title>
            <p>Os anúncios algorítmicos retiraram a transparência da alocação de anúncios e restringiram as escolhas dos anunciantes nas suas decisões sobre quem apoiar. O microdirecionamento seleciona com base em conjuntos específicos de olhos em vez de com base na localização dos anúncios, fazendo a reputação do veículo de mídia não ser mais um elemento que diretamente influencia qual anúncio é mostrado onde. Isso tem um impacto negativo no valor comercial de <italic>standards</italic> jornalísticos e acaba secando os recursos de veículos honestos de imprensa, direcionando um fluxo constante de verba opaca para <italic>sites</italic> de teorias da conspiração.</p>
            <p>A transparência constitui uma medida estrutural para combater a desinformação, por meio da qual a regulação cria obrigações ampliadas de divulgação de informações que desacobertam a trilha de dinheiro das <italic>fake news</italic> com finalidade lucrativa. No lugar de respostas regulatórias de estilo “comando e controle” que estimulam mais censura privada praticada pelas plataformas com o intuito de suprimir conteúdo abusivo e, ao mesmo tempo, que negam um papel relevante para a sociedade civil<xref ref-type="fn" rid="fn74">74</xref>, essa solução escolhe as obrigações de transparência como uma garantia de procedimento<xref ref-type="fn" rid="fn75">75</xref>. Nos últimos anos, as plataformas digitais criaram repositórios de anúncios políticos para tentar remediar o problema. Tais iniciativas, no entanto, são fundamentalmente falhas porque seus critérios de visibilidade são desequilibrados no sentido de mirar mais propaganda eleitoral e porque não conseguem iluminar, de forma abrangente, o financiamento que estimula a produção de desinformação.</p>
            <p>As plataformas deveriam incluir em suas bibliotecas de anúncios informações sobre a promoção e o subsídio financeiro de qualquer conteúdo que tenha sido sujeito à checagem de fatos, independentemente de as plataformas acreditarem que tal conteúdo é “político”. Essa não é uma medida revolucionária que origine novos custos significativos, mas sim um próximo passo lógico em uma política que as plataformas já reconheceram ser necessária e passaram a gradualmente implementar.</p>
            <p>Na adesão a essa resposta regulatória, o Poder Público deveria reconhecer o papel central desempenhado pelas agências de checagem de fatos em uma esfera pública saudável e, assim, evitar medidas muito mais hostis, complexas e restritivas da liberdade de expressão que privilegiariam obrigações de remoção direta de desinformação e acabariam por conceder às plataformas digitais poder e responsabilidades indevidos sobre o debate público<xref ref-type="fn" rid="fn76">76</xref>. Bibliotecas aprimoradas de anúncios são uma resposta natural porque consertam o problema da obscuridade na divulgação, realinhando os incentivos de anunciantes e veículos de mídia sem pender para formas problemáticas de censura.</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other" id="fn01">
                <label>1</label>
                <p>Artigo originalmente publicado em inglês no volume KARANICOLAS, Michael (ed.). Tackling the “Fake” Without Harming the “News” A Paper Series on Regulatory Responses to Misinformation. Wikimedia/Yale Law School Initiative on Intermediaries and Information, 2021. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.publicknowledge.org/wp-content/uploads/2021/03/YaleLawSchool_WhitePaper_Misinformation_v3-1.pdf">https://www.publicknowledge.org/wp-content/uploads/2021/03/YaleLawSchool_WhitePaper_Misinformation_v3-1.pdf</ext-link>. Acesso em: 21 out 2021.</p>
            </fn>
        </fn-group>
        <fn-group>
            <fn fn-type="other" id="fn03">
                <label>3</label>
                <p><xref ref-type="bibr" rid="B03">ALLCOTT, Hunt; GENTZKOW, Matthew. Social media and fake news in the 2016 election. <italic>Journal of Economic Perspectives</italic>, v. 31, n. 2, p. 218, 2017</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn04">
                <label>4</label>
                <p><xref ref-type="bibr" rid="B38">LAZER, David M. al. The science of fake news. <italic>Science</italic>, n. 359, p. 1094, 2018</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p><xref ref-type="bibr" rid="B03">ALLCOTT e GENTZKOW, 2017</xref>, p. 213.</p>
            </fn>
            <fn fn-type="other" id="fn06">
                <label>6</label>
                <p>As reações à lei alemã <italic>Neztdurchsetzungsgesetz</italic> (Lei de Fiscalização da Rede ou NetzDG) apontam, de forma ilustrativa, o <italic>chilling effect</italic> da regulação “comando e controle” do conteúdo em redes sociais e sua restrição desproporcional do direito à liberdade de expressão. Ver, por exemplo, <xref ref-type="bibr" rid="B52">SPINDLER, Gerald. Internet Intermediary Liability Reloaded The New German Act on Responsibility of Social Networks and its (In-) Compatibility with European Law. <italic>JIPITEC</italic>, n. 8, 2017</xref>. Por outro lado, a seção da NetzDG que cria obrigações de transparência para redes sociais no que diz respeito às suas práticas de moderação está alinhada com o foco em transparência da presente proposta. Até agora, parece que o principal obstáculo no cumprimento da lei tem sido o fato de que as empresas direcionam usuários a registrar reclamações sobre conteúdo com fundamentos diferentes daqueles previstos na lei, de forma que uma grande parcela de decisões de moderação fica fora do escopo dos relatórios de transparência. <xref ref-type="bibr" rid="B57">WAGNER, Ben Wagner et al. Regulating transparency? Facebook, Twitter and the German Network Enforcement Act. <italic>FAT* ‘20: Conference on Fairness, Accountability, and Transparency</italic>, 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://dl.acm.org/doi/abs/10.1145/3351095.3372856">https://dl.acm.org/doi/abs/10.1145/3351095.3372856</ext-link>. Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn07">
                <label>7</label>
                <p><xref ref-type="bibr" rid="B27">GRAHAM, Richard Graham. Google and advertising: digital capitalism in the context of Post-Fordism, the reification of language, and the rise of fake news. <italic>Palgrave Communications</italic>, v. 3, n. 45, p. 12, 2017</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn08">
                <label>8</label>
                <p><xref ref-type="bibr" rid="B17">DI DOMENICO, Giandomenico et al. Fake news, social media and marketing: a systematic review. <italic>Journal of Business Research</italic>, n. 124, p. 337, 2021</xref>. Existe também uma terceira motivação, baseada em instintos de veia anarquista e ligados àquilo que tem se denominado de “trollagem”, e que é mais resistente à checagem de fatos tradicional. Ver <xref ref-type="bibr" rid="B08">BOREL, Brooke. Fact-checking won’t save us from fake news. <italic>FiveThirtyEight</italic>, 4 jan. 2017</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://fivethirtyeight.com/features/fact-checking-wont-save-us-from-fake-news/">https://fivethirtyeight.com/features/fact-checking-wont-save-us-from-fake-news/</ext-link>. Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn09">
                <label>9</label>
                <p><xref ref-type="bibr" rid="B43">MILLS, Adam J.; PITT, Christine; FERGUSON, Sarah Lord. The relationship between fake news and advertising brand management in the era of programmatic advertising and prolific falsehood. <italic>Journal of Advertising Research</italic>, v. 59, n. 1, p. 4, 2019</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn10">
                <label>10</label>
                <p>“<italic>Carroll estimated that a fake-news share from within the Trump campaign could earn the lucky hoaxer as much as $10,000 in extra revenue, provided they have taken full advantage of the ad services available to them. That’s a ‘huge economic incentive to create stories that they want to distribute’</italic>.” (<xref ref-type="bibr" rid="B44">OHLHEISER, Abby. This is how Facebook’s fake-news writers make money. <italic>The Washington Post</italic>, 18 nov. 2016</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.washingtonpost.com/news/the-intersect/wp/2016/11/18/this-is-how-the-internets-fake-news-writers-make-money/">https://www.washingtonpost.com/news/the-intersect/wp/2016/11/18/this-is-how-the-internets-fake-news-writers-make-money/</ext-link> Acesso em: 1º fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn11">
                <label>11</label>
                <p><xref ref-type="bibr" rid="B29">GUESS, Andrew et al. Fake news, Facebook ads, and misperceptions. Assessing information quality in the 2018 U.S. midterm election campaign. <italic>Working Paper</italic>, p. 21, 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="http://www.dartmouth.edu/~nyhan/fake-news-2018.pdf">http://www.dartmouth.edu/~nyhan/fake-news-2018.pdf</ext-link>. Acesso em: 30 jun. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn12">
                <label>12</label>
                <p>“<italic>When brands can track desirable users across the web, they not only have less incentive now than they once did to think about editorial context, they may see a benefit in reaching those users in the cheapest possible spaces – spaces that tend not to belong to reputable publishers, but to clickbait artists</italic>.” (<xref ref-type="bibr" rid="B09">BRAUN, Joshua A.; COAKLEY, John D.; WEST, Emily. Activism, advertising, and far-right media: the case of Sleeping Giants. <italic>Media and Communication</italic>, v. 7, n. 4, p. 70, 2019</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn13">
                <label>13</label>
                <p>“<italic>Combined with the media specific characteristics of search engine results and social media feeds that decontextualize individual articles and present a diverse range of content, Google and Facebook encourage a logic that incentives clickbait headlines. [&#x2026;] As long as profits are tied directly to how much an article is shared or viewed then very particular kinds of media content will continue to be incentivized over others. Fake news is just one example to consider when investigating how Google creates avenues for profit and how Google’s economics co-depend on other online institutions, in particular, Facebook.</italic>” (<xref ref-type="bibr" rid="B27">GRAHAM, 2017</xref>, p. 17)</p>
            </fn>
            <fn fn-type="other" id="fn14">
                <label>14</label>
                <p><xref ref-type="bibr" rid="B06">BELL, Emily; OWEN, Taylor. The platform press: how silicon valley reengineered journalism. <italic>Tow Center for Digital Journalism</italic>, 29 mar. 2017</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.cjr.org/tow_center_reports/platform-press-how-silicon-valley-reengineered-journalism.php">https://www.cjr.org/tow_center_reports/platform-press-how-silicon-valley-reengineered-journalism.php</ext-link>. Acesso em: 1º fev. 2021. Já é famosa a história dos produtores de <italic>fake news</italic> da Macedônia que obtiveram um lucro proporcionalmente alto: “<italic>He claims to have earned up to $2,500 a day from advertising on his website, while the average monthly income in Macedonia is just $426</italic>” (<xref ref-type="bibr" rid="B16">DAVEY-ATTLEE, Florence; SOARES, Isa. The fake news machine: inside a town gearing up for 2020. <italic>CNN</italic>, 13 set. 2017</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://money.cnn.com/interactive/media/the-macedonia-story/">https://money.cnn.com/interactive/media/the-macedonia-story/</ext-link> Acesso em: 1º fev. 2021).</p>
            </fn>
            <fn fn-type="other" id="fn15">
                <label>15</label>
                <p><xref ref-type="bibr" rid="B43">MILLS, PITT e FERGUSON, 2019</xref>, p. 5. Ver também GRAHAM, op. cit., p. 17.</p>
            </fn>
            <fn fn-type="other" id="fn16">
                <label>16</label>
                <p><xref ref-type="bibr" rid="B42">MERRILL, Jeremy; ALLEN, Marshall. “Trumpcare” does not exist. Nevertheless Facebook and Google Cash in on Misleading Ads for “Garbage” Health Insurance. <italic>ProPublica</italic>, 20 out. 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.propublica.org/article/trumpcare-does-not-exist-nevertheless-facebook-and-google-cash-in-on-misleading-ads-for-garbage-health-insurance">https://www.propublica.org/article/trumpcare-does-not-exist-nevertheless-facebook-and-google-cash-in-on-misleading-ads-for-garbage-health-insurance</ext-link> Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn17">
                <label>17</label>
                <p><xref ref-type="bibr" rid="B27">GRAHAM, 2017</xref>, p. 14.</p>
            </fn>
            <fn fn-type="other" id="fn18">
                <label>18</label>
                <p><xref ref-type="bibr" rid="B09">BRAUN, Joshua A.; EKLUND, Jessica L. Fake news, real money: ad tech platforms, profit-driven hoaxes, and the business of journalism. <italic>Digital Journalism</italic>, v. 7, n. 1, p. 19, 2019</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn19">
                <label>19</label>
                <p><xref ref-type="bibr" rid="B29">GUESS et al., 2019</xref>, p. 2.</p>
            </fn>
            <fn fn-type="other" id="fn20">
                <label>20</label>
                <p><xref ref-type="bibr" rid="B60">WOOD, Abby K.; RAVEL, Ann M. Fool me once: regulating fake news and other online advertising. <italic>California Law Review</italic>, n. 91, p. 1236, 2018</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn21">
                <label>21</label>
                <p><xref ref-type="bibr" rid="B18">DOBBER, Tom; FATHAIGH, Ronan Ó; BORGESIUS, Frederik J. Zuiderveen. The regulation of online political micro-targeting in Europe. <italic>Internet Policy Review</italic>, v. 8, n. 4, p. 13, 2019</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn22">
                <label>22</label>
                <p><xref ref-type="bibr" rid="B07">BINFORD, Matthew T. et al. Invisible transparency: visual attention to disclosures and source recognition in Facebook political advertising. <italic>Journal of Information Technology &amp; Politics</italic>, 2020</xref>, ahead of print, p. 11. Um político menos conhecido no anúncio parece tornar as pessoas incapazes de lembrar que se tratava de um anúncio, o que significa que o risco de propaganda explicitamente marcada não ser reconhecida como tal é alto.</p>
            </fn>
            <fn fn-type="other" id="fn23">
                <label>23</label>
                <p>Id., p. 4.</p>
            </fn>
            <fn fn-type="other" id="fn24">
                <label>24</label>
                <p><xref ref-type="bibr" rid="B50">SERRANO, Juan Carlos Medina et al. Exploring Political Ad Libraries for Online Advertising Transparency: Lessons from Germany and the 2019 European Elections. <italic>SMSociety’20: International Conference on Social Media and Society</italic>, p. 111, 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://dl.acm.org/doi/abs/10.1145/3400806.3400820">https://dl.acm.org/doi/abs/10.1145/3400806.3400820</ext-link>. Acesso em: 2 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn25">
                <label>25</label>
                <p>“<italic>The labeling won’t just apply to candidate and election ads, but those dealing with political issues such as ‘abortion, guns, immigration or foreign policy’</italic>.” (<xref ref-type="bibr" rid="B14">CONSTANTINE, John. Facebook and Instagram launch US political ad labeling and archive. <italic>TechCrunch</italic>, 24 maio 2018</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://techcrunch.com/2018/05/24/facebook-political-ad-archive/">https://techcrunch.com/2018/05/24/facebook-political-ad-archive/</ext-link>). A biblioteca, inicialmente chamada de “Ad Archive”, está disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.facebook.com/ads/library/">https://www.facebook.com/ads/library/</ext-link>. Acesso em: 2 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn26">
                <label>26</label>
                <p><xref ref-type="bibr" rid="B30">HA, Anthony. Twitter launches its Ads Transparency Center, where you can see ads bought by any account. <italic>TechCrunch</italic>, 28 jun. 2018</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://techcrunch.com/2018/06/28/twitter-ads-transparency-center/">https://techcrunch.com/2018/06/28/twitter-ads-transparency-center/</ext-link>. A biblioteca está disponível em: <ext-link ext-link-type="uri" xlink:href="https://business.twitter.com/en/help/ads-policies/product-policies/ads-transparency.html">https://business.twitter.com/en/help/ads-policies/product-policies/ads-transparency.html</ext-link>. Acesso em: 2 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn27">
                <label>27</label>
                <p><xref ref-type="bibr" rid="B32">HATMAKER, Taylor. Google releases a searchable database of US political ads. <italic>TechCrunch</italic>, 15 ago. 2018</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://techcrunch.com/2018/08/15/google-political-ad-library/">https://techcrunch.com/2018/08/15/google-political-ad-library/</ext-link>. A biblioteca está disponível em: <ext-link ext-link-type="uri" xlink:href="https://transparencyreport.google.com/political-ads/home">https://transparencyreport.google.com/political-ads/home</ext-link>. Acesso em: 2 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn28">
                <label>28</label>
                <p>“<italic>Relevant Signatories commit to deploy policies and processes to disrupt advertising and monetization incentives for relevant behaviors, such as misrepresenting material information about oneself or the purpose of one’s properties. These policies and processes can include, for example, the restriction of advertising services or limiting paid placements, and could potentially take place in partnership with fact-checking organizations</italic>.” (<xref ref-type="bibr" rid="B54">UNIÃO EUROPEIA. <italic>Código de Práticas sobre Desinformação da União Europeia</italic>, p. 5, 2018</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454">https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454</ext-link>. Acesso em: 3 fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn29">
                <label>29</label>
                <p>“<italic>In particular, Facebook and Twitter have made political advertisement libraries publicly accessible, while Google’s library has entered a testing phase. This provides the public with more transparency around political ads. However, further technical improvements as well as sharing of methodology and data sets for fake accounts are necessary to allow third-party experts, fact-checkers and researchers to carry out independent evaluation. At the same time, it is regrettable that Google and Twitter have not yet reported further progress regarding transparency of issue-based advertising, meaning issues that are sources of important debate during elections</italic>.” (<xref ref-type="bibr" rid="B13">COMISSÃO EUROPEIA. Code of practice against disinformation: Commission welcomes the commitment of online platforms ahead of the European elections. <italic>Comissão Europeia</italic>, 23 abr. 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_19_2174">https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_19_2174</ext-link> Acesso em: 1º fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn30">
                <label>30</label>
                <p><xref ref-type="bibr" rid="B59">WARNER, Mark R. The Honest Ads Act</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.warner.senate.gov/public/index.cfm/the-honest-ads-act">https://www.warner.senate.gov/public/index.cfm/the-honest-ads-act</ext-link>. Acesso em: 3 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn31">
                <label>31</label>
                <p>FEINER, Lauren. Democratic Senate control could breathe new life into net neutrality and other tech regulations. <italic>CNBC</italic>, jan. 9, 2021. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.cnbc.com/2021/01/09/democratic-senate-control-could-breathe-new-life-into-tech-policy.html">https://www.cnbc.com/2021/01/09/democratic-senate-control-could-breathe-new-life-into-tech-policy.html</ext-link>.</p>
            </fn>
            <fn fn-type="other" id="fn32">
                <label>32</label>
                <p>Versões anteriores do projeto tentaram estabelecer uma versão do conceito de <italic>fake news</italic> que iria estimular a censura estatal e ao mesmo tempo criavam requisitos rigorosos para que pessoas criassem perfis em redes sociais (<xref ref-type="bibr" rid="B24">GARCIA, Raphael Tsavkko. Brazil’s “fake news” bill won’t solve its misinformation problem. <italic>MIT Technology Review</italic>, 10 set. 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.technologyreview.com/2020/09/10/1008254/brazil-fake-news-bill-misinformation-opinion/">https://www.technologyreview.com/2020/09/10/1008254/brazil-fake-news-bill-misinformation-opinion/</ext-link> Acesso em: 1º fev. 2021). A versão que acabou aprovada pelo Senado foi “consideravelmente desidratada”, mas ainda contém alguns elementos controversos (<xref ref-type="bibr" rid="B41">MARI, Angelica. Brazilian Senate passes fake news bill. <italic>ZDNet</italic>, 1º jul. 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.zdnet.com/article/brazilian-senate-passes-fake-news-bill/">https://www.zdnet.com/article/brazilian-senate-passes-fake-news-bill/</ext-link>. Acesso em: 1º fev. 2021).</p>
            </fn>
            <fn fn-type="other" id="fn33">
                <label>33</label>
                <p>Ver os arts. 13, V, e 15. <xref ref-type="bibr" rid="B49">SENADO FEDERAL. Projeto de Lei nº 2.630, de 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www25.senado.leg.br/web/atividade/materias/-/materia/141944">https://www25.senado.leg.br/web/atividade/materias/-/materia/141944</ext-link>. Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn34">
                <label>34</label>
                <p>“<italic>[T]he drawback of ‘issue ads’ as a scoping device, is that the concept of a political ‘issue’ is broad and subjective, and makes it difficult for archive operators to develop actionable definitions and enforce these in practice</italic>.” (<xref ref-type="bibr" rid="B39">LEERSSEN, Paddy et al. Platform ad archives: promises and pitfalls. <italic>Internet Policy Review</italic>, v. 8, n. 4, p. 8, 2019</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn35">
                <label>35</label>
                <p>A imprensa conseguiu provar que alguns anúncios políticos conseguem ser efetuados pelo Facebook sem ser depois listados na biblioteca. Ver <xref ref-type="bibr" rid="B05">BAKER, Jennifer. Facebook Ad Library: Only 3 “Brexit” ads for whole month. Yeah, right! <italic>TNW</italic>, 1º nov. 2018</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://thenextweb.com/contributors/2018/11/01/facebook-ad-library-only-3-brexit-ads-for-whole-month-yeah-right/">https://thenextweb.com/contributors/2018/11/01/facebook-ad-library-only-3-brexit-ads-for-whole-month-yeah-right/</ext-link> Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn36">
                <label>36</label>
                <p><xref ref-type="bibr" rid="B50">SERRANO, 2020</xref>, p. 119.</p>
            </fn>
            <fn fn-type="other" id="fn37">
                <label>37</label>
                <p><xref ref-type="bibr" rid="B34">HUTCHINSON, Andrew. Facebook expands ad archive to all ads and pages. <italic>SocialMediaToday</italic>, 29 mar. 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.socialmediatoday.com/news/facebook-expands-ad-archive-to-all-ads-and-pages/551584/">https://www.socialmediatoday.com/news/facebook-expands-ad-archive-to-all-ads-and-pages/551584/</ext-link> Acesso em: 1º fev. 2021. No entanto, o problemático critério de “política” retornou quando a plataforma decidiu banir todos os anúncios políticos na semana antes das eleições de 2020. Além de produzir falsos positivos, a regra é ineficiente porque ignora <italic>posts</italic> que já estavam sendo promovidos antes da semana final. (<xref ref-type="bibr" rid="B02">ALBA, Davey; FRENKEL, Sheera. Why Facebook’s Blocking of New Political Ads May Fall Short. <italic>The New York Times</italic>, 4 set. 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2020/09/04/technology/facebookspolitical-ads-block-election.html">https://www.nytimes.com/2020/09/04/technology/facebookspolitical-ads-block-election.html</ext-link> Acesso em: 1º fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn38">
                <label>38</label>
                <p><xref ref-type="bibr" rid="B37">KHALID, Amrita. Twitter’s political ad ban won’t stop politicians getting their messages out. <italic>Quartz</italic>, 6 nov. 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://qz.com/1742852/campaigns-arent-worried-about-twitters-political-ad-ban/">https://qz.com/1742852/campaigns-arent-worried-about-twitters-political-ad-ban/</ext-link>. Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn39">
                <label>39</label>
                <p>Essas questões técnicas foram descobertas por pesquisadores de duas iniciativas separadas. “<italic>In general, we encountered three categories of issues with the Facebook Ad Library API. First, software programming errors that cripple a user’s ability to complete even a single search [&#x2026;] Second, technical or data issues that affect a user’s ability to reliably retrieve data from multiple searches</italic>” (<xref ref-type="bibr" rid="B23">FUNDAÇÃO MOZILLA. Data Collection Log – EU Ad Transparency Report. <italic>Fundação Mozilla</italic>, 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://adtransparency.mozilla.org/eu/log/">https://adtransparency.mozilla.org/eu/log/</ext-link>. Acesso em: 2 fev. 2021. Ver também <xref ref-type="bibr" rid="B19">EMBAIXADOR FRANCÊS PARA ASSUNTOS DIGITAIS. Facebook Ads Library Assessment. <italic>Embaixador Francês para Assuntos Digitais</italic>, 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://disinfo.quaidorsay.fr/en/facebook-ads-library-assessment">https://disinfo.quaidorsay.fr/en/facebook-ads-library-assessment</ext-link>. Acesso em: 2 fev. 2021).</p>
            </fn>
            <fn fn-type="other" id="fn40">
                <label>40</label>
                <p>“<italic>We’ll need to confirm your identity and location. If you haven’t already confirmed your ID, it typically takes 1-2 days to complete this step</italic>.” (<xref ref-type="bibr" rid="B20">FACEBOOK HELP CENTER. What is the Facebook Ad Library and how do I search it? <italic>Facebook</italic></xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.facebook.com/help/259468828226154">https://www.facebook.com/help/259468828226154</ext-link>. Acesso em: 2 fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn41">
                <label>41</label>
                <p>“<italic>The real genius of FOIA, however, is its provision permitting anyone to seek access to government-held information upon request. [...] It allows ‘any person’ – including corporations, nonprofit entities, and even foreign nations – to request any record from any federal agency or government-controlled entity on any subject, without saying why the record was requested or what purpose disclosure would serve</italic>.” (<xref ref-type="bibr" rid="B56">VLADECK, David C. Information Access – Surveying the Current Legal Landscape of Federal Right-to-Know Laws. <italic>Texas Law Review</italic>, n. 86, p. 1797, 2008</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn42">
                <label>42</label>
                <p><xref ref-type="bibr" rid="B47">ROSENBERG, Matthew. Ad Tool Facebook Built to Fight Disinformation Doesn’t Work as Advertised. <italic>The New York Times</italic>, 25 jul. 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2019/07/25/technology/facebook-ad-library.html">https://www.nytimes.com/2019/07/25/technology/facebook-ad-library.html</ext-link>. Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn43">
                <label>43</label>
                <p>“<italic>The USA, for instance, counts 3.8 million ads and we observed that requests cannot ask for more that 2000 ads each. To reach the last page, one has to successfully execute about 1900 requests in order, which we found impossible to achieve in the two weeks we tried</italic>.” (<xref ref-type="bibr" rid="B19">EMBAIXADOR FRANCÊS PARA ASSUNTOS DIGITAIS, op. cit.</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn44">
                <label>44</label>
                <p>Apesar de o menu <italic>dropdown</italic> no <italic>site</italic> da ferramenta de relatório listar 83 países, o código fonte da página inclui um número muito maior, talvez um sinal de que há planos para ampliar o total de países no futuro. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.facebook.com/ads/library/report/">https://www.facebook.com/ads/library/report/</ext-link>. Acesso em: 2 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn45">
                <label>45</label>
                <p><xref ref-type="bibr" rid="B50">SERRANO et al., 2020</xref>, p. 118.</p>
            </fn>
            <fn fn-type="other" id="fn46">
                <label>46</label>
                <p>“<italic>The information imbalance between a voter who has little time to inform herself on politics and the political or media speaker is often profound. This imbalance gives the voter reason to trust the veracity of a piece of false campaign speech</italic>.” (<xref ref-type="bibr" rid="B25">GOLDMAN, Alvin I.; BAKER, Daniel. Free speech, fake news, and democracy. <italic>First Amendment Law Review</italic>, n. 18, p. 129, 2019</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn47">
                <label>47</label>
                <p><xref ref-type="bibr" rid="B15">COOK, Jesselyn. A toxic “infodemic”: the viral spread of Covid-19 conspiracy theories. <italic>HuffPost</italic>, 4 jul. 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.huffpost.com/entry/coronavirus-conspiracy-theories-social-media_n_5e83d701c5b6a1bb764f6d3b">https://www.huffpost.com/entry/coronavirus-conspiracy-theories-social-media_n_5e83d701c5b6a1bb764f6d3b</ext-link>. Acesso em: 1º fev. 2021. Desde que essa matéria foi publicada, o canal de Buttar no YouTube chegou a meio milhão de assinantes: https://www.youtube.com/user/drbuttar. Acesso em: 2 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn48">
                <label>48</label>
                <p>Os partidos políticos são responsáveis por 86% dos anúncios, mas apenas por 48% dos gastos. (<xref ref-type="bibr" rid="B50">SERRANO et al., 2020</xref>, p. 118)</p>
            </fn>
            <fn fn-type="other" id="fn49">
                <label>49</label>
                <p>O relato de um enfermeiro do estado do Arizona é comovente: “<italic>‘We are feeling like our community – at least a good section of them – have turned on us’, he said. ‘It’s just amazing that nurses have gone from the number one trusted profession in the United States to now realizing that there’s this subsection of the population that thinks we’re trying to kill everyone</italic>.’” (<xref ref-type="bibr" rid="B40">LYTVYNENKO, Jane. In 2020</xref>, Disinformation Broke The US. <italic>BuzzFeed</italic>, 6 dez. 2020. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.buzzfeednews.com/article/janelytvynenko/disinformation-broke-us">https://www.buzzfeednews.com/article/janelytvynenko/disinformation-broke-us</ext-link>. Acesso em: 1º fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn50">
                <label>50</label>
                <p>A proposta é direcionada principalmente a Facebook e Google, pelas razões já expostas nas seções anteriores do trabalho. Ainda assim, é plausível que outras grandes plataformas digitais com receita significativa de anúncios sejam sujeitas às mesmas regras. As plataformas digitais (DPs) estão “<italic>quickly controlling news distribution. Facebook is now the second largest news provider in terms of attention share in the United States. In the UK, Facebook is third, Google is fifth, and Twitter is tenth. By curating the news viewers receive, DPs have effectively appropriated the role that newspaper editors used to have in influencing readers’ attention. This poses a concentration issue, as thousands of different viewpoints have now been replaced by a duopoly</italic>” (<xref ref-type="bibr" rid="B61">ZINGALES, Luigi; LANCIERI, Filippo Maria. Stigler Committee on Digital Platforms: Policy Brief. <italic>George J. Stigler Center for the Study of the Economy and the State</italic>, p. 5, 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.chicagobooth.edu/-/media/research/stigler/pdfs/policy-brief---digital-platforms---stigler-center.pdf">https://www.chicagobooth.edu/-/media/research/stigler/pdfs/policy-brief---digital-platforms---stigler-center.pdf</ext-link>. Acesso em: 1º fev. 2021).</p>
            </fn>
            <fn fn-type="other" id="fn51">
                <label>51</label>
                <p><xref ref-type="bibr" rid="B58">WALTER, Nathan et al. Fact-checking: a meta-analysis of what works and for whom. <italic>Political Communication</italic>, v. 37, n. 3, p. 2, 2019</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn52">
                <label>52</label>
                <p><xref ref-type="bibr" rid="B22">FRIDKIN, Kim; KENNEY, Patrick J.; WINTERSIECK, Amanda. Liar, liar, pants on fire: how fact-checking influences citizens’ reactions to negative advertising. <italic>Political Communication</italic>, v. 32, n. 1, p. 139, 2015</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn53">
                <label>53</label>
                <p>Id., p. 145.</p>
            </fn>
            <fn fn-type="other" id="fn54">
                <label>54</label>
                <p><xref ref-type="bibr" rid="B58">WALTER et al., op. cit., p. 17-18</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn55">
                <label>55</label>
                <p><xref ref-type="bibr" rid="B53">TUFEKCI, Zeynep. Algorithmic Harms Beyond Facebook and Google: Emergent Challenges of Computational Agency. <italic>Colorado Technology Law Review</italic>, n. 13, 2015</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn56">
                <label>56</label>
                <p><xref ref-type="bibr" rid="B10">BRAUN e EKLUND, 2019</xref>, p. 11. Ver também <xref ref-type="bibr" rid="B43">MILLS, PITT e FERGUSON, 2019</xref>, p. 5: “<italic>Programmatic advertising is highly efficient, extremely cost-effective, virtually immediate, and designed almost completely around reaching the individual target consumer. To target in this manner, however, prioritizing consumers over con-text, advertisers must cede almost all control over advertisement placement to the intermediaries</italic>”.</p>
            </fn>
            <fn fn-type="other" id="fn57">
                <label>57</label>
                <p><xref ref-type="bibr" rid="B09">BRAUN, COAKLEY e WEST, 2019</xref>, p. 70.</p>
            </fn>
            <fn fn-type="other" id="fn58">
                <label>58</label>
                <p>“<italic>In this vein, researchers should go beyond merely investigating the direct effect of the ad and address the broader set of causal relationships involved in the formation of brand attitude and purchase intentions</italic>.” (<xref ref-type="bibr" rid="B55">VISENTIN, Marco; PIZZI, Gabriele; PICHIERRI, Marco. Fake news, real problems for brands: the impact of content truthfulness and source credibility on consumers’ behavioral intentions toward the advertised brands. <italic>Journal of Interactive Marketing</italic>, n. 45, p. 100, 2019</xref>)</p>
            </fn>
            <fn fn-type="other" id="fn59">
                <label>59</label>
                <p>Id., p. 106.</p>
            </fn>
            <fn fn-type="other" id="fn60">
                <label>60</label>
                <p>“<italic>[...] a new consumer movement is rising, and activists believe that where votes failed, wallets may prevail. This struggle is about much more than ads on Breitbart News – it’s about using corporations as shields to protect vulnerable people from bullying and hate crimes</italic>.” (<xref ref-type="bibr" rid="B36">KENNEDY, Pagan. How to destroy the business model of breitbart and fake news. <italic>The New York Times</italic>, 7 jan. 2017</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2017/01/07/opinion/sunday/how-to-destroy-the-business-model-of-breitbart-and-fake-news.html">https://www.nytimes.com/2017/01/07/opinion/sunday/how-to-destroy-the-business-model-of-breitbart-and-fake-news.html</ext-link>. Acesso em: 1º fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn61">
                <label>61</label>
                <p>O Facebook inclusive destacou a biblioteca de anúncios como sendo uma de suas principais medidas contra a desinformação. (<xref ref-type="bibr" rid="B48">SANDBERG, Sheryl. Hearing before the United States Senate Select Committee on Intelligence. <italic>Senado dos Estados Unidos</italic>, p. 5, 5 set. 2018</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.intelligence.senate.gov/sites/default/files/documents/os-ssandberg-090518.pdf">https://www.intelligence.senate.gov/sites/default/files/documents/os-ssandberg-090518.pdf</ext-link> Acesso em: 1º fev. 2021)</p>
            </fn>
            <fn fn-type="other" id="fn62">
                <label>62</label>
                <p><xref ref-type="bibr" rid="B21">FENWICK, Mark D.; KAAL, Wulf A.; VERMEULEN, Erik P. M. Regulation tomorrow: what happens when technology is faster than the law? <italic>American University Business Law Review</italic>, v. 6, n. 3, p. 587, 2017</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn63">
                <label>63</label>
                <p><xref ref-type="bibr" rid="B60">WOOD e RAVEL, 2018</xref>, p. 1259-1260.</p>
            </fn>
            <fn fn-type="other" id="fn64">
                <label>64</label>
                <p><xref ref-type="bibr" rid="B51">SKIBINSKI, Matt. Misinformation won’t stop unless we stop it. Predictions for Journalism 2021. <italic>NiemanLab</italic>, 2020</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.niemanlab.org/2020/12/misinformation-wont-stop-unless-we-stop-it/">https://www.niemanlab.org/2020/12/misinformation-wont-stop-unless-we-stop-it/</ext-link>. Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn65">
                <label>65</label>
                <p>“<italic>If we do not know whether social media has overall positive or negative effects on our polity, we have to blame the DPs themselves. All the data they generate is proprietary and they deny outside, independent researchers access to almost all of it. In doing so, they also prevent our societies from comprehending their true impacts</italic>.” (<xref ref-type="bibr" rid="B61">ZINGALES e LANCIERI, 2019</xref>, p. 10)</p>
            </fn>
            <fn fn-type="other" id="fn66">
                <label>66</label>
                <p>Obrigar a publicação de bibliotecas expandidas resolveria, para efeitos da pesquisa sobre desinformação abusiva, o problema apontado no Direito norte-americano por <xref ref-type="bibr" rid="B35">KADRI, Thomas E. Platforms as Blackacres. <italic>UCLA Law Review</italic>, n. 68, 2021</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3742086">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3742086</ext-link> Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn67">
                <label>67</label>
                <p>Segundo a classificação proposta por <xref ref-type="bibr" rid="B28">GRIMMELMANN, James. The virtues of moderation. <italic>Yale Journal of Law and Technology</italic>, v. 17, n. 1, 2015</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn68">
                <label>68</label>
                <p><xref ref-type="bibr" rid="B12">CAMBRIDGE CONSULTANTS. Use of AI in Online Content Moderation. <italic>OFCOM</italic>, p. 74, 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.ofcom.org.uk/__data/assets/pdf_file/0028/157249/cambridge-consultants-ai-content-moderation.pdf">https://www.ofcom.org.uk/__data/assets/pdf_file/0028/157249/cambridge-consultants-ai-content-moderation.pdf</ext-link> Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn69">
                <label>69</label>
                <p>Ver <xref ref-type="bibr" rid="B45">PEREL, Maayan; ELKIN-KOREN, Niva. Accountability in Algorithmic Copyright Enforcement. <italic>Stanford Technology Law Review</italic>, n. 19, 2016</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn70">
                <label>70</label>
                <p>As agências de checagem de fatos são normalmente encontradas em países com “<italic>increased democratic governance and Internet accessibility</italic>” (<xref ref-type="bibr" rid="B04">AMAZEEN, Michelle A. Journalistic interventions: the structural factors affecting the global emergence of fact-checking. <italic>Journalism</italic>, v. 21, n. 1, p. 103, 2020</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn71">
                <label>71</label>
                <p>Ver <xref ref-type="bibr" rid="B33">HUMPRECHT, Edda. How do they debunk “fake news”? A cross-national comparison of transparency in fact-checks. <italic>Digital Journalism</italic>, v. 8, n. 3, 2020</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn72">
                <label>72</label>
                <p><xref ref-type="bibr" rid="B46">REDE INTERNACIONAL DE CHECAGEM DE FATOS. <italic>International Fact-Checking Network fact-checkers’ code of principles</italic></xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.poynter.org/ifcn-fact-checkers-code-of-principles/">https://www.poynter.org/ifcn-fact-checkers-code-of-principles/</ext-link>. Acesso em: 3 fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn73">
                <label>73</label>
                <p><xref ref-type="bibr" rid="B01">ADAIR, Bill; STENCEL, Mark. How we identify fact-checkers. <italic>Reporter’s Lab</italic>, 22 jun. 2016</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://reporterslab.org/how-we-identify-fact-checkers/">https://reporterslab.org/how-we-identify-fact-checkers/</ext-link> Acesso em: 1º fev. 2021.</p>
            </fn>
            <fn fn-type="other" id="fn74">
                <label>74</label>
                <p><xref ref-type="bibr" rid="B26">GORWA, Robert. The platform governance triangle: conceptualising the informal regulation of online content. <italic>Internet Policy Review</italic>, v. 8, n. 2, p. 14, 2019</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn75">
                <label>75</label>
                <p><xref ref-type="bibr" rid="B11">BUKOVSKÁ, Barbora. The European Commission’s Code of Conduct for Countering Illegal Hate Speech Online. An analysis of freedom of expression implications. <italic>The Transatlantic Working Group Papers Series</italic>, p. 6, 7 maio 2019</xref>. Disponível em: <ext-link ext-link-type="uri" xlink:href="https://cdn.annenbergpublicpolicycenter.org/wp-content/uploads/2020/05/EC_Code_of_Conduct_TWG_Bukovska_May_2019.pdf">https://cdn.annenbergpublicpolicycenter.org/wp-content/uploads/2020/05/EC_Code_of_Conduct_TWG_Bukovska_May_2019.pdf</ext-link>.</p>
            </fn>
            <fn fn-type="other" id="fn76">
                <label>76</label>
                <p><xref ref-type="bibr" rid="B31">HARTMANN, Ivar. A new framework for online content moderation. <italic>Computer Law &amp; Security Review</italic>, v. 36, 2020</xref>.</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>REFERÊNCIAS</title>
            <ref id="B01">

                <mixed-citation>ADAIR, Bill; STENCEL, Mark. How we identify fact-checkers. <italic>Reporter’s Lab</italic>, 22 jun. 2016. Disponível em: https://reporterslab.org/how-we-identify-fact-checkers/.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ADAIR</surname>
                            <given-names>Bill</given-names>
                        </name>
                        <name>
                            <surname>STENCEL</surname>
                            <given-names>Mark</given-names>
                        </name>
                    </person-group>
                    <article-title>How we identify fact-checkers</article-title>
                    <source>Reporter’s Lab</source>
                    <day>22</day>
                    <month>06</month>
                    <year>2016</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://reporterslab.org/how-we-identify-fact-checkers/">https://reporterslab.org/how-we-identify-fact-checkers/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B02">

                <mixed-citation>ALBA, Davey; FRENKEL, Sheera. Why Facebook’s blocking of new political ads may fall short. <italic>The New York Times</italic>, 4 set. 2020. Disponível em: https://www.nytimes.com/2020/09/04/technology/facebooks-political-ads-block-election.html.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ALBA</surname>
                            <given-names>Davey</given-names>
                        </name>
                        <name>
                            <surname>FRENKEL</surname>
                            <given-names>Sheera</given-names>
                        </name>
                    </person-group>
                    <article-title>Why Facebook’s blocking of new political ads may fall short</article-title>
                    <source>The New York Times</source>
                    <day>4</day>
                    <month>09</month>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2020/09/04/technology/facebooks-political-ads-block-election.html">https://www.nytimes.com/2020/09/04/technology/facebooks-political-ads-block-election.html</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B03">

                <mixed-citation>ALLCOTT, Hunt; GENTZKOW, Matthew. Social media and fake news in the 2016 election. <italic>Journal of Economic Perspectives</italic>, v. 31, n. 2, 2017.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ALLCOTT</surname>
                            <given-names>Hunt</given-names>
                        </name>
                        <name>
                            <surname>GENTZKOW</surname>
                            <given-names>Matthew</given-names>
                        </name>
                    </person-group>
                    <article-title>Social media and fake news in the 2016 election</article-title>
                    <source>Journal of Economic Perspectives</source>
                    <volume>31</volume>
                    <issue>2</issue>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B04">

                <mixed-citation>AMAZEEN, Michelle A. Journalistic interventions: the structural factors affecting the global emergence of fact-checking. <italic>Journalism</italic>, v. 21, n. 1, 2020.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>AMAZEEN</surname>
                            <given-names>Michelle A.</given-names>
                        </name>
                    </person-group>
                    <article-title>Journalistic interventions: the structural factors affecting the global emergence of fact-checking</article-title>
                    <source>Journalism</source>
                    <volume>21</volume>
                    <issue>1</issue>
                    <year>2020</year>

                </element-citation>
            </ref>
            <ref id="B05">

                <mixed-citation>BAKER, Jennifer. Facebook Ad Library: Only 3 ‘Brexit’ ads for whole month. Yeah, right! <italic>TNW</italic>, 1º nov. 2018. Disponível em: https://thenextweb.com/contributors/2018/11/01/facebook-ad-library-only-3-brexit-ads-for-whole-month-yeah-right/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BAKER</surname>
                            <given-names>Jennifer</given-names>
                        </name>
                    </person-group>
                    <comment>Facebook Ad Library: Only 3 ‘Brexit’ ads for whole month. Yeah, right! </comment>
                    <source>TNW</source>
                    <day>1</day>
                    <month>11</month>
                    <year>2018</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://thenextweb.com/contributors/2018/11/01/facebook-ad-library-only-3-brexit-ads-for-whole-month-yeah-right/">https://thenextweb.com/contributors/2018/11/01/facebook-ad-library-only-3-brexit-ads-for-whole-month-yeah-right/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B06">

                <mixed-citation>BELL, Emily; OWEN, Taylor. The platform press: how silicon valley reengineered journalism. <italic>Tow Center for Digital Journalism</italic>, 29 mar. 2017. Disponível em: https://www.cjr.org/tow_center_reports/platform-press-how-silicon-valley-reengineered-journalism.php.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BELL</surname>
                            <given-names>Emily</given-names>
                        </name>
                        <name>
                            <surname>OWEN</surname>
                            <given-names>Taylor</given-names>
                        </name>
                    </person-group>
                    <article-title>The platform press: how silicon valley reengineered journalism</article-title>
                    <source>Tow Center for Digital Journalism</source>
                    <day>29</day>
                    <month>03</month>
                    <year>2017</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.cjr.org/tow_center_reports/platform-press-how-silicon-valley-reengineered-journalism.php">https://www.cjr.org/tow_center_reports/platform-press-how-silicon-valley-reengineered-journalism.php</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B07">

                <mixed-citation>BINFORD, Matthew T. et al. Invisible transparency: visual attention to disclosures and source recognition in Facebook political advertising. <italic>Journal of Information Technology &amp; Politics</italic>, 2020, ahead of print.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BINFORD</surname>
                            <given-names>Matthew T.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Invisible transparency: visual attention to disclosures and source recognition in Facebook political advertising</article-title>
                    <source>Journal of Information Technology &amp; Politics</source>
                    <year>2020</year>

                </element-citation>
            </ref>
            <ref id="B08">

                <mixed-citation>BOREL, Brooke. Fact-checking won’t save us from fake news. <italic>FiveThirtyEight</italic>, 4 jan. 2017. Disponível em: https://fivethirtyeight.com/features/fact-checking-wont-save-us-from-fake-news/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BOREL</surname>
                            <given-names>Brooke</given-names>
                        </name>
                    </person-group>
                    <comment>Fact-checking won’t save us from fake news</comment>
                    <source>FiveThirtyEight</source>
                    <day>4</day>
                    <month>01</month>
                    <year>2017</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://fivethirtyeight.com/features/fact-checking-wont-save-us-from-fake-news/">https://fivethirtyeight.com/features/fact-checking-wont-save-us-from-fake-news/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B09">

                <mixed-citation>BRAUN, Joshua A.; COAKLEY, John D.; WEST, Emily. Activism, advertising, and far-right media: the case of Sleeping Giants. <italic>Media and Communication</italic>, v. 7, n. 4, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRAUN</surname>
                            <given-names>Joshua A.</given-names>
                        </name>
                        <name>
                            <surname>COAKLEY</surname>
                            <given-names>John D.</given-names>
                        </name>
                        <name>
                            <surname>WEST</surname>
                            <given-names>Emily</given-names>
                        </name>
                    </person-group>
                    <article-title>Activism, advertising, and far-right media: the case of Sleeping Giants</article-title>
                    <source>Media and Communication</source>
                    <volume>7</volume>
                    <issue>4</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B10">

                <mixed-citation>BRAUN, Joshua A.; EKLUND, Jessica L. Fake news, real money: ad tech platforms, profit-driven hoaxes, and the business of journalism. <italic>Digital Journalism</italic>, v. 7, n. 1, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRAUN</surname>
                            <given-names>Joshua A.</given-names>
                        </name>
                        <name>
                            <surname>EKLUND</surname>
                            <given-names>Jessica L.</given-names>
                        </name>
                    </person-group>
                    <article-title>Fake news, real money: ad tech platforms, profit-driven hoaxes, and the business of journalism</article-title>
                    <source>Digital Journalism</source>
                    <volume>7</volume>
                    <issue>1</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B11">

                <mixed-citation>BUKOVSKÁ, Barbora. The European Commission’s Code of conduct for countering illegal hate speech online. An analysis of freedom of expression implications. <italic>The Transatlantic Working Group Papers Series</italic>, 7 maio 2019. Disponível em: https://cdn.annenbergpublicpolicycenter.org/wp-content/uploads/2020/05/EC_Code_of_Conduct_TWG_Bukovska_May_2019.pdf.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BUKOVSKÁ</surname>
                            <given-names>Barbora</given-names>
                        </name>
                    </person-group>
                    <article-title>The European Commission’s Code of conduct for countering illegal hate speech online. An analysis of freedom of expression implications</article-title>
                    <source>The Transatlantic Working Group Papers Series</source>
                    <day>7</day>
                    <month>05</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://cdn.annenbergpublicpolicycenter.org/wp-content/uploads/2020/05/EC_Code_of_Conduct_TWG_Bukovska_May_2019.pdf">https://cdn.annenbergpublicpolicycenter.org/wp-content/uploads/2020/05/EC_Code_of_Conduct_TWG_Bukovska_May_2019.pdf</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B12">

                <mixed-citation>CAMBRIDGE CONSULTANTS. Use of AI in Online Content Moderation. <italic>OFCOM</italic>, 2019. Disponível em: https://www.ofcom.org.uk/__data/assets/pdf_file/0028/157249/cambridge-consultants-ai-content-moderation.pdf.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>CAMBRIDGE CONSULTANTS</collab>
                    </person-group>
                    <comment>Use of AI in Online Content Moderation</comment>
                    <source>OFCOM</source>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.ofcom.org.uk/__data/assets/pdf_file/0028/157249/cambridge-consultants-ai-content-moderation.pdf">https://www.ofcom.org.uk/__data/assets/pdf_file/0028/157249/cambridge-consultants-ai-content-moderation.pdf</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B13">

                <mixed-citation>COMISSÃO EUROPEIA. Code of practice against disinformation: commission welcomes the commitment of online platforms ahead of the European elections. <italic>Comissão Europeia</italic>, 23 abr. 2019. Disponível em: https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_19_2174.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>COMISSÃO EUROPEIA</collab>
                    </person-group>
                    <comment>Code of practice against disinformation: commission welcomes the commitment of online platforms ahead of the European elections</comment>
                    <source>Comissão Europeia</source>
                    <day>23</day>
                    <month>04</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_19_2174">https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_19_2174</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B14">

                <mixed-citation>CONSTANTINE, John. Facebook and Instagram launch US political ad labeling and archive. <italic>TechCrunch</italic>, 24 maio 2018. Disponível em: https://techcrunch.com/2018/05/24/facebook-political-ad-archive/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CONSTANTINE</surname>
                            <given-names>John</given-names>
                        </name>
                    </person-group>
                    <comment>Facebook and Instagram launch US political ad labeling and archive</comment>
                    <source>TechCrunch</source>
                    <day>24</day>
                    <month>05</month>
                    <year>2018</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://techcrunch.com/2018/05/24/facebook-political-ad-archive/">https://techcrunch.com/2018/05/24/facebook-political-ad-archive/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B15">

                <mixed-citation>COOK, Jesselyn. A toxic “infodemic”: the viral spread of Covid-19 conspiracy theories. <italic>HuffPost</italic>, 4 jul. 2020. Disponível em: https://www.huffpost.com/entry/coronavirus-conspiracy-theories-social-media_n_5e83d701c5b6a1bb764f6d3b.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COOK</surname>
                            <given-names>Jesselyn</given-names>
                        </name>
                    </person-group>
                    <comment> A toxic “infodemic”: the viral spread of Covid-19 conspiracy theories</comment>
                    <source>HuffPost</source>
                    <day>4</day>
                    <month>07</month>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.huffpost.com/entry/coronavirus-conspiracy-theories-social-media_n_5e83d701c5b6a1bb764f6d3b">https://www.huffpost.com/entry/coronavirus-conspiracy-theories-social-media_n_5e83d701c5b6a1bb764f6d3b</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B16">

                <mixed-citation>DAVEY-ATTLEE, Florence; SOARES, Isa. The fake news machine: inside a town gearing up for 2020. <italic>CNN</italic>, 13 set. 2017. Disponível em: https://money.cnn.com/interactive/media/the-macedonia-story/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DAVEY-ATTLEE</surname>
                            <given-names>Florence</given-names>
                        </name>
                        <name>
                            <surname>SOARES</surname>
                            <given-names>Isa</given-names>
                        </name>
                    </person-group>
                    <comment>The fake news machine: inside a town gearing up for 2020</comment>
                    <source>CNN</source>
                    <day>13</day>
                    <month>09</month>
                    <year>2017</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://money.cnn.com/interactive/media/the-macedonia-story/">https://money.cnn.com/interactive/media/the-macedonia-story/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B17">

                <mixed-citation>DI DOMENICO, Giandomenico et al. Fake news, social media and marketing: a systematic review. <italic>Journal of Business Research</italic>, n. 124, 2021.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DI DOMENICO</surname>
                            <given-names>Giandomenico</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Fake news, social media and marketing: a systematic review</article-title>
                    <source>Journal of Business Research</source>
                    <issue>124</issue>
                    <year>2021</year>

                </element-citation>
            </ref>
            <ref id="B18">

                <mixed-citation>DOBBER, Tom; FATHAIGH, Ronan Ó; BORGESIUS, Frederik J. Zuiderveen. The regulation of online political micro-targeting in Europe. <italic>Internet Policy Review</italic>, v. 8, n. 4, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DOBBER</surname>
                            <given-names>Tom</given-names>
                        </name>
                        <name>
                            <surname>FATHAIGH</surname>
                            <given-names>Ronan Ó</given-names>
                        </name>
                        <name>
                            <surname>BORGESIUS</surname>
                            <given-names>Frederik J.</given-names>
                        </name>
                    </person-group>
                    <article-title>Zuiderveen. The regulation of online political micro-targeting in Europe</article-title>
                    <source>Internet Policy Review</source>
                    <volume>8</volume>
                    <issue>4</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B19">

                <mixed-citation>EMBAIXADOR FRANCÊS PARA ASSUNTOS DIGITAIS. Facebook Ads Library Assessment. <italic>Embaixador Francês para Assuntos Digitais</italic>, 2019. Disponível em: https://disinfo.quaidorsay.fr/en/facebook-ads-library-assessment. Acesso em: 2 fev. 2021.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>EMBAIXADOR FRANCÊS PARA ASSUNTOS DIGITAIS</collab>
                    </person-group>
                    <comment> Facebook Ads Library Assessment</comment>
                    <source>Embaixador Francês para Assuntos Digitais</source>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://disinfo.quaidorsay.fr/en/facebook-ads-library-assessment">https://disinfo.quaidorsay.fr/en/facebook-ads-library-assessment</ext-link></comment>
                    <date-in-citation content-type="access-date">2 fev. 2021</date-in-citation>

                </element-citation>
            </ref>
            <ref id="B20">

                <mixed-citation>FACEBOOK HELP CENTER. What is the Facebook Ad Library and how do I search it? <italic>Facebook</italic>. Disponível em: https://www.facebook.com/help/259468828226154. Acesso em: 2 fev. 2021.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>FACEBOOK HELP CENTER</collab>
                    </person-group>
                    <comment>What is the Facebook Ad Library and how do I search it?</comment>
                    <source>Facebook</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.facebook.com/help/259468828226154">https://www.facebook.com/help/259468828226154</ext-link></comment>
                    <date-in-citation content-type="access-date">2 fev. 2021</date-in-citation>
                    <year>2021</year>

                </element-citation>
            </ref>
            <ref id="B21">

                <mixed-citation>FENWICK, Mark D.; KAAL, Wulf A.; VERMEULEN, Erik P. M. Regulation tomorrow: what happens when technology is faster than the law? <italic>American University Business Law Review</italic>, v. 6, n. 3, 2017.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FENWICK</surname>
                            <given-names>Mark D.</given-names>
                        </name>
                        <name>
                            <surname>KAAL</surname>
                            <given-names>Wulf A.</given-names>
                        </name>
                        <name>
                            <surname>VERMEULEN</surname>
                            <given-names>Erik P. M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Regulation tomorrow: what happens when technology is faster than the law?</article-title>
                    <source>American University Business Law Review</source>
                    <volume>6</volume>
                    <issue>3</issue>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B22">

                <mixed-citation>FRIDKIN, Kim; KENNEY, Patrick J.; WINTERSIECK, Amanda. Liar, liar, pants on fire: how fact-checking influences citizens’ reactions to negative advertising. <italic>Political Communication</italic>, v. 32, n. 1, 2015.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FRIDKIN</surname>
                            <given-names>Kim</given-names>
                        </name>
                        <name>
                            <surname>KENNEY</surname>
                            <given-names>Patrick J.</given-names>
                        </name>
                        <name>
                            <surname>WINTERSIECK</surname>
                            <given-names>Amanda</given-names>
                        </name>
                    </person-group>
                    <article-title>Liar, liar, pants on fire: how fact-checking influences citizens’ reactions to negative advertising</article-title>
                    <source>Political Communication</source>
                    <volume>32</volume>
                    <issue>1</issue>
                    <year>2015</year>

                </element-citation>
            </ref>
            <ref id="B23">

                <mixed-citation>FUNDAÇÃO MOZILLA. Data Collection Log – EU Ad Transparency Report. <italic>Fundação Mozilla</italic>, 2019. Disponível em: https://adtransparency.mozilla.org/eu/log/. Acesso em: 2 fev. 2021.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>FUNDAÇÃO MOZILLA</collab>
                    </person-group>
                    <comment>Data Collection Log – EU Ad Transparency Report</comment>
                    <source>Fundação Mozilla</source>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://adtransparency.mozilla.org/eu/log/">https://adtransparency.mozilla.org/eu/log/</ext-link></comment>
                    <date-in-citation content-type="access-date">2 fev. 2021</date-in-citation>

                </element-citation>
            </ref>
            <ref id="B24">

                <mixed-citation>GARCIA, Raphael Tsavkko. Brazil’s “fake news” bill won’t solve its misinformation problem. <italic>MIT Technology Review</italic>, 10 set. 2020. Disponível em: https://www.technologyreview.com/2020/09/10/1008254/brazil-fake-news-bill-misinformation-opinion/.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GARCIA</surname>
                            <given-names>Raphael Tsavkko</given-names>
                        </name>
                    </person-group>
                    <article-title>Brazil’s “fake news” bill won’t solve its misinformation problem</article-title>
                    <source>MIT Technology Review</source>
                    <day>10</day>
                    <month>09</month>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.technologyreview.com/2020/09/10/1008254/brazil-fake-news-bill-misinformation-opinion/">https://www.technologyreview.com/2020/09/10/1008254/brazil-fake-news-bill-misinformation-opinion/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B25">

                <mixed-citation>GOLDMAN, Alvin I.; BAKER, Daniel. Free speech, fake news, and democracy. <italic>First Amendment Law Review</italic>, n. 18, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GOLDMAN</surname>
                            <given-names>Alvin I.</given-names>
                        </name>
                        <name>
                            <surname>BAKER</surname>
                            <given-names>Daniel</given-names>
                        </name>
                    </person-group>
                    <article-title>Free speech, fake news, and democracy</article-title>
                    <source>First Amendment Law Review</source>
                    <issue>18</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B26">

                <mixed-citation>GORWA, Robert. The platform governance triangle: conceptualising the informal regulation of online content. <italic>Internet Policy Review</italic>, v. 8, n. 2, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GORWA</surname>
                            <given-names>Robert</given-names>
                        </name>
                    </person-group>
                    <article-title>The platform governance triangle: conceptualising the informal regulation of online content</article-title>
                    <source>Internet Policy Review</source>
                    <volume>8</volume>
                    <issue>2</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B27">

                <mixed-citation>GRAHAM, Richard Graham. Google and advertising: digital capitalism in the context of post-Fordism, the reification of language, and the rise of fake news. <italic>Palgrave Communications</italic>, v. 3, n. 45, 2017.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GRAHAM</surname>
                            <given-names>Richard Graham</given-names>
                        </name>
                    </person-group>
                    <article-title>Google and advertising: digital capitalism in the context of post-Fordism, the reification of language, and the rise of fake news</article-title>
                    <source>Palgrave Communications</source>
                    <volume>3</volume>
                    <issue>45</issue>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B28">

                <mixed-citation>GRIMMELMANN, James. The virtues of moderation. <italic>Yale Journal of Law and Technology</italic>, v. 17, n. 1, 2015.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GRIMMELMANN</surname>
                            <given-names>James</given-names>
                        </name>
                    </person-group>
                    <article-title>The virtues of moderation</article-title>
                    <source>Yale Journal of Law and Technology</source>
                    <volume>17</volume>
                    <issue>1</issue>
                    <year>2015</year>

                </element-citation>
            </ref>
            <ref id="B29">

                <mixed-citation>GUESS, Andrew et al. Fake news, Facebook ads, and misperceptions. Assessing information quality in the 2018 U.S. midterm election campaign. <italic>Working Paper</italic>, 2019. Disponível em: http://www.dartmouth.edu/~nyhan/fake-news-2018.pdf. Acesso em: 30 jun. 2021.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GUESS</surname>
                            <given-names>Andrew</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Fake news, Facebook ads, and misperceptions. Assessing information quality in the 2018 U.S. midterm election campaign</article-title>
                    <source>Working Paper</source>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="http://www.dartmouth.edu/~nyhan/fake-news-2018.pdf">http://www.dartmouth.edu/~nyhan/fake-news-2018.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">30 jun. 2021</date-in-citation>

                </element-citation>
            </ref>
            <ref id="B30">

                <mixed-citation>HA, Anthony. Twitter launches its Ads Transparency Center, where you can see ads bought by any account. <italic>TechCrunch</italic>, 28 jun. 2018. Disponível em: https://techcrunch.com/2018/06/28/twitter-ads-transparency-center/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HA</surname>
                            <given-names>Anthony</given-names>
                        </name>
                    </person-group>
                    <comment>Twitter launches its Ads Transparency Center, where you can see ads bought by any account</comment>
                    <source>TechCrunch</source>
                    <day>28</day>
                    <month>06</month>
                    <year>2018</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://techcrunch.com/2018/06/28/twitter-ads-transparency-center/">https://techcrunch.com/2018/06/28/twitter-ads-transparency-center/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B31">

                <mixed-citation>HARTMANN, Ivar. A new framework for online content moderation. Computer Law &amp; Security Review, v. 36, 2020.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HARTMANN</surname>
                            <given-names>Ivar</given-names>
                        </name>
                    </person-group>
                    <article-title>A new framework for online content moderation</article-title>
                    <source>Computer Law &amp; Security Review</source>
                    <volume>36</volume>
                    <year>2020</year>

                </element-citation>
            </ref>
            <ref id="B32">

                <mixed-citation>HATMAKER, Taylor. Google releases a searchable database of US political ads. <italic>TechCrunch</italic>, 15 ago. 2018. Disponível em: https://techcrunch.com/2018/08/15/google-political-ad-library/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HATMAKER</surname>
                            <given-names>Taylor</given-names>
                        </name>
                    </person-group>
                    <comment>Google releases a searchable database of US political ads</comment>
                    <source>TechCrunch</source>
                    <day>15</day>
                    <month>08</month>
                    <year>2018</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://techcrunch.com/2018/08/15/google-political-ad-library/">https://techcrunch.com/2018/08/15/google-political-ad-library/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B33">

                <mixed-citation>HUMPRECHT, Edda. How do they debunk “fake news”? A cross-national comparison of transparency in fact-checks. <italic>Digital Journalism</italic>, v. 8, n. 3, 2020.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HUMPRECHT</surname>
                            <given-names>Edda</given-names>
                        </name>
                    </person-group>
                    <article-title>How do they debunk “fake news”? A cross-national comparison of transparency in fact-checks</article-title>
                    <source>Digital Journalism</source>
                    <volume>8</volume>
                    <issue>3</issue>
                    <year>2020</year>

                </element-citation>
            </ref>
            <ref id="B34">

                <mixed-citation>HUTCHINSON, Andrew. Facebook expands ad archive to all ads and pages. <italic>SocialMediaToday</italic>, 29 mar. 2019. Disponível em: https://www.socialmediatoday.com/news/facebook-expands-ad-archive-to-all-ads-and-pages/551584/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HUTCHINSON</surname>
                            <given-names>Andrew</given-names>
                        </name>
                    </person-group>
                    <comment>Facebook expands ad archive to all ads and pages</comment>
                    <source>SocialMediaToday</source>
                    <day>29</day>
                    <month>03</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.socialmediatoday.com/news/facebook-expands-ad-archive-to-all-ads-and-pages/551584/">https://www.socialmediatoday.com/news/facebook-expands-ad-archive-to-all-ads-and-pages/551584/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B35">

                <mixed-citation>KADRI, Thomas E. Platforms as blackacres. <italic>UCLA Law Review</italic>, n. 68, 2021. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3742086.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KADRI</surname>
                            <given-names>Thomas E.</given-names>
                        </name>
                    </person-group>
                    <comment>Platforms as blackacres</comment>
                    <source>UCLA Law Review</source>
                    <issue>68</issue>
                    <year>2021</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3742086">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3742086</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B36">

                <mixed-citation>KENNEDY, Pagan. How to destroy the business model of Breitbart and fake news. <italic>The New York Times</italic>, 7 jan. 2017. Disponível em: https://www.nytimes.com/2017/01/07/opinion/sunday/how-to-destroy-the-business-model-of-breitbart-and-fake-news.html.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KENNEDY</surname>
                            <given-names>Pagan</given-names>
                        </name>
                    </person-group>
                    <comment>How to destroy the business model of Breitbart and fake news</comment>
                    <source>The New York Times</source>
                    <day>7</day>
                    <month>01</month>
                    <year>2017</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2017/01/07/opinion/sunday/how-to-destroy-the-business-model-of-breitbart-and-fake-news.html">https://www.nytimes.com/2017/01/07/opinion/sunday/how-to-destroy-the-business-model-of-breitbart-and-fake-news.html</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B37">

                <mixed-citation>KHALID, Amrita. Twitter’s political ad ban won’t stop politicians getting their messages out. <italic>Quartz</italic>, 6 nov. 2019. Disponível em: https://qz.com/1742852/campaigns-arent-worried-about-twitters-political-ad-ban/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KHALID</surname>
                            <given-names>Amrita</given-names>
                        </name>
                    </person-group>
                    <comment>Twitter’s political ad ban won’t stop politicians getting their messages out</comment>
                    <source>Quartz</source>
                    <day>6</day>
                    <month>11</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://qz.com/1742852/campaigns-arent-worried-about-twitters-political-ad-ban/">https://qz.com/1742852/campaigns-arent-worried-about-twitters-political-ad-ban/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B38">

                <mixed-citation>LAZER, David M. al. The science of fake news. <italic>Science</italic>, n. 359, 2018.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LAZER</surname>
                            <given-names>David M.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>The science of fake news</article-title>
                    <source>Science</source>
                    <issue>359</issue>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B39">

                <mixed-citation>LEERSSEN, Paddy et al. Platform ad archives: promises and pitfalls. <italic>Internet Policy Review</italic>, v. 8, n. 4, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LEERSSEN</surname>
                            <given-names>Paddy</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Platform ad archives: promises and pitfalls</article-title>
                    <source>Internet Policy Review</source>
                    <volume>8</volume>
                    <issue>4</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B40">

                <mixed-citation>LYTVYNENKO, Jane. In 2020, Disinformation Broke The US. <italic>BuzzFeed</italic>, 6 dez. 2020. Disponível em: https://www.buzzfeednews.com/article/janelytvynenko/disinformation-broke-us.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LYTVYNENKO</surname>
                            <given-names>Jane</given-names>
                        </name>
                    </person-group>
                    <comment>In 2020, Disinformation Broke The US</comment>
                    <source>BuzzFeed</source>
                    <day>6</day>
                    <month>12</month>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.buzzfeednews.com/article/janelytvynenko/disinformation-broke-us">https://www.buzzfeednews.com/article/janelytvynenko/disinformation-broke-us</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B41">

                <mixed-citation>MARI, Angelica. Brazilian Senate passes fake news bill. <italic>ZDNet</italic>, 1º jul. 2020. Disponível em: https://www.zdnet.com/article/brazilian-senate-passes-fake-news-bill/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MARI</surname>
                            <given-names>Angelica</given-names>
                        </name>
                    </person-group>
                    <comment>Brazilian Senate passes fake news bill</comment>
                    <source>ZDNet</source>
                    <day>1</day>
                    <month>07</month>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.zdnet.com/article/brazilian-senate-passes-fake-news-bill/">https://www.zdnet.com/article/brazilian-senate-passes-fake-news-bill/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B42">

                <mixed-citation>MERRILL, Jeremy; ALLEN, Marshall. “Trumpcare” does not exist. Nevertheless Facebook and Google Cash In on Misleading Ads for “Garbage” Health Insurance. <italic>ProPublica</italic>, 20 out. 2020. Disponível em: https://www.propublica.org/article/trumpcare-does-not-exist-nevertheless-facebook-and-google-cash-in-on-misleading-ads-for-garbage-health-insurance.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MERRILL</surname>
                            <given-names>Jeremy</given-names>
                        </name>
                        <name>
                            <surname>ALLEN</surname>
                            <given-names>Marshall</given-names>
                        </name>
                    </person-group>
                    <comment>“Trumpcare” does not exist. Nevertheless Facebook and Google Cash In on Misleading Ads for “Garbage” Health Insurance</comment>
                    <source>ProPublica</source>
                    <day>20</day>
                    <month>10</month>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.propublica.org/article/trumpcare-does-not-exist-nevertheless-facebook-and-google-cash-in-on-misleading-ads-for-garbage-health-insurance">https://www.propublica.org/article/trumpcare-does-not-exist-nevertheless-facebook-and-google-cash-in-on-misleading-ads-for-garbage-health-insurance</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B43">

                <mixed-citation>MILLS, Adam J.; PITT, Christine; FERGUSON, Sarah Lord. The relationship between fake news and advertising brand management in the era of programmatic advertising and prolific falsehood. <italic>Journal of Advertising Research</italic>, v. 59, n. 1, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MILLS</surname>
                            <given-names>Adam J.</given-names>
                        </name>
                        <name>
                            <surname>PITT</surname>
                            <given-names>Christine</given-names>
                        </name>
                        <name>
                            <surname>FERGUSON</surname>
                            <given-names>Sarah Lord</given-names>
                        </name>
                    </person-group>
                    <article-title>The relationship between fake news and advertising brand management in the era of programmatic advertising and prolific falsehood</article-title>
                    <source>Journal of Advertising Research</source>
                    <volume>59</volume>
                    <issue>1</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B44">

                <mixed-citation>OHLHEISER, Abby. This is how Facebook’s fake-news writers make money. <italic>The Washington Post</italic>, 18 nov. 2016. Disponível em: https://www.washingtonpost.com/news/the-intersect/wp/2016/11/18/this-is-how-the-internets-fake-news-writers-make-money/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>OHLHEISER</surname>
                            <given-names>Abby</given-names>
                        </name>
                    </person-group>
                    <comment>This is how Facebook’s fake-news writers make money</comment>

                    <source>The Washington Post</source>
                    <day>18</day>
                    <month>11</month>
                    <year>2016</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.washingtonpost.com/news/the-intersect/wp/2016/11/18/this-is-how-the-internets-fake-news-writers-make-money/">https://www.washingtonpost.com/news/the-intersect/wp/2016/11/18/this-is-how-the-internets-fake-news-writers-make-money/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B45">

                <mixed-citation>PEREL, Maayan; ELKIN-KOREN, Niva. Accountability in Algorithmic Copyright Enforcement. <italic>Stanford Technology Law Review</italic>, n. 19, 2016.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PEREL</surname>
                            <given-names>Maayan</given-names>
                        </name>
                        <name>
                            <surname>ELKIN-KOREN</surname>
                            <given-names>Niva</given-names>
                        </name>
                    </person-group>
                    <article-title>Accountability in Algorithmic Copyright Enforcement</article-title>
                    <source>Stanford Technology Law Review</source>
                    <issue>19</issue>
                    <year>2016</year>

                </element-citation>
            </ref>
            <ref id="B46">

                <mixed-citation>REDE INTERNACIONAL DE CHECAGEM DE FATOS. <italic>International Fact-Checking Network fact-checkers’ code of principles</italic>. Disponível em: https://www.poynter.org/ifcn-fact-checkers-code-of-principles/. Acesso em: 3 fev. 2021.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>REDE INTERNACIONAL DE CHECAGEM DE FATOS</collab>
                    </person-group>
                    <source>International Fact-Checking Network fact-checkers’ code of principles</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.poynter.org/ifcn-fact-checkers-code-of-principles/">https://www.poynter.org/ifcn-fact-checkers-code-of-principles/</ext-link></comment>
                    <date-in-citation content-type="access-date">3 fev. 2021</date-in-citation>
                    <year>2021</year>

                </element-citation>
            </ref>
            <ref id="B47">

                <mixed-citation>ROSENBERG, Matthew. Ad Tool Facebook built to fight disinformation doesn’t work as advertised. <italic>The New York Times</italic>, 25 jul. 2019. Disponível em: https://www.nytimes.com/2019/07/25/technology/facebook-ad-library.html.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ROSENBERG</surname>
                            <given-names>Matthew</given-names>
                        </name>
                    </person-group>
                    <comment>Ad Tool Facebook built to fight disinformation doesn’t work as advertised</comment>
                    <source>The New York Times</source>
                    <day>25</day>
                    <month>07</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2019/07/25/technology/facebook-ad-library.html">https://www.nytimes.com/2019/07/25/technology/facebook-ad-library.html</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B48">

                <mixed-citation>SANDBERG, Sheryl. Hearing before the United States Senate select committee on intelligence. <italic>Senado dos Estados Unidos</italic>, 5 set. 2018, p. 5. Disponível em: https://www.intelligence.senate.gov/sites/default/files/documents/os-ssandberg-090518.pdf.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SANDBERG</surname>
                            <given-names>Sheryl</given-names>
                        </name>
                    </person-group>
                    <comment>Hearing before the United States Senate select committee on intelligence</comment>
                    <source>Senado dos Estados Unidos</source>
                    <day>5</day>
                    <month>09</month>
                    <year>2018</year>
                    <fpage>5</fpage>
                    <lpage>5</lpage>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.intelligence.senate.gov/sites/default/files/documents/os-ssandberg-090518.pdf">https://www.intelligence.senate.gov/sites/default/files/documents/os-ssandberg-090518.pdf</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B49">

                <mixed-citation>SENADO FEDERAL. Projeto de Lei nº 2.630, de 2020. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>SENADO FEDERAL</collab>
                    </person-group>
                    <source>Projeto de Lei nº 2.630, de 2020</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www25.senado.leg.br/web/atividade/materias/-/materia/141944">https://www25.senado.leg.br/web/atividade/materias/-/materia/141944</ext-link></comment>
                    <year>2020</year>

                </element-citation>
            </ref>
            <ref id="B50">

                <mixed-citation>SERRANO, Juan Carlos Medina et al. Exploring political ad libraries for online advertising transparency: lessons from Germany and the 2019 European elections. <italic>SMSociety’20</italic>: International Conference on Social Media and Society, 2020. Disponível em: https://dl.acm.org/doi/abs/10.1145/3400806.3400820. Acesso em: 2 fev. 2021.</mixed-citation>

                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SERRANO</surname>
                            <given-names>Juan Carlos Medina</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <conf-name>Exploring political ad libraries for online advertising transparency: lessons from Germany and the 2019 European elections</conf-name>
                    <source><italic>SMSociety’20</italic>: International Conference on Social Media and Society</source>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://dl.acm.org/doi/abs/10.1145/3400806.3400820">https://dl.acm.org/doi/abs/10.1145/3400806.3400820</ext-link>.</comment>
                    <date-in-citation content-type="access-date">2 fev. 2021</date-in-citation>

                </element-citation>
            </ref>
            <ref id="B51">

                <mixed-citation>SKIBINSKI, Matt. Misinformation won’t stop unless we stop it. Predictions for Journalism 2021. <italic>NiemanLab</italic>, 2020. Disponível em: https://www.niemanlab.org/2020/12/misinformation-wont-stop-unless-we-stop-it/.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SKIBINSKI</surname>
                            <given-names>Matt</given-names>
                        </name>
                    </person-group>
                    <comment>Misinformation won’t stop unless we stop it. Predictions for Journalism 2021</comment>
                    <source>NiemanLab</source>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.niemanlab.org/2020/12/misinformation-wont-stop-unless-we-stop-it/">https://www.niemanlab.org/2020/12/misinformation-wont-stop-unless-we-stop-it/</ext-link></comment>

                </element-citation>
            </ref>
            <ref id="B52">

                <mixed-citation>SPINDLER, Gerald. Internet Intermediary Liability Reloaded The New German Act on Responsibility of Social Networks and its (In-) Compatibility with European Law. <italic>JIPITEC</italic>, n. 8, 2017.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SPINDLER</surname>
                            <given-names>Gerald</given-names>
                        </name>
                    </person-group>
                    <article-title>Internet Intermediary Liability Reloaded The New German Act on Responsibility of Social Networks and its (In-) Compatibility with European Law</article-title>
                    <source>JIPITEC</source>
                    <issue>8</issue>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B53">

                <mixed-citation>TUFEKCI, Zeynep. Algorithmic harms beyond Facebook and Google: emergent challenges of computational agency. <italic>Colorado Technology Law Review</italic>, n. 13, 2015.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TUFEKCI</surname>
                            <given-names>Zeynep</given-names>
                        </name>
                    </person-group>
                    <article-title>Algorithmic harms beyond Facebook and Google: emergent challenges of computational agency</article-title>
                    <source>Colorado Technology Law Review</source>
                    <issue>13</issue>
                    <year>2015</year>

                </element-citation>
            </ref>
            <ref id="B54">

                <mixed-citation>UNIÃO EUROPEIA. Código de Práticas sobre Desinformação da União Europeia. 2018. Disponível em: https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454. Acesso em: 3 fev. 2021.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>UNIÃO EUROPEIA</collab>
                    </person-group>
                    <source>Código de Práticas sobre Desinformação da União Europeia</source>
                    <year>2018</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454">https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454</ext-link></comment>
                    <date-in-citation content-type="access-date">3 fev. 2021</date-in-citation>

                </element-citation>
            </ref>
            <ref id="B55">

                <mixed-citation>VISENTIN, Marco; PIZZI, Gabriele; PICHIERRI, Marco. Fake news, real problems for brands: the impact of content truthfulness and source credibility on consumers’ behavioral intentions toward the advertised brands. <italic>Journal of Interactive Marketing</italic>, n. 45, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VISENTIN</surname>
                            <given-names>Marco</given-names>
                        </name>
                        <name>
                            <surname>PIZZI</surname>
                            <given-names>Gabriele</given-names>
                        </name>
                        <name>
                            <surname>PICHIERRI</surname>
                            <given-names>Marco</given-names>
                        </name>
                    </person-group>
                    <article-title>Fake news, real problems for brands: the impact of content truthfulness and source credibility on consumers’ behavioral intentions toward the advertised brands</article-title>
                    <source>Journal of Interactive Marketing</source>
                    <issue>45</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B56">

                <mixed-citation>VLADECK, David C. Information access – Surveying the current legal landscape of federal right-to-know laws. <italic>Texas Law Review</italic>, n. 86, 2008.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VLADECK</surname>
                            <given-names>David C.</given-names>
                        </name>
                    </person-group>
                    <article-title>Information access – Surveying the current legal landscape of federal right-to-know laws</article-title>
                    <source>Texas Law Review</source>
                    <issue>86</issue>
                    <year>2008</year>

                </element-citation>
            </ref>
            <ref id="B57">

                <mixed-citation>WAGNER, Ben Wagner et al. Regulating transparency? Facebook, Twitter and the German Network Enforcement Act. <italic>FAT* ‘20: Conference on Fairness, Accountability, and Transparency</italic>, 2020. Disponível em: https://dl.acm.org/doi/abs/10.1145/3351095.3372856. Acesso em: 1º fev. 2021.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WAGNER</surname>
                            <given-names>Ben Wagner</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <comment>Regulating transparency? Facebook, Twitter and the German Network Enforcement Act</comment>
                    <source>FAT* ‘20: Conference on Fairness, Accountability, and Transparency</source>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://dl.acm.org/doi/abs/10.1145/3351095.3372856">https://dl.acm.org/doi/abs/10.1145/3351095.3372856</ext-link></comment>
                    <date-in-citation content-type="access-date">1º fev. 2021</date-in-citation>

                </element-citation>
            </ref>
            <ref id="B58">

                <mixed-citation>WALTER, Nathan et al. Fact-checking: a meta-analysis of what works and for whom. <italic>Political Communication</italic>, v. 37, n. 3, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WALTER</surname>
                            <given-names>Nathan</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Fact-checking: a meta-analysis of what works and for whom</article-title>
                    <source>Political Communication</source>
                    <volume>37</volume>
                    <issue>3</issue>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B59">

                <mixed-citation>WARNER, Mark R. The Honest Ads Act. Disponível em: https://www.warner.senate.gov/public/index.cfm/the-honest-ads-act. Acesso em: 3 fev. 2021.</mixed-citation>

                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WARNER</surname>
                            <given-names>Mark R.</given-names>
                        </name>
                    </person-group>
                    <source>The Honest Ads Act</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.warner.senate.gov/public/index.cfm/the-honest-ads-act">https://www.warner.senate.gov/public/index.cfm/the-honest-ads-act</ext-link></comment>
                    <date-in-citation content-type="access-date">3 fev. 2021</date-in-citation>
                    <year>2021</year>

                </element-citation>
            </ref>
            <ref id="B60">

                <mixed-citation>WOOD, Abby K.; RAVEL, Ann M. Fool me once: regulating fake news and other online advertising. <italic>California Law Review</italic>, n. 91, 2018.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WOOD</surname>
                            <given-names>Abby K.</given-names>
                        </name>
                        <name>
                            <surname>RAVEL</surname>
                            <given-names>Ann M</given-names>
                        </name>
                    </person-group>
                    <article-title>Fool me once: regulating fake news and other online advertising</article-title>
                    <source>California Law Review</source>
                    <issue>91</issue>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B61">

                <mixed-citation>ZINGALES, Luigi; LANCIERI, Filippo Maria. Stigler Committee on Digital Platforms: Policy Brief. <italic>George J. Stigler Center for the Study of the Economy and the State</italic>, 2019. Disponível em: https://www.chicagobooth.edu/-/media/research/stigler/pdfs/policy-brief---digital-platforms---stigler-center.pdf.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ZINGALES</surname>
                            <given-names>Luigi</given-names>
                        </name>
                        <name>
                            <surname>LANCIERI</surname>
                            <given-names>Filippo Maria</given-names>
                        </name>
                    </person-group>
                    <article-title>Stigler Committee on Digital Platforms: Policy Brief</article-title>
                    <source>George J. Stigler Center for the Study of the Economy and the State</source>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.chicagobooth.edu/-/media/research/stigler/pdfs/policy-brief---digital-platforms---stigler-center.pdf">https://www.chicagobooth.edu/-/media/research/stigler/pdfs/policy-brief---digital-platforms---stigler-center.pdf</ext-link></comment>

                </element-citation>
            </ref>

        </ref-list>
    </back>
</article>
