<?xml version="1.0" encoding="utf-8"?><!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">rdp</journal-id>
            <journal-title-group>
                <journal-title>Revista Direito Público</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Rev. Dir. Publico</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2236-1766</issn>
            <publisher>
                <publisher-name>Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.11117/rdp.v18i99.5939</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>Assunto Especial</subject>
                    <subj-group>
                        <subject>Dossiê – Democracia, <italic>Fake News</italic> e eleições</subject>
                    </subj-group>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>Desinformação Política, Mídias Digitais e Democracia: Como e Por Que as Fake News Funcionam?</article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>Political Disinformation, Digital Media, and Democracy: Why and How Do Fake News Work?</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-3657-3965</contrib-id>
                    <name>
                        <surname>BACHUR</surname>
                        <given-names>JOÃO PAULO</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01"/>
                    <xref ref-type="fn" rid="fn01"/>
                    <xref ref-type="corresp" rid="c01"/>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <institution content-type="orgname">Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</institution>
                <addr-line>
                    <named-content content-type="city">Brasília</named-content>
                    <named-content content-type="state">DF</named-content>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP). Brasília (DF). Brasil.</institution>
            </aff>
            <author-notes>
                <fn fn-type="other" id="fn01">
                    <label>João Paulo Bachur</label>
                    <p>Graduado em Direito pela Universidade de São Paulo – USP (2001). Formou-se profissionalmente como Advogado no Escritório Lilla, Huck, Otranto, Ribeiro, Camargo &amp; Messina, em São Paulo, tendo atuado nas áreas de Direito Societário e Tributário (2000-2002). Mestrado (2004) e Doutorado (2009) em Ciência Política pela Faculdade de Filosofia, Letras e Ciências Humanas da USP (2009). Foi Pesquisador Visitante do Instituto de Filosofia da Universidade Livre de Berlim com bolsa de pós-doutorado da Fundação Alexander von Humboldt (2012-2013). Atuou como Professor Voluntário do Instituto de Ciência Política da Universidade de Brasília – UnB (2005-2007, 2010, 2015). Como Servidor Público Federal da Carreira de Especialista em Políticas Públicas e Gestão Governamental (2007-2017), atuou nas áreas de Assessoria Jurídica, Processo Legislativo e Gestão Pública. Foi Chefe de Gabinete do Ministro da Educação (2008-2011), Diretor de Política Regulatória da Secretaria de Regulação e Supervisão da Educação Superior do Ministério da Educação (2015) e Subchefe Adjunto do Núcleo Social da Subchefia de Análise e Acompanhamento de Políticas Governamentais da Casa Civil da Presidência da República (2016). Atualmente, é Advogado e Coordenador do Mestrado e do Doutorado em Direito Constitucional do IDP, em Brasília, e Professor do Insper/SP. Com experiência acadêmica em Direito, Teoria Política, Sociologia e Filosofia da Linguagem, tem publicações nacionais e internacionais nessas áreas.</p>
                </fn>
                <corresp id="c01">E-mail: <email>joao.bachur@idp.edu.br</email>
                </corresp>
            </author-notes>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2023</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <season>Jul-Sep</season>
                <year>2021</year>
            </pub-date>
            <volume>18</volume>
            <issue>99</issue>
            <fpage>436</fpage>
            <lpage>469</lpage>
            <history>
                <date date-type="received">
                    <day>30</day>
                    <month>06</month>
                    <year>2021</year>
                </date>
                <date date-type="accepted">
                    <day>06</day>
                    <month>10</month>
                    <year>2021</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution Non-Commercial</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais e que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMO</title>
                <p>A desinformação é hoje objeto de intenso debate, principalmente por conta dos riscos à democracia. Os contornos do fenômeno, contudo, remanescem relativamente imprecisos. Desinformação é comumente associada à mentira ou à liberdade de expressão. O artigo sustenta que a desinformação deve ser entendida como operação social, e não como conduta individual: ela orienta o comportamento humano, a despeito da falsidade, ao permitir uma atribuição de sentido ao mundo. Como isso acontece? Para responder a essa pergunta, o trabalho integra quatro eixos de análise: (i) a fragmentação da esfera pública permite compreender o ambiente em que se desenvolve a ubiquidade das novas mídias digitais; (ii) o modelo de negócios baseado no engajamento <italic>on-line</italic> reverte características básicas da esfera pública: a integração de pontos de vista conflitantes; (iii) essa reversão produz efeitos para o indivíduo que simulam o comportamento de massa (contágio emocional e suspensão da racionalidade); e (iv) a reiteração de um enunciado linguístico produz um “efeito-verdade” para a desinformação ao permitir que o destinatário use o enunciado para atribuir sentido ao mundo. O artigo propõe uma sociologia interdisciplinar da desinformação, oferecendo uma descrição inédita e precisa dos processos sociais que estruturam o fenômeno.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>Disinformation is currently a topic of intense discussion, mainly due to the risks it poses to democracy. The features of the phenomenon, however, remain relatively unclear. Disinformation is usually seen as a simple lye or as the exercise of the freedom of speech. The paper argues that disinformation should be understood as a social operation, and not as an individual conduct: despite its falsehood, it guides human behavior by ascribing meaning to the world. How does it work? To answer this question, this paper integrates four analytic levels: (i) the fragmentation of public sphere describes the environmental context in which the digital media reached ubiquity; (ii) the engagement-based business model of on-line platforms reverses the key aspect of public sphere, namely the integration of conflicting points of view; (iii) this reversion effects individuals by simulating mass behavior (emotional contagion and suspension of rationality); and (iv) the reiteration of a linguistic statement produces a “truth-effect” in favor of the false information, for it enables the receiver to make sense of the world. The paper proposes an interdisciplinary sociology of disinformation, providing a unique and accurate description of the social process that structure the phenomenon.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>PALAVRAS-CHAVE</title>
                <kwd>Desinformação</kwd>
                <kwd>mídias digitais</kwd>
                <kwd>esfera pública</kwd>
                <kwd>psicologia de massas</kwd>
                <kwd>filosofia da linguagem</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>KEYWORDS</title>
                <kwd>Disinformation</kwd>
                <kwd>digital media</kwd>
                <kwd>public sphere</kwd>
                <kwd>mass psychology</kwd>
                <kwd>speech acts theory</kwd>
            </kwd-group>
            <counts>
                <fig-count count="1"/>
                <table-count count="0"/>
                <equation-count count="0"/>
                <ref-count count="56"/>
                <page-count count="34"/>
            </counts>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>INTRODUÇÃO<xref ref-type="fn" rid="fn02">2</xref></title>
            <p>Este artigo investiga, em uma abordagem interdisciplinar, como o fenômeno da desinformação se estrutura <italic>socialmente</italic> – isto é, como a desinformação opera do ponto de vista da sociedade, e não do indivíduo isoladamente considerado. O impacto das chamadas <italic>fake news</italic> sobre processos democráticos, notadamente após Brexit, Trump e Bolsonaro, dentre outros, é hoje inquestionável (<xref ref-type="bibr" rid="B09">Benkler; Faris; Roberts, 2018</xref>; <xref ref-type="bibr" rid="B10">Benkler; Sunstein <italic>et al</italic>., 2018</xref>; <xref ref-type="bibr" rid="B53">Vilmer <italic>et al</italic>., 2018</xref>; <xref ref-type="bibr" rid="B26">ICO 2018</xref>, p. 47; <xref ref-type="bibr" rid="B18">Da Empoli, 2019</xref>, p. 12; <xref ref-type="bibr" rid="B20">Evangelista; Bruno 2019</xref>). Não obstante, as democracias ocidentais ainda não encontraram uma solução jurídica ou política para o problema: qual a fronteira entre desinformação e liberdade de expressão? Quais os limites da liberdade de expressão? Como evitar que tais limites se convertam em censura? E censura por parte de quem, das plataformas de comunicação digital? Podemos (ou devemos) colocar a democracia nas mãos das gigantescas empresas de comunicação digital? Temos alternativa? Todas essas questões são hoje objeto de intenso debate.</p>
            <p>Talvez parte da dificuldade esteja relacionada a limitações na observação da desinformação como fenômeno social<xref ref-type="fn" rid="fn03">3</xref>. Muitos atribuem a disseminação de notícias falsas aos chamados <italic>bots</italic> (robôs), aplicações de <italic>software</italic> que simulam comportamento humano nas redes sociais replicando conteúdos e interações (postagens) de forma automática. Contrariando essa intuição, criterioso levantamento empírico de pesquisadores do Media Lab (MIT) demonstra que robôs difundem notícias verdadeiras e falsas na mesma proporção: maiores volume e velocidade na disseminação de notícias falsas decorrem na verdade do comportamento humano, e não de <italic>bots</italic> (Vosoughi <italic>et al</italic>., 2018). Por essa razão, os autores sugerem pesquisas qualitativas (entrevistas e até mesmo experimentos de neurociência) para aferir os fatores que interferem no “julgamento humano” e favorecem a disseminação de notícias falsas (p. 1150).</p>
            <p>Sem pretender invalidar essa rota para futuras pesquisas empíricas, a premissa que guia este trabalho é a de que a compreensão do fenômeno da desinformação não deve partir de comportamentos individuais, na tentativa de aferir se e por que (algumas) pessoas acreditam em notícias falsas, ou se e por que (algumas) pessoas compartilham notícias falsas conscientes da falsidade. A busca da <italic>intenção subjetiva</italic> nos parece pouco promissora por algumas razões, que apresentaremos de forma heurística e provisória, desenvolvendo-as ao longo deste estudo, quais sejam: (<italic>i</italic>) a desinformação é uma forma de comunicação socialmente estruturada, antecedendo e condicionando, por isso, o comportamento individual; (<italic>ii</italic>) a desinformação ativa gatilhos emocionais nem sempre acessíveis ao controle racional do indivíduo, pois que enraizados no inconsciente ou nas camadas mais profundas da psique; e (<italic>iii</italic>) a reiteração de enunciados linguísticos é determinante no processo de constituição de sentido operado pela desinformação, <italic>i.e.</italic>, na forma pela qual indivíduos atribuem sentido ao mundo.</p>
            <p>Esses fatores relativizam a própria falsidade da desinformação ao permitirem que o indivíduo se oriente e se posicione frente a discussões éticas, políticas, científicas etc. Ou seja, o processo social pelo qual a desinformação operada torna <italic>relativamente indiferente</italic> a origem falsa (ou “mentirosa”) da informação, simulando algo como um “efeito-verdade” (<xref ref-type="bibr" rid="B50">Unkelbach <italic>et al</italic>., 2019</xref>). Não se pretende sustentar que desinformação seja por isso indiferente: muito pelo contrário. O grande risco à democracia reside justamente no fato de que a desinformação permite que os indivíduos “entendam”, ou melhor, acreditem entender o mundo de uma maneira que lhes parece confiável, na qual a origem da falsidade é, por assim dizer, “apagada”.</p>
            <p>Justamente por isso, soluções que apostam em agências de checagem ou códigos de conduta para o compartilhamento de memes e mensagens privadas soam ingênuas (<xref ref-type="bibr" rid="B16">Branco, 2018</xref>; Träsel, 2018).</p>
            <p>A literatura especializada costuma mencionar que as notícias falsas não são um fenômeno novo, embora tenham sido potencializadas pelas mídias digitais. Diferença quantitativa, portanto (e não qualitativa). Parece haver aí uma equiparação entre desinformação e mentira. É claro, a mentira na política está longe de ser um fato novo. Basta recordar as reflexões de <xref ref-type="bibr" rid="B03">Hannah Arendt (1972)</xref> ou episódios recentes como a fala do então Secretário de Estado norte-americano Colin Powell perante o Conselho de Segurança da ONU, em fevereiro de 2003, quanto à existência de armas de destruição em massa no Iraque, suportando a guerra pretendida por George W. Bush; ou ainda os depoimentos de integrantes e ex-integrantes do governo Bolsonaro na CPI da Covid-19, entre maio e junho de 2021. A mentira é tão constitutiva da política quanto o risco de que a democracia se degenere em demagogia.</p>
            <p>Este artigo sustenta que a desinformação caracteriza um fenômeno novo, distinto da mentira enquanto comportamento individual intencional e moralmente reprovável (cf. <xref ref-type="bibr" rid="B40">Simmel, [1899] 2016</xref>, e <xref ref-type="bibr" rid="B19">Derrida, 1996</xref>, para uma sociologia e uma filosofia da mentira, respectivamente). A desinformação pode ser compreendida como a</p>
            <p><disp-quote>
                    <p>informação falsa ou enganosa que, cumulativamente: (a) é criada, veiculada e disseminada para obter ganho econômico ou intencionalmente enganar o público; (b) com potencial de causar dano público, entendido como ameaça a processos políticos democráticos, políticas públicas e bens públicos tais como a saúde dos cidadãos, o meio ambiente ou a segurança.<xref ref-type="fn" rid="fn04">4</xref></p>
                </disp-quote></p>
            <p>Nessa definição, a desinformação parece ser um fenômeno qualitativamente diferente da mentira empregada de forma retórica ou estratégica no dia a dia da <italic>Realpolitik</italic>, e que opera socialmente mediante uma lógica específica.</p>
            <p>Para esboçar a “lógica interna” (“<italic>Eigengesetzlichkeit</italic>”) da desinformação, este artigo apresenta quatro dimensões <italic>sociais</italic> do fenômeno: inicialmente, (i) apresentamos a fragmentação da esfera pública como contexto indispensável para a emergência da desinformação. Na sequência, veremos como (ii) o modelo de negócio das plataformas digitais se estruturou nesse ambiente de fragmentação. Em seguida, passamos (iii) à análise dos efeitos emocionais e irracionais produzidos pelas novas mídias digitais, atualizando a tese canônica da psicologia de massas de Gustave Le Bon. Em último lugar, (iv) analisaremos como a desinformação funciona do ponto de vista de uma teoria dos atos de fala e da força performativa da linguagem. Veremos que o componente proposicional do enunciado linguístico (<italic>i.e.</italic>, sua correspondência a uma situação fática) é obnubilado pelo elemento performativo: o mundo bipolar que <italic>a mensagem linguística cria</italic>, <italic>instando o destinatário a se posicionar</italic>. Ao final, traremos algumas conclusões que podem iluminar a tarefa prática de regular, política e juridicamente, as plataformas digitais. Esse percurso interdisciplinar poderia ser descrito, de forma geral, como uma sociologia da desinformação. A desinformação, entendida como operação genuinamente social (<italic>i.e.</italic>, como operação da sociedade, e não como ato individual subjetivo), produz sentido e orienta o comportamento coletivo, <italic>apesar</italic> da falsidade que lhe caracteriza. Esse o problema a ser elucidado.</p>
            <p>Neste artigo, focamos especialmente a desinformação política e sua relação com a democracia. O trabalho segue metodologia de análise bibliográfica interdisciplinar, cobrindo desde clássicos da sociologia e da psicologia social até recentes <italic>reports</italic> de <italic>think tanks</italic> especializados no tema<xref ref-type="fn" rid="fn05">5</xref>.</p>
        </sec>
        <sec>
            <title>1 FRAGMENTAÇÃO DA ESFERA PÚBLICA: DA CREDIBILIDADE AO ENGAJAMENTO</title>
            <p>O primeiro passo para avançarmos na descrição sociológica da desinformação é reconstruir o processo de fragmentação da esfera pública. Esse fenômeno pode ser descrito pela passagem de uma esfera pública estruturada pela <italic>credibilidade da informação</italic> a uma esfera pública (des)estruturada pelo <italic>engajamento do usuário</italic>. A reconstrução dessa passagem segue três etapas: (i) a formação da esfera pública literária e sua conversão em esfera pública <italic>política</italic>, historicamente marcada na passagem do século XVII ao século XVIII, culminando na Revolução Francesa; (ii) a consolidação de uma esfera pública de massas, que deu forma à indústria cultural entre meados do século XIX e meados do século XX; e (iii) a esfera pública digital.</p>
            <p>Cada etapa e tipo de esfera pública tem meios de comunicação específicos como seu substrato material central: (i) a esfera pública política dos séculos XVII e XVIII está associada à imprensa escrita e aos jornais diários; (ii) a esfera pública de massas, ao rádio e à televisão; e (iii) a esfera pública fragmentada, por sua vez, à internet, ao <italic>smartphone</italic> e às mídias digitais. A cada esfera pública corresponde um modelo jurídico de Estado: o Estado absoluto sucumbe com a ascensão da imprensa, abrindo caminho para o liberalismo. O Estado de bem-estar depende do consumo de massa e de uma mídia de massa. Após o neoliberalismo, o Estado contemporâneo vive imbricado nas redes comunicativas das mídias digitais (cf. <xref ref-type="bibr" rid="B51">Vesting, 2011a</xref>, 2011b, 2013, 2015).</p>
            <p>Nenhuma outra teoria social está tão centralmente apoiada no conceito de esfera pública quanto a teoria do discurso de <xref ref-type="bibr" rid="B23">Habermas (1962)</xref>. A esfera pública é responsável tanto por uma versão de democracia deliberativa baseada na busca pelo consenso quanto pelo restabelecimento das relações entre direito e moral nos termos de uma ética discursiva (<xref ref-type="bibr" rid="B24">Habermas, 1992</xref>).</p>
            <p>A esfera pública pode ser definida como a reunião de pessoas privadas em um público (<xref ref-type="bibr" rid="B23">Habermas, 1962</xref>, p. 86). A definição parece tautológica, mas não é: acentua que a formação de um juízo político é feita por um público, em público. A investigação habermasiana parte do cânone historiográfico estabelecido por <xref ref-type="bibr" rid="B28">Koselleck</xref> em seu clássico <italic>Crítica e crise</italic> (1959). Koselleck reconstitui, a partir de Hobbes, o processo pelo qual a política se emancipa da moral e tem de se justificar por conta própria, sem recurso à legitimação teológica do poder absoluto – perante um <italic>público</italic>. Com o correr dos séculos XVII e XVIII, esfera pública passa a ser essa espécie de “tribunal moral” (<xref ref-type="bibr" rid="B28">Koselleck, 1959</xref>, p. 20 e ss.) que julga a pretensão de legitimidade do poder político. O processo pode parecer jurássico para usuários do Facebook, WhatsApp e Instagram, mas está longe de ser trivial.</p>
            <p>A esfera pública política se forma a partir de uma esfera pública originalmente criada para o consumo de arte (<xref ref-type="bibr" rid="B23">Habermas, 1962</xref>, p. 116 ss.). O público se forma como público do teatro, das filarmônicas, dos museus: como o conjunto de pessoas privadas empenhadas em julgar a vanguarda estética do período. Esse processo, em que também a arte se emancipa da velha moral religiosa e se institucionaliza em organizações próprias, como museus, galerias, exposições, saraus, récitas etc. – a diferenciação funcional da arte (<xref ref-type="bibr" rid="B33">Luhmann, 1995</xref>) –, segue o desenvolvimento das cidades e, nelas, dos cafés e salões em que os burgueses se entretinham discutindo arte. É nesse contexto que os cidadãos desenvolvem uma habilidade essencial: a capacidade de argumentar, em um debate público, a partir da ponderação de pontos de vista divergentes:</p>
            <p><disp-quote>
                    <p>Museus, assim como concertos e peças de teatro, institucionalizam o julgamento leigo da arte: a discussão é o meio de apropriação estética. Os inúmeros panfletos de crítica ou apologia da teoria estética dominante se conectam com as conversas nos salões e são assim absorvidos – crítica estética como conversação.</p>
                    <attrib>(<xref ref-type="bibr" rid="B23">Habermas, 1962</xref>, p. 102-103)</attrib>
                </disp-quote></p>
            <p>A discussão em torno de pontos de vista antagônicos – sobre os autorretratos de Rembrandt, os novos romances de Balzac ou Goethe, ou o uso do coro na nona sinfonia por Beethoven, por exemplo – institucionaliza a formação de juízos estéticos como processos <italic>argumentativos públicos e coletivos</italic> – o que não pressupõe consenso ou concordância, mas a contínua ponderação de argumentos divergentes. A esfera pública passa a ser o fórum de integração de pontos de vista conflitantes: a deliberação em público (inicialmente restrita à arte; depois expandida à política) mantinha pontos de vista conflitantes simultaneamente acessíveis a todos, isto é, não anulava qualquer dos pontos de vista em um consenso monolítico. Tratava-se de institucionalizar a <italic>crítica</italic> e o <italic>debate</italic> como operações sociais. <xref ref-type="bibr" rid="B28">Koselleck (1959)</xref> mostra que a antecâmara da Revolução Francesa foi processada de forma conspiratória, apoiada na maçonaria e em sociedades secretas. O que tornou a esfera pública revolucionária foi a transposição da crítica engendrada pelo segredo conspiratório para as luzes da esfera pública – que, <italic>nesse processo</italic>, tornou-se esfera pública propriamente <italic>política</italic>.</p>
            <p>Com a Revolução Francesa e a consolidação das instituições parlamentares ao longo do século XIX, a esfera pública se institucionalizou como instância paralela aos parlamentos na formação da vontade política coletiva, apoiada na imprensa escrita. Essa a primeira transformação estrutural da esfera pública.</p>
            <p>No século XX, a incorporação das massas trabalhadoras na esfera pública de origem burguesa e o correlato desenvolvimento da “indústria cultural” (<xref ref-type="bibr" rid="B01">Adorno; Horkheimer, 1947</xref>, p. 139/140) configuram uma nova mudança estrutural da esfera pública (<xref ref-type="bibr" rid="B23">Habermas, 1962</xref>, p. 326 e ss.). Os (então) novos meios de comunicação de massa, o rádio e a televisão, permitiram configurar o que se pode designar por esfera pública de <italic>broadcasting</italic>: transmissão de <italic>uma</italic> mensagem por vez, por veículo, para uma audiência indeterminada (<xref ref-type="bibr" rid="B38">Pariser, 2011</xref>, p. 22 e ss.). Como se trata de uma única mensagem endereçada a um destinatário potencial universal, a mensagem precisa ser nivelada e “normalizada”, adotando-se aqui a imagem matemática de uma curva normal (<italic>i.e.</italic>, eliminando pontos de vista extremos), pois pressupõe uma apreensão relativamente homogênea (p. 128). Por essa razão, a mídia de <italic>broadcasting</italic> é muitas vezes caracterizada como um “intermediário de interesse geral” (<xref ref-type="bibr" rid="B46">Sunstein, 2017</xref>, p. 18): ela precisa representar a curva normal da opinião política, e a melhor forma para isso (com todas as imperfeições possíveis da mídia tradicional) é eliminar extremos.</p>
            <p>A partir de meados dos anos 1990, tem lugar uma terceira mudança estrutural da esfera pública provocada pelos meios eletrônicos de comunicação. É com o uso massivo, em escala global, dos novos meios eletrônicos de comunicação (potencializado fundamentalmente pelos <italic>smartphones</italic>), que o processo de fragmentação da esfera pública se inicia. Niklas Luhmann, em um texto visionário – antes da fundação da Google e muito antes do Facebook, do WhatsApp ou do iPhone –, destaca o impacto dos meios eletrônicos de comunicação sobre a esfera pública, identificando como eles solapariam as bases em que se assentava a esfera pública tradicional:</p>
            <p><disp-quote>
                    <p>Com efeito, a modificação que realmente traz consequências parece estar na invenção e no desenvolvimento de máquinas eletrônicas de processamento de informação. [...] Em muitos casos (exceção: telefone), a técnica impõe a unilateralidade da comunicação. Em parte, isso é consequência da intermediação por aparatos e, em parte, é uma exigência da comunicação de massas à qual a imprensa já se havia resignado. Isso altera os processos de seleção dos dois lados do aparato eletrônico. [...] O emissor escolhe temas e formas, encenações e sobretudo o momento da emissão levando em consideração o que lhe parece adequado. O receptor seleciona aquilo que quer ver ou ouvir. A comunicação ocorre então em um hiperciclo de seleções recíprocas, mas, a partir do momento em que ela ocorre, ela já não pode se autocorrigir. [...] Isso significa: a autoridade da fonte, com todas as suas salvaguardas sócio-estruturais imprescindíveis (estratificação e reputação) se torna dispensável, pois que anulada pela técnica e substituída por fontes anônimas e desconhecidas.</p>
                    <attrib>(<xref ref-type="bibr" rid="B35">Luhmann, 1997</xref>, p. 303, 308 e 309)</attrib>
                </disp-quote></p>
            <p>A esfera pública tradicional, apoiada no jornalismo de <italic>broadcasting</italic>, era estratificada e organizada pelos grandes conglomerados jornalísticos. Essa estratificação provocava, por óbvio, assimetrias e hegemonias de caráter político (<xref ref-type="bibr" rid="B13">Bourdieu, 1994</xref>). Não obstante, ela exercia uma função para a sociedade como um todo: provia <italic>parâmetros interpretativos</italic> com recurso aos quais os indivíduos podiam interpretar a representação do mundo fornecida pela grande mídia. “Tudo que nós sabemos sobre nossa sociedade, e também sobre o mundo em que vivemos, sabemos através dos meios de comunicação de massa” (<xref ref-type="bibr" rid="B34">Luhmann, [1995b] 2004</xref>, p. 9). Ao lermos uma determinada notícia, temos acesso ao produto final de uma cadeia de editoração e edição jornalística, guiada (pelo menos em tese) pelo princípio da apuração imparcial e pelo compromisso (pelo menos formal) com a verdade dos fatos<xref ref-type="fn" rid="fn06">6</xref>. Somos então capazes de avaliar a cobertura jornalística de um determinado evento, julgando-a conforme critérios de credibilidade, reputação (do veículo, das fontes etc.) e confiabilidade. É claro que essa estrutura piramidal da esfera pública tradicional não poderia ser designada como democrática. Apesar disso, aquelas “salvaguardas socioestruturais imprescindíveis (estratificação e reputação)” de que fala Luhmann disponibilizavam recursos para que os indivíduos pudessem interpretar o mundo retratado pelos meios de comunicação de massa, concordando ou discordando da mensagem veiculada – apontando, inclusive, eventual parcialidade. No caso brasileiro, há bem pouco tempo era possível discordar ou criticar, mas nunca simplesmente ignorar o que aparecia, digamos, no Jornal Nacional. Ninguém suporia que, em um intervalo muito curto de tempo, vídeos produzidos para canais do YouTube e replicados em grupos de WhatsApp ou Telegram poderiam disputar o monopólio jornalístico da televisão de sinal aberto<xref ref-type="fn" rid="fn07">7</xref>.</p>
            <p>Essa credibilidade da mídia tradicional foi erodida, em medida significativa, pelos novos meios digitais de comunicação. As novas mídias digitais tornaram a internet acessível a qualquer um – e, se pode haver aí algum ganho de democratização (o que questionaremos na próxima seção), a produção, circulação e replicação infinitesimal de mensagens e conteúdos produzidos por indivíduos privados imerge os usuários em um oceano de ruído. Esse ruído precisa ser apreensível para fazer (algum) sentido. É preciso reduzir complexidade. O capitalismo das plataformas digitais é então caracterizado por uma disputa pela <italic>atenção do usuário</italic>. A torrente de postagens, compartilhamentos e interações geradas pelos usuários das novas mídias digitais exigiu algum mecanismo de filtro – os algoritmos – que se aprimoraram para captar aquilo que potencialmente pudesse interessar a cada usuário. Logo passaremos a isso em maior detalhe. O ponto é que, com Luhmann, vê-se que “a técnica anula a autoridade da fonte e a substitui pelo irreconhecível da fonte”.</p>
            <p>Da autoridade da fonte à fonte anônima; da credibilidade ao engajamento: as transformações da esfera pública (com a mídia impressa nos séculos XVIII e XIX; o <italic>broadcasting</italic> de massa no século XX e as novas mídias digitais de hoje) estão, na verdade, inseridas em um longo processo de erosão dos aparatos hermenêuticos que sempre nos ajudaram a atribuir sentido ao mundo. A melhor referência aqui continua sendo Luhmann (1997, p. 145-324): esse processo, que culmina nos meios eletrônicos de comunicação, está relacionado à fratura do monopólio hermenêutico da igreja católica provocada pela Reforma Protestante e indissociável tanto da tradução da Bíblia quanto da difusão da imprensa. Aqui precisamos ser esquemáticos para não comprometer o fluxo do argumento: a tradução da Bíblia para o alemão e o inglês abriram caminho para a crítica leiga do texto fundante do Cristianismo, não sendo mais possível assegurar <italic>uma única</italic> interpretação <italic>unitária</italic> do mundo. Com isso, o passo para questionar o Antigo Regime e o direito divino dos reis era questão de tempo. Os séculos XIX e XX consolidaram o <italic>broadcasting</italic>, que passou a ser um dos principais aparatos hermenêuticos para nossa compreensão do mundo. As mídias digitais fragmentam esses aparatos. Os usuários das novas mídias digitais, via de regra, não conseguem aferir se aquilo que leem em seu celular é representativo dos principais problemas sociais e políticos do momento, se as fontes são fidedignas e se, é claro, não se trata de desinformação. A perda desse crivo de comparabilidade, proporcionalidade e credibilidade, promovida pelas novas mídias sociais, é precisamente o que caracteriza a fragmentação da esfera pública. As consequências da fragmentação da esfera pública, no que diz respeito aos riscos à democracia, estão relacionadas à formação das bolhas (“<italic>filter bubbles</italic>”) e câmaras de ressonância (“<italic>echo chambers</italic>”), bem como à polarização política que a interação nesse contexto digital provoca.</p>
            <p><disp-quote>
                    <p>O ganho de importância das redes sociais resulta, ademais, em uma <italic>ascensão de particularismos</italic> e no <italic>retrocesso</italic> de uma parte da esfera pública a <italic>fóruns de pessoas que pensam da mesma forma</italic>. A formação de tais fóruns é reforçada também pela inserção de algoritmos de aprendizagem automática que, de forma direcionada, recompensam contribuições específicas que desencadeiam fortes emoções e interações diretas e terminam por ter como resultado “criar para o usuário individual seu mundo próprio e singular”. Aqui se chega a uma autolimitação temática preocupante, a uma <italic>cegueira narcisista em relação às realidades da vida</italic> que se encontram fora do próprio grupo e que <italic>não permitem mais uma percepção mútua de imagens de mundo e visões de mundo de outros milieus culturais</italic>”.</p>
                    <attrib>(<xref ref-type="bibr" rid="B52">Vesting, 2018</xref>, p. 102/103 – grifos acrescidos)</attrib>
                </disp-quote></p>
            <p>Nesse passo, é preciso descrever o modelo de negócio das plataformas e relacioná-lo à polarização política.</p>
        </sec>
        <sec>
            <title>2 MODELO DE NEGÓCIOS DAS PLATAFORMAS DIGITAIS E POLARIZAÇÃO POLÍTICA</title>
            <p>Como adiantamos na introdução, a desinformação “funciona” socialmente ao permitir que os indivíduos se orientem politicamente. Para que essa orientação seja possível, é indispensável que o destinatário das <italic>fake news</italic> perceba o mundo em uma chave bipolar (<xref ref-type="bibr" rid="B08">Barfar, 2019</xref>). Todo e qualquer tema político deve ser apresentado em uma versão “contra/a favor”, oferecendo a opção de se situar em um dos lados. A desinformação, especialmente na política, exige polarização. Nesta seção, veremos como o aprimoramento dos algoritmos das mídias digitais aprofundou a polarização política, ameaçando a democracia<xref ref-type="fn" rid="fn08">8</xref>.</p>
            <p>Claro, há visões que questionam a associação entre as novas mídias digitais, desinformação e polarização política:</p>
            <p><disp-quote>
                    <p>Não há evidências concretas de que a difusão de <italic>fake news</italic> mude o curso de eleições, nem que o aumento de <italic>bots</italic> impacte negativamente como as pessoas discutem política. Não vivemos em um mundo pós-verdade. [...] Há problemas com a busca do Google, os filtros do Facebook e o <italic>trending</italic> do Twitter. Mas precisamos lembrar que essas ferramentas são excepcionais.</p>
                    <attrib>(<xref ref-type="bibr" rid="B44">Sumpter, 2018</xref>, p. 172 e 175)</attrib>
                </disp-quote></p>
            <p><disp-quote>
                    <p>Exposição à discordância política em mídias sociais parece elevada, acesso à internet e uso de mídias sociais não estão correlacionados com crescimento da polarização e a má informação [“<italic>misinformation</italic>”] parece ter apenas efeitos limitados no nível de conhecimento político dos cidadãos.</p>
                    <attrib>(<xref ref-type="bibr" rid="B49">Tucker <italic>et al</italic>., 2018</xref>, p. 15)</attrib>
                </disp-quote></p>
            <p>Ora, ninguém questiona o valor das plataformas digitais para os nossos dias. Hoje é praticamente impossível realizar algumas das tarefas mais comezinhas da vida cotidiana sem os recursos disponibilizados pelas novas mídias digitais. A continuidade de algumas atividades econômicas, acadêmicas e profissionais durante a pandemia de Covid-19 só foi possível graças a essas tecnologias (mas a tecnologia também intensificou, justamente no contexto da pandemia, o monitoramento e a vigilância dos cidadãos, especialmente em países como a China, para ficarmos com o exemplo mais notório). As novas mídias digitais alteraram a sociabilidade de maneira profunda, estrutural e permanente. Há vinte anos ninguém se expunha da forma permitida hoje por Facebook, Twitter ou Instagram; ninguém reagia a tudo que circula nas redes sociais de forma praticamente instantânea. Essa nova sociabilidade é possível graças ao substrato técnico que altera a forma como as pessoas interagem e percebem o mundo. E essa nova sociabilidade muda o comportamento – <italic>on-line e off-line</italic> – o que só torna mais importante investigar os efeitos potencialmente disfuncionais dessas novas tecnologias.</p>
            <p>Não pretendemos, por isso, imputar às novas mídias sociais uma espécie de causalidade mecânica na produção da polarização política. O que pretendemos acentuar é que essas novas tecnologias adquiriram funcionalidades que potencializaram o impacto e o alcance da desinformação. Se as plataformas não criaram a polarização, seus algoritmos também não a bloqueiam. Ao contrário, intensificam-na. O fator tempo é crucial: por óbvio, não é a criação das plataformas digitais <italic>per se</italic> que compromete a democracia. O Facebook foi de fato criado para integrar comunidades acadêmicas (quase como um <italic>site</italic> de encontros muito sutil). O buscador da Google foi criado para entregar ao usuário o melhor resultado para a busca pretendida. A Amazon busca de fato sugerir livros que possam nos interessar. Mas, com o tempo, cada vez mais pessoas passaram a dedicar cada vez mais horas de seus dias à interação nas novas mídias digitais. Com o tempo, essas plataformas passaram a dispor de volume inédito de dados pessoais. Sem alguma forma de filtro ou priorização, a tecnologia se anularia. Os filtros de relevância surgem como uma solução técnica para organizar a informação da plataforma para o próprio usuário<xref ref-type="fn" rid="fn09">9</xref>. Por isso, algoritmos de relevância associados ao <italic>targeted-marketing</italic> produziram efeitos de médio prazo potencialmente disfuncionais.</p>
            <p>Como vimos, as novas mídias digitais provocaram uma transformação essencial na esfera pública: a tradicional mídia de <italic>broadcasting</italic> perdeu o monopólio como ferramenta de interpretação do mundo. É claro, a relação entre a mídia tradicional e as novas mídias é complexa e objeto de intenso debate. Se, por um lado, as novas mídias digitais passaram a ser empregadas como fonte predominante de informação, sabe-se que muito do que circula nas redes sociais é originado pela mídia tradicional (<xref ref-type="bibr" rid="B49">Tucker <italic>et al</italic>., 2018</xref>)<xref ref-type="fn" rid="fn10">10</xref>. Não obstante, as novas mídias digitais mudaram a forma como as pessoas percebem o mundo e suas relações interpessoais. Nesse aspecto específico, elas tomaram o lugar da tradicional mídia de <italic>broadcasting</italic>. Mesmo a mídia tradicional é hoje apreendida (<italic>i.e.</italic>, consumida de forma massiva) por intermédio de redes sociais e aplicativos de smartphones. O crescimento das mídias digitais coincide com declínio da mídia tradicional (<xref ref-type="bibr" rid="B55">Wardle; Derakhshan, 2017</xref>, p. 51). E o fio condutor para operar essa mudança parecer ter sido uma profunda alteração na lógica publicitária.</p>
            <p>Anunciantes perceberam que o <italic>marketing</italic> na mídia de <italic>broadcasting</italic> era muito menos efetivo e muito mais caro do que o <italic>marketing</italic> apoiado na coleta intensiva de dados pessoais, <italic>profiling</italic> e <italic>micro-targeting</italic>: ao invés de investir em anúncios de página inteira em jornais diários ou em inserções no horário nobre da televisão, tornou-se mais certeiro e muito mais barato apostar no <italic>targeted-marketing</italic>, isto é, na mensagem publicitária especificamente desenhada para um público pré-determinado (<xref ref-type="bibr" rid="B38">Pariser, 2011</xref>, p. 47/49). Essa inflexão é decisiva para a consolidação do modelo de negócios das plataformas digitais. Em um primeiro momento, ela foi viabilizada pelo uso dos algoritmos nas plataformas; na sequência, passou a motivar o aprimoramento e a intensificação no emprego desses algoritmos. O desenho das interfaces digitais e das funcionalidades das plataformas tem um efeito direto na fragmentação da esfera pública em função das chamadas <italic>bolhas</italic> (“<italic>filter-bubbles</italic>”) ou <italic>câmaras de ressonância</italic> (“<italic>echo chambers</italic>”), espaços digitais em que o usuário vê sua própria imagem replicada e ampliada – o que, por sua vez, amplifica e intensifica a polarização política.</p>
            <p>O momento decisivo em que as plataformas digitais transformaram a economia mundial de fins do século XX e início do XXI está em associar uma determinada atividade empresarial à <italic>personalização</italic> dessa atividade. Isso significa que cada consumidor/usuário passa a ter uma experiência única em uma determinada plataforma. Ao ser fundada em 1994, a Amazon pretendia replicar, na compra de livros <italic>on-line</italic>, a experiência reconfortante das pequenas livrarias de bairro, em que o dono recomendava sugestões de leitura a seus clientes habituais (<xref ref-type="bibr" rid="B38">Pariser, 2011</xref>, p. 28). Para isso, empregava a Tapestry, ferramenta desenvolvida pelo Xerox Palo Alto Research Center, <italic>think tank</italic> responsável por inovações tecnológicas adotadas mundialmente, como o <italic>mouse</italic> ou a interface de usuário dos computadores (<italic>graphical user interface</italic>: a tela com ícones e um cursor para apontar, controlado pelo <italic>mouse</italic>). Tapestry foi o primeiro <italic>filtro colaborativo</italic> desenhado para identificar relevância: a ferramenta organizava as caixas de entrada de <italic>e-mails</italic> a partir do histórico do comportamento dos usuários, ordenando as mensagens potencialmente relevantes. A Amazon revolucionou o <italic>e-commerce</italic> ao empregar filtros de relevância para quebrar o caráter impessoal da compra <italic>on-line</italic>. “E, é claro, você não precisava usar [filtros de relevância] só para <italic>e-mails</italic>” (<xref ref-type="bibr" rid="B38">Pariser, 2011</xref>, p. 27).</p>
            <p>Filtros colaborativos poderiam ser utilizados para qualquer fluxo de informação grande o suficiente para exigir uma ordenação por relevância. A relevância é definida pelo histórico do usuário em lidar com esse fluxo de informação. E se, em fins dos anos 1990, apenas a Amazon utilizava a tecnologia, tentando acertar na recomendação de livros para seus consumidores, esse tipo de filtro passou a ser indispensável à medida que o volume de informação e transmissão de dados na internet adquiriu escala planetária – o que se tornou realidade com os <italic>smartphones</italic>. A partir de então, quando bilhões de pessoas passaram a gerar milhões de dados por minuto, esse tipo de filtro colaborativo para indicar relevância passou a ser a tecnologia central – tanto para rastrear o percurso de navegação <italic>on-line</italic> por usuários do buscador Google quanto para organizar o <italic>feed</italic> de notícias e notificações do Facebook, do Twitter ou do Instagram, por exemplo. Nisso reside o paradoxo das novas mídias digitais: a chave para identificar a informação relevante está em processar uma quantidade muito grande de dados, mas essa quantidade de dados exige filtros cada vez mais refinados – o que exige, por sua vez, cada vez mais dados.</p>
            <p>Essa tecnologia de filtros de relevância com base em dados permitiu customizar a experiência virtual de cada usuário, tornando sua experiência <italic>on-line</italic> única. Trata-se do “<italic>daily me</italic>”, a imagem antevista por Negroponte, um dos fundadores do Media Lab do MIT: “Com o Daily Me [...] você não vai mais confiar ao jornal local a curadoria do que você vê, e você poderá contornar as redes de televisão. Ao contrário, você poderá desenhar um pacote de comunicação só para você, com cada componente escolhido de antemão” (citado por Sunstein, 2017, p. 1). Esse prognóstico de meados dos anos 1990 acabou por se materializar no fenômeno das <italic>bolhas</italic>:</p>
            <p><disp-quote>
                    <p>Os algoritmos que orquestram os anúncios que vemos começaram a orquestrar nossas vidas. O código básico no coração da nova internet é bem simples. A nova geração de filtros observa as coisas que você parece gostar – as coisas reais que você tem feito ou as coisas que pessoas parecidas com você gostam – e tenta extrapolar. São máquinas de predição, constantemente criando e refinando uma teoria de quem você é e do que você vai fazer ou desejar a seguir. Juntas, essas máquinas criam um universo de informações único para cada um de nós – o que eu chamei de filtro-bolha – que altera profundamente a forma como encontramos ideias e informações.</p>
                    <attrib>(<xref ref-type="bibr" rid="B38">Pariser, 2011</xref>, p. 8)</attrib>
                </disp-quote></p>
            <p>Há, claro, um quê de dramaticidade nessa descrição. Afora o exagero nas cores (“algoritmos começaram a orquestrar nossas vidas”), o importante a reter é que as bolhas produziram algo como uma <italic>perda de perspectiva</italic>: se a mídia de <italic>broadcasting</italic> permitia uma visão geral (digamos, uma janela, de onde se observava a aleatoriedade da rua), as bolhas oferecem um olhar afunilado, fragmentado e parcial; a visão ampliada de um recorte minúsculo da realidade (um microscópio). A esfera pública tradicional está relacionada à cidade e à aleatoriedade da informação: ao folhear um jornal ou assistir à TV de sinal aberto, recebemos a mensagem que nos é transmitida – tal como quando caminhamos pelas ruas de uma cidade (<xref ref-type="bibr" rid="B46">Sunstein, 2017</xref>, p. 12) – o que nos obriga a interagir com pontos de vistas divergentes. “Quando as pessoas usam o Facebook para verem exatamente aquilo que querem ver, a sua compreensão do mundo é profundamente afetada” (p. 2). Quando passamos a maior parte do tempo interagindo em nossas bolhas virtuais, perdemos a dimensão do todo. E o problema é que o desenho das novas mídias sociais nos impulsiona justamente para isso.</p>
            <p>As grandes empresas de tecnologia são, antes de tudo, <italic>empresas</italic>: organizações comerciais que, para maximizar seus rendimentos, precisam encorajar os usuários a permanecerem <italic>on-line</italic> o maior tempo possível, ampliando a exposição ao <italic>marketing</italic> (<xref ref-type="bibr" rid="B55">Wardle; Derakhshan, 2017</xref>, p. 52). Isso é feito com base no engajamento pretérito do usuário (curtidas, comentários, compartilhamentos etc.). Por isso a dimensão temporal é importante: tanto em relação ao tempo que cada usuário gasta interagindo nas novas mídias digitais quanto em relação ao tempo que as plataformas tiveram para acumular dados pessoais de seus usuários. Para as plataformas, o ideal é que todos gastem o maior tempo possível <italic>on-line</italic>. O desenho dos algoritmos buscou então justamente isso. Especialmente, por exemplo, no caso do Facebook:</p>
            <p><disp-quote>
                    <p>Nós fornecemos a você uma pequena dose de dopamina cada vez que alguém o curte, comenta uma foto ou um <italic>post</italic>, ou qualquer outra coisa sua. É um <italic>loop</italic> de validação social, exatamente o tipo de coisa que um <italic>hacker</italic> como eu poderia explorar, porque tira proveito de um ponto fraco da psicologia humana. Os inventores, os criadores, eu, Mark [Zuckerberg], Kevin Systrom, do Instagram, estávamos perfeitamente conscientes disso. E, mesmo assim, fizemos o que fizemos. <italic>E isso transforma literalmente as relações que as pessoas têm entre si e com a sociedade como um todo</italic>. Interfere provavelmente na produtividade, de certa maneira. Só deus sabe qual o efeito que isso produz nos cérebros de nossos filhos.</p>
                    <attrib>(Sean Parker, primeiro financiador do Facebook, <italic>apud</italic>
                        <xref ref-type="bibr" rid="B18">Da Empoli, 2019</xref>, p. 52/53 – grifos meus)</attrib>
                </disp-quote></p>
            <p>A dopamina de que fala Sean Parker é um neurotransmissor que atua regulando o comportamento motivado por recompensa. E, como se sabe, está associada a diferentes tipos de vícios. Cada <italic>like</italic> que recebemos dispara uma microdose de dopamina e nos motiva a voltar às redes sociais (<xref ref-type="bibr" rid="B12">Blachnio <italic>et al</italic>., 2016</xref>). Essa nova sociabilidade digital mediada pelas plataformas permite que algoritmos psicométricos reconstituam a personalidade dos usuários (<italic>profiling</italic>) e, para maximizar as chances de interação, montem cada <italic>feed</italic> individual com postagens potencialmente mais capazes de desencadear novas curtidas, novos compartilhamentos etc., agregando <italic>clusters</italic> de usuários que pensam de forma semelhante. Essa autorreferência motivada pela personalização da experiência <italic>online</italic> (indispensável para o <italic>targeted-marketing</italic>) faz as bolhas digitais funcionarem <italic>limitando</italic> a percepção de mundo dos usuários por aquilo que a psicologia designa como <italic>viés de confirmação</italic>: a tendência de acreditar naquilo que confirma nossa visão de mundo pré-existente. “Os filtros-bolha tendem a amplificar dramaticamente o viés de confirmação – em certo sentido, eles foram desenhados justamente para isso” (<xref ref-type="bibr" rid="B38">Pariser, 2011</xref>, p. 88). E as consequências para o incremento da polarização política são diretas: “O problema político mais sério apresentado pelos filtros-bolha é que eles tornam cada vez mais difícil a ocorrência do debate público” (p. 155). Insulados em bolhas que refletem apenas múltiplas visões de nossa própria opinião, nossos valores e princípios pessoais, nossa opinião política e a indubitabilidade de nossas convicções são amplificados e radicalizados. O resultado é a polarização política (<xref ref-type="bibr" rid="B46">Sunstein, 2017</xref>, p. 10).</p>
            <p>Como isso ocorre? Diversos experimentos da psicologia de grupo demonstraram que a discussão com pessoas que pensam de maneira semelhante sobre determinados temas tende a reforçar os pontos de vistas individuais pré-existentes à discussão (<xref ref-type="bibr" rid="B45">Sunstein, 2009</xref>). Basicamente, os experimentos dividem grupos focais e controle, compostos com pessoas que pensam de maneira semelhante em determinados temas (<italic>e.g.</italic>, aborto, pena de morte etc.), e pessoas que pensam de forma divergente. Há, portanto, grupos homogêneos contrários e a favor do aborto, por exemplo, e grupos heterogêneos compostos por pessoas a favor e pessoas contrárias ao aborto. Os experimentos indicam que, nos grupos homogêneos (independentemente da posição, <italic>i.e.</italic>, tanto para os que são contrários quanto para os que são favoráveis ao aborto), os participantes saem das discussões <italic>tendo radicalizado seu próprio posicionamento pré-existente</italic>. Isso ocorre porque: (i) o pequeno grupo tem apenas uma amostra limitada de argumentos, não desenvolvendo contra-argumentos; (ii) não há incentivos para mudar a opinião do grupo por parte daqueles que detêm posições menos extremas ou radicais; (iii) a legitimação por pares sugere que a própria posição é “a correta”; e (iv) o pequeno grupo ativa mecanismos de identificação e pertencimento que muitas vezes se impõem às posições pessoais (ou seja, é possível ocultar aquilo que se pensa em nome de preservar uma identidade coletiva) (<xref ref-type="bibr" rid="B46">Sunstein, 2017</xref>, p. 74; <xref ref-type="bibr" rid="B47">Talisse, 2019</xref>, p. 102).</p>
            <p>Em relação ao posicionamento político, a polarização assume contornos especialmente preocupantes, pois favorece a emergência de posições extremadas (<xref ref-type="bibr" rid="B09">Benkler; Faris; Roberts, 2018</xref>). A “discussão em grupos de pessoas que pensam da mesma forma produz uma polarização relativa a crenças” (“<italic>belief polarization</italic>” – Talisse, 2019, p. 105). Se a projeção política da esfera pública de <italic>broadcasting</italic> poderia ser vista no que a ciência política designa como teorema do eleitor mediano (uma curva normal no espectro político ideológico esquerda-direita, concentrando a maioria do eleitorado no centro), a esfera pública fragmentada das plataformas digitais permite a proliferação de opiniões políticas menos sensíveis a ouvir qualquer contraponto: “Nós trocamos intensamente mensagens políticas clamando por indignação, ultraje, ira e apoio apenas entre aqueles que já comungam de nossa perspectiva política” (<xref ref-type="bibr" rid="B47">Talisse, 2019</xref>, p. 6). Protegido no pequeno grupo, isolado em sua bolha, o indivíduo passa por um processo de des-individuação (“<italic>deindividuation</italic>” – <xref ref-type="bibr" rid="B21">Festinger; Pepitone; Newcomb, 1952</xref>) e se torna parte de um fenômeno coletivo. Essa transubstanciação do indivíduo em massa é há muito estudada pela sociologia e pela psicologia, e tem um componente afetivo ou emocional muito claro. A dimensão inovadora – sem a qual o funcionamento social da desinformação não fica claro – é a simulação do efeito de massa para o indivíduo sem a aglomeração física, por força da mediação tecnológica.</p>
        </sec>
        <sec>
            <title>3 CONTÁGIO EMOCIONAL E EFEITO DE MASSA PELA MEDIAÇÃO TECNOLÓGICA</title>
            <p>As novas tecnologias da comunicação produzem um efeito paradoxal na nova sociabilidade por elas engendrada: mesmo estando sozinhos, encapsulados nas bolhas digitais que rodam em nossos <italic>smartphones</italic>, estamos simultaneamente mais vulneráveis aos efeitos de massa. Aquilo que a psicologia social chama de efeito de massa – a suspensão da racionalidade individual por força de um contágio emocional – ocorre agora mediado pela tecnologia e independente de uma multidão concreta.</p>
            <p>A psicologia das massas foi inaugurada como disciplina por <xref ref-type="bibr" rid="B31">Gustave Le Bon (1895)</xref>. Le Bon foi o primeiro a identificar como a ação inconsciente do coletivo se impõe de forma poderosa, mas momentânea, sobre a atividade individual consciente. Esse contágio emocional ocorre por <italic>sugestão</italic>: a adoção inconsciente de um padrão de comportamento formado pela agregação física de indivíduos em um determinado momento, em uma determinada circunstância (<xref ref-type="bibr" rid="B31">Le Bon, 1895</xref>, p. 20)<xref ref-type="fn" rid="fn11">11</xref>. As características do comportamento de massa são conhecidas: a massa é “impulsiva, volúvel, excitável”, “extraordinariamente influenciável e crédula, é acrítica, o improvável não existe para ela” (<xref ref-type="bibr" rid="B22">Freud, [1921] 2011</xref>, p. 25); nela ocorre o “enfraquecimento da aptidão intelectual, a desinibição da afetividade, a incapacidade de moderação e adiamento, a tendência a ultrapassar todas as barreias na expressão de sentimentos e a descarregá-los inteiramente na ação” (p. 77). “Na massa o indivíduo está sujeito a condições que lhe permitem se livrar das repressões dos seus impulsos instintivos inconscientes” (p. 21). Em síntese, trata-se de um estado de regressão em que a afetividade se transmite entre os indivíduos e bloqueia o uso consciente da razão:</p>
            <p><disp-quote>
                    <p>[...] a atrofia da personalidade individual consciente, a orientação de pensamentos e sentimentos nas mesmas direções, o predomínio da afetividade e da psique inconsciente, a tendência à imediata execução dos propósitos que surgem – tudo isso corresponde a um estado de regressão a uma atividade anímica primitiva.</p>
                    <attrib>(<xref ref-type="bibr" rid="B22">Freud, [1921] 2011</xref>, p. 85)</attrib>
                </disp-quote></p>
            <p>Em síntese, o efeito de massa designa esse predomínio da emoção sobre a racionalidade individual, com a correlata desinibição do comportamento instintivo e pré-consciente. Por isso Freud descreve o efeito de massa como uma <italic>regressão</italic>: como se o superego que o indivíduo forma à medida que passa da infância à juventude e à idade adulta fosse momentaneamente solapado pelo instinto primitivo e imediatista. O fenômeno depende do ajuntamento físico de pessoas, de uma sincronização emocional quase espontânea – quase espontânea porque a primeira faísca é sempre produzida por alguém e esse primeiro movimento pode não ser espontâneo. Mas daí em diante, o contágio emocional se espraia. Elias Canetti designa esse fenômeno coletivo fortemente emotivo como <italic>descarga</italic> (“<italic>Entladung</italic>”): uma liberação emocional – uma espécie de descarrego – pela qual todos os membros da massa se sentem iguais (<xref ref-type="bibr" rid="B17">Canetti, [1960] 1995</xref>, p. 22). Há nessa descarga emocional um importante componente sociológico de <italic>integração social</italic>, de formação de laços e de pertencimento a um grupo. O isolamento social é superado em nome da formação de um coletivo. E a afetividade que guia esse fenômeno é arrebatadora.</p>
            <p>Como imaginar que todos esses fenômenos podem vir a ocorrer sem a formação física da massa?</p>
            <p>Em sua clássica investigação sobre a democracia, Schumpeter trata da irracionalidade política que emerge com a massa. O pensamento político do homem médio “assume o caráter puramente associativo e afetivo” (idem, p. 319), suspendendo os “freios morais e maneiras civilizadas de pensamento e sentimento” e permitindo, ao mesmo tempo, a “erupção de impulsos primitivos, infantilismo e tendências criminais” (1942, p. 320). Até aqui, Schumpeter segue Le Bon e Freud. O ponto a ressaltar é o seguinte: a formação da massa pode ocorrer pela mediação tecnológica, ou seja, sem a presença física de uma multidão:</p>
            <p><disp-quote>
                    <p>Esses fenômenos <italic>não estão limitados à multidão no sentido de aglomeração física de numerosas pessoas. Leitores de jornal, audiências de rádio</italic>, membros de partidos políticos, mesmo quando não fisicamente reunidos, podem ser facilmente transformados psicologicamente em multidão e levados a um estado de frenesi, no qual qualquer tentativa de se apresentar um argumento racional desperta apenas instintos animais. [...] a mera afirmação, repetida constantemente, vale mais do que o argumento racional.</p>
                    <attrib>(<xref ref-type="bibr" rid="B39">Schumpeter, 1942</xref>, p. 313/314 – grifos nossos)</attrib>
                </disp-quote></p>
            <p>O próprio Le Bon já havia antecipado essa circunstância ao tratar o efeito que a leitura de notícias poderia desencadear: “O contágio não exige a presença simultânea dos indivíduos em um determinado local; ele pode se operar à distância” (<xref ref-type="bibr" rid="B31">Le Bon, 1895</xref>, p. 67). Ora, a terceira mudança estrutural da esfera pública (a passagem da mídia de <italic>broadcasting</italic> para a bolha das redes sociais) torna as tendências prenunciadas por Le Bon e Schumpeter uma realidade: ao criarem bolhas de interação em que a própria opinião ecoa como verdade indisputada e ampliada, os algoritmos <italic>simulam</italic> uma multidão <italic>tailor-made</italic> para cada usuário, permitindo que o frenesi da emoção coletiva se propague via <italic>smartphone</italic>, em cada indivíduo isolado. Aquele sentimento identificado pelos experimentos que avaliaram os efeitos de polarização no pequeno grupo (pertencimento, <italic>peer pressure</italic>, viés de confirmação e a sensação de que “todos pensam como eu”), abordado na seção anterior, são reiterados e amplificados nas bolhas digitais, desencadeando no indivíduo a emoção típica da massa. Esse contágio emocional acarreta a correlata regressão da consciência de que fala Freud.</p>
            <p>O fenômeno foi descrito com precisão por um dos maiores filósofos da atualidade, Peter Sloterdijk. Para ele, o grande tema da modernidade está na formação de uma subjetividade coletiva racional (o Espírito de Hegel, o proletariado revolucionário de Marx ou ainda a esfera pública emancipada de Habermas). Essa promessa não se realiza historicamente porque em seu lugar entra a massa irracional. O paradoxo está no incremento do individua-lismo simultaneamente à produção do efeito de massa sobre os indivíduos. É o que Sloterdijk designa como individualismo de massa (“<italic>Massenindividualismus</italic>”) (2000, p. 17). Os meios digitais de comunicação são indispensáveis exatamente na produção desse efeito de massa sem a massa física:</p>
            <p><disp-quote>
                    <p>As massas da atualidade deixaram de ser, em essência, massas de aglomeração ou de multidão; elas passaram a um novo regime, em que o caráter de massa se expressa não mais em um concílio físico, mas na participação em programas de mídia de massas. [...] Da massa de aglomeração surge uma massa relacionada a programas – e esta última se emancipou da aglomeração física. Nela, o indivíduo existe como massa. Hoje, faz-se parte de uma massa sem enxergar os outros.</p>
                    <attrib>(<xref ref-type="bibr" rid="B41">Sloterdijk, 2000</xref>, p. 16/17 – grifos meus)</attrib>
                </disp-quote></p>
            <p>Antes que se erga contra nosso argumento a objeção de especulação filosófica ou abstração sociológica (como se a generalização permitida pela filosofia e pela sociologia não fossem justamente uma forma de alcançar maior precisão na descrição da realidade), vale trazer de imediato as evidências empíricas levantadas de forma sistemática pela psicologia, especificamente em relação ao fenômeno da desinformação. A psicologia cibernética tem avançado profundamente na identificação e na mensuração objetiva dos efeitos das novas tecnologias digitais sobre a personalidade e a estrutura psíquica (<xref ref-type="bibr" rid="B56">Witty; Young, 2016</xref>).</p>
            <p>Um dos mais interessantes estudos aponta o chamado “efeito de desinibição <italic>online</italic>” (<xref ref-type="bibr" rid="B43">Suler, 2004</xref>), em linha com nosso argumento sobre o efeito regressivo da massa sobre a personalidade individual. A sensação de que podemos dizer qualquer coisa <italic>online</italic>, ou pelo menos que podemos dizer coisas <italic>online</italic> que não diríamos em uma interação cara a cara, é explicada por esse efeito desinibidor desencadeado pela tecnologia – pela unilateralidade da técnica, para recuperar Luhmann. John Suler distingue o efeito benigno (jovens que conseguem, por exemplo, lidar com decepções amorosas e traumas ao se exporem em redes sociais) do efeito <italic>tóxico</italic> de desinibição <italic>online</italic>. O efeito tóxico ocorre com a combinação de alguns fatores: (i) anonimato dissociativo: a sensação de que as interações <italic>online</italic> não podem ser diretamente relacionadas à nossa personalidade, quase como se o eu (ego) <italic>online</italic> se tornasse livre do superego – exatamente como sugere a psicologia de massas; (ii) invisibilidade: o fato de não podermos ser vistos ao digitar um tuíte ou um <italic>post</italic> de Facebook pode sugerir maior liberdade para o conteúdo da mensagem; (iii) assincronia: a interação online é rápida, mas não é síncrona, e não ter de lidar com a presença do outro ajuda na desinibição; (iv) introjeção solipsística: sem a presença instantânea do outro e sabendo que muito do que postamos sequer será lido, a interação online pode simular para o usuário que ele está “falando sozinho”, favorecendo a desinibição; (v) relativização da autoridade: a ausência de sinais externos de status, classe social e autoridade (vestimentas, idade, tom de voz, postura corporal etc.) sugere um nivelamento das interações por uma regra geral de informalidade (<xref ref-type="bibr" rid="B43">Suler, 2004</xref>). Como é possível perceber, esse efeito de desinibição <italic>online</italic> é quase a tradução empírica do efeito de massa provocado pela interação <italic>online</italic>: supressão do superego, invisibilidade no anonimato (da massa <italic>online</italic>) etc. O indivíduo é tragado pela massa justamente ao se desinibir dos freios solidificados no superego, deixando-se levar pela emoção coletiva.</p>
            <p>A desinibição <italic>online</italic> nada mais é do que uma conduta <italic>emocional</italic> (não racional, pré-cognitiva) para com a tecnologia. Em estudo empírico que analisou respostas cognitivas e afetivas à desinformação política no Facebook, foi possível identificar dois tipos sistemáticos de análise da informação: o escrutínio analítico e a validação heurística. O primeiro é baseado no exame do conteúdo semântico da informação e requer, por isso, tempo e atenção dos usuários; o segundo se guia por regras simples que minimizam o custo de processar a informação (<italic>e.g.</italic>, “consenso = correto”, “informação nova = correto”, “informação na minha bolha = correto”) (<xref ref-type="bibr" rid="B08">Barfar, 2019</xref>, p. 175). A partir disso, o estudo analisou <italic>posts</italic> de Facebook de dez influenciadores conhecidos por difundirem desinformação política (Breitbart, RedState etc.) e de dez veículos jornalísticos centenários (<italic>The New York Times</italic>, <italic>The Wall Street Journal</italic> etc.), mapeando os comentários com um <italic>software</italic> específico (Linguistic Inquiry and Word Count 2015). Os resultados mostram que notícias verdadeiras são processadas sem uma carga afetiva elevada. A desinformação, ao contrário, desencadeia uma alta intensidade emocional. Mas o principal achado é o de que os usuários utilizam o partidarismo como chave heurística para interpretar a informação:</p>
            <p><disp-quote>
                    <p>Porque seguidores de uma página de desinformação política (<italic>e.g.</italic>, Breitbart ou Occupy Democrats) no Facebook já se expuseram à desinformação que reforça suas crenças prévias, é menos provável que eles rompam com essa exposição seletiva por meio do escrutínio do mérito e da veracidade da desinformação. [...] Mais precisamente, seguidores de desinformação não são suficientemente motivados para exercer um esforço cognitivo para examinar sua validade [...] Guiados em parte pelo menor esforço no processamento da informação, seguidores no Facebook podem considerar indicações de partidarismo para formar um julgamento em favor da verdade da desinformação política.</p>
                    <attrib>(<xref ref-type="bibr" rid="B08">Barfar, 2019</xref>, p. 175)</attrib>
                </disp-quote></p>
            <p>Ou seja: dentro de uma bolha em que predomina uma determinada orientação política, os usuários das redes sociais são contaminados pela intensa emoção que circula junto com a desinformação e, <italic>nessa medida</italic>, desativam o processamento cognitivo do conteúdo semântico da mensagem e passam a validá-la em bases emocionais. O que circula nas redes sociais é emoção, e não informação.</p>
            <p>Um outro experimento bastante citado pela literatura mostra que a velocidade de replicação de postagens no Twitter sobre temas polarizadores de opinião (no caso: controle de armas, união homoafetiva e mudança climática) mostra que o uso de palavras com carga moral ou emocional aumenta a transmissão a uma taxa de 20% por palavra (<xref ref-type="bibr" rid="B15">Brady <italic>et al</italic>., 2017</xref>, p. 7316). O estudo identificou ainda que a difusão é maior em grupos circunscritos do que fora deles – <italic>i.e.</italic>, a mensagem se multiplica rapidamente dentro na bolha, mas não a ultrapassa: “À medida que a difusão de mensagens <italic>online</italic> carregadas de conteúdo emocional-moral é circunscrita por fronteiras de grupo, interações desse tipo parecerão mais provavelmente câmaras de ressonância” (p. 7317).</p>
            <p>Ou seja, guiados não pela apreensão cognitiva do conteúdo da mensagem, mas pela emoção que ela desencadeia, os usuários se sentem confortáveis o suficiente em suas bolhas para desativar os freios do superego (efeito de desinibição <italic>online</italic>) e <italic>tomar uma posição no mundo bipolar que a mensagem lhes oferece</italic>. Como fenômeno <italic>social</italic>, a desinformação “ajuda” o usuário a se posicionar politicamente. Por isso, ela precisa que esse ciclo seja constantemente mantido em movimento: “Quem quiser influir sobre ela [<italic>a massa</italic>], não necessita medir logicamente os argumentos; deve pintar as imagens mais fortes, exagerar e sempre repetir a mesma coisa” (<xref ref-type="bibr" rid="B22">Freud, [1921] 2011</xref>, p. 27). É justamente a repetição sistemática que cria o ilusório efeito-verdade da desinformação.</p>
        </sec>
        <sec>
            <title>4 REPETIÇÃO, EFEITO-VERDADE, TOMADA DE POSIÇÃO</title>
            <p>Finalizando nosso argumento, veremos por que a repetição é importante para o funcionamento social da desinformação. Há uma explicação sociológica para a afirmação (que já se tornou um truísmo), segundo a qual “uma mentira repetida inúmeras vezes se torna verdade”. A repetição é crucial no funcionamento da desinformação (<xref ref-type="bibr" rid="B55">Wardle; Derekhshan, 2017</xref>, p. 39). Para desvendar por que, é preciso conjugar a “lógica do inconsciente” com a “teoria do performativo” (<xref ref-type="bibr" rid="B19">Derrida, 1996</xref>, p. 21). Aqui utilizaremos a teoria dos atos de fala de Austin, tal como incorporada na teoria da comunicação de Luhmann, para identificar o enunciado performativo contido na mensagem de desinformação política. É a identificação desse enunciado que permite ao usuário posicionar-se em um mundo político bipolar. A desinformação funciona para ele como um redutor de complexidade que lhe permite atribuir sentido e interpretar um mundo complexo. E o destinatário da desinformação aprende a decodificar o enunciado performativo pela repetição da mensagem.</p>
            <p>A <italic>força performativa</italic> da linguagem foi identificada de forma canônica por John L. Austin na obra <italic>How to do things with words</italic> (1962), um dos responsáveis pelo giro linguístico da filosofia do século XX. Até então, predominava um entendimento relativamente neutro acerca da linguagem: a linguagem (falada ou escrita) apenas reportaria o mundo, descrevendo-o. Austin percebe que falar é também <italic>fazer</italic> alguma coisa. Austin diferencia atos de fala constativos (“<italic>constative speech acts</italic>”), que simplesmente descrevem um estado de coisas objetivo no mundo (“a terra é redonda”), dos atos de fala performativos (“<italic>performative speech acts</italic>”): aqueles que executam uma ação concreta e transformam o mundo. Exemplos clássicos de Austin: o “sim” pronunciado na cerimônia de casamento, o testamento, o veredito de um júri e o ato de nomear um navio – há um antes e um depois da palavra pronunciada<xref ref-type="fn" rid="fn12">12</xref>.</p>
            <p>Luhmann incorpora os atos de fala de Austin em sua teoria cibernética da comunicação (<xref ref-type="bibr" rid="B32">Luhmann, 1984</xref>, p. 197 e ss.). A comunicação, para Luhmann, é composta por três elementos: (i) a <italic>informação</italic>: o conteúdo proposicional, constativo de uma determinada comunicação, <italic>i.e.</italic>, aquilo que ela reporta do mundo fático; (ii) o <italic>enunciado performativo</italic> (“<italic>Mitteilung</italic>”): aquilo que a mensagem opera socialmente, sua intervenção no mundo; e (iii) a <italic>compreensão</italic>: a recepção do conteúdo, isto é, a forma como a mensagem deve ser entendida pelo destinatário. Há, no enunciado performativo, sempre, um apelo para que a mensagem seja entendida de uma determinada maneira. Mas esse apelo é contingente e não está assegurado (do contrário, não existiriam mal-entendidos).</p>
            <p>Como essa estrutura conceitual nos ajuda a entender a desinformação?</p>
            <p>Vamos partir de um caso célebre de <italic>fake news</italic> no Brasil, que ficou conhecido (infamemente) como “kit gay”. Em 28 de agosto de 2018, o então candidato Bolsonaro apresentou, no Jornal Nacional, o livro <italic>Aparelho sexual e cia.</italic>, da autora francesa Hélène Bruller, sustentando tratar-se de livro distribuído pelo Ministério da Educação para interferir na sexualidade de crianças. O Ministério da Educação chegou a ensaiar política voltada a discutir homofobia nas escolas, mas o programa “Escola sem Homofobia”, idealizado em 2004, foi cancelado pela Presidente Dilma em 2011, ano previsto para seu lançamento. O livro sequer constava do material do programa. Na entrevista, Bolsonaro menciona um suposto “seminário LGBT infantil”, tenta mostrar as páginas do livro dizendo que “estava defendendo as crianças em sala de aula”, porque “um pai não quer chegar em casa e encontrar o filho brincando com boneca por influência da escola”. Menciona <italic>live</italic> no Facebook sobre o tema com 40 milhões de acessos em 15 dias e afirma: “Nada eu tenho contra o gay, eu tenho contra o material escolar em sala de aula”. Por fim, citando o Plano Nacional de Promoção e Cidadania e Direitos Humanos LGBT e a estratégia de desconstrução da heteronormatividade, afirma: “Ou seja, estão ensinando em algumas escolas que homem e mulher tá errado, pode ser sim homem com homem, mulher com mulher, o que é difícil para criancinhas a partir de seis anos de idade”<xref ref-type="fn" rid="fn13">13</xref>.</p>
            <fig id="f01">
                <graphic xlink:href="2236-1766-rdp-18-99-0436-gf01.tif"/>
            </fig>
            <p>Se analisarmos a mensagem contida nessa fala com auxílio do aparato conceitual de Luhmann e Austin, podemos decantar, a partir das frases de Bolsonaro, algo como <italic>statements</italic> correspondentes aos elementos básicos dos atos de fala – informação, enunciado performativo e compreensão. Informação: “O Ministério da Educação está distribuindo material escolar impróprio para a educação infantil”. Aí está, por assim dizer, a mentira, a informação falsa. Como se sabe, o Ministério não realizou a ação criticada, e o Tribunal Superior Eleitoral determinou a suspensão do uso da expressão “kit gay” pela campanha de Jair Bolsonaro, por se tratar de desinformação<xref ref-type="fn" rid="fn14">14</xref>. Mas há, na mensagem, uma camada adicional de sentido. A força performativa da mensagem está em criar uma clivagem em torno da sexualização precoce de crianças. “O poder das palavras está ligado às imagens que elas evocam, e são de qualquer modo independentes de seu significado real” (<xref ref-type="bibr" rid="B31">Le Bon, 1895</xref>, p. 56). Enunciado performativo: “Meu adversário eleitoral defende uma política de interferência na sexualidade de crianças, enquanto eu defendo as crianças em sala de aula”. O enunciado performativo cria um mundo político bipolar em que um tema complexo, carregado de estigma e preconceito, de difícil apreensão pelo público em geral (combate à homofobia, desconstrução da matriz heteronormativa etc.) é supersimplificado: “Eles acham que homem com mulher é errado e que o certo é homem com homem e mulher com mulher”. Ao criar essa clivagem, a mensagem insta o destinatário a se posicionar. A carga emocional da mensagem (que discutimos na seção anterior) aparece no enunciado performativo. Ele cria um atalho para a compreensão da mensagem: o destinatário não para o que está fazendo e vai checar se o Ministério da Educação distribuiu, de fato, um livro específico; o destinatário mobiliza um saber intuitivo preexistente com o qual ele concorda (“o certo é homem com mulher”) e interpreta a mensagem com esse viés de confirmação. Quando o destinatário “concorda” com a afirmação pressuposta na mensagem, essa concordância “apaga”, por assim dizer, a informação falsa, substituindo-a por uma convergência moral. “Quando os performativos têm sucesso, produzem uma verdade cujo poder se impõe às vezes para sempre” (<xref ref-type="bibr" rid="B19">Derrida, 1996</xref>, p. 21). Com isso, o destinatário se desvia do problema real, mas atribui sentido a uma disputa política e consegue se posicionar; toma partido em uma discussão que, nos próprios termos do tema (no caso: a desconstrução da matriz hétero-normativa), ele não consegue manejar. A desinformação oferece ao destinatário uma chave “sim/não”, com a qual ele acredita conseguir se orientar politicamente. Trata-se de redução de complexidade, para usarmos mais uma expressão de Luhmann. Por fim, a compreensão: “Candidatos de esquerda relativizam a sexualidade de crianças”. A repetição de cadeias de desinformação ajuda a sedimentar essa compreensão. Diversos casos subsequentes de desinformação na campanha presidencial de 2018 reforçavam o <italic>statement</italic>: “Candidatos de esquerda relativizam a sexualidade de crianças” (<italic>e.g.</italic>, o caso igualmente infame de mamadeira de apelo sexual supostamente distribuída para crianças). Tudo se passa como se, nessa mensagem, o emissor provocasse o destinatário, instando-o a se posicionar – algo como um “e aí, de que lado você está?”.</p>
            <p>Com isso, as pessoas não precisam acreditar na desinformação. É claro que não se descarta essa possibilidade. Mas, como operação <italic>social</italic>, a desinformação prescinde da crença individual para funcionar. Ela circula socialmente <italic>sem</italic> a crença individual. Esse é o ponto. Na bolha digital, a questão da veracidade da informação veiculada se torna secundária diante da convergência moral-emotiva operada pelo enunciado performativo da mensagem. A pesquisa empírica sobre desinformação já elaborou incontáveis <italic>surveys</italic> tentando descobrir se as pessoas realmente acreditam na informação falsa. Há, inclusive, estudos que sugerem que as <italic>surveys</italic> não são a melhor estratégia metodológica porque não é possível aferir se as respostas à própria <italic>survey</italic> são sinceras (<xref ref-type="bibr" rid="B14">Bullock <italic>et al</italic>., 2015</xref>, p. 521). Em um dos experimentos mais citados pela literatura, Adam Berinksy, pesquisador do MIT, identificou três tipos de reações à desinformação: (i) a crença genuína na desinformação (“<italic>genuine beliefs</italic>”); (ii) a indiferença descompromissada que não leva a sério se a informação é verdadeira ou não, tratando tudo como “papo furado” (“<italic>cheap talk</italic>”); e (iii) a reação expressiva (“<italic>expressive responses</italic>”), que é, na verdade, uma tomada de posição. Ou seja, no exemplo citado acima, a desinformação acerca do suposto “kit gay” pode circular porque algumas pessoas realmente acreditam nessa informação, mas também porque parte delas acha simplesmente engraçado e parte delas entende que se trata de um posicionamento político (“em defesa da família”, “anti-PT”, ou contra a quimera da “ideologia de gênero”). As pessoas podem consumir a desinformação de forma instrumental: “Eles enviam um sinal sobre seu apoio (ou falta de apoio) a figuras políticas e políticas públicas” (<xref ref-type="bibr" rid="B11">Berinsky, 2017</xref>, p. 211).</p>
            <p>Essa tomada de posição expressiva não ocorre em um único momento. Ela depende, como já visto, da fragmentação da esfera pública e da interação na bolha digital. Nesse contexto, a repetição da mensagem é crucial, porque ela sedimenta e retroalimenta a polarização política, bem como infunde nos usuários uma narrativa que sustenta uma compreensão deturpada da realidade (como no caso da esdrúxula associação entre “marxismo” e “sexualização de crianças”). O conceito de <italic>narrativa</italic> foi integrado no vocabulário cotidiano da disputa em torno de desinformação nas redes sociais (<xref ref-type="bibr" rid="B07">Barbosa, 2019</xref>). Não temos como aprofundar nessa discussão conceitual agora. O importante é compreender <italic>narrativa</italic> não como uma mera “disputa de versões”, mas como o encadeamento de enunciados performativos que sedimentam uma compreensão articulada da realidade. Por exemplo: no caso do chamado “kit gay”, a discussão quanto à falsa ou efetiva distribuição do livro não configura uma disputa de narrativas. A narrativa, em sentido técnico, é o macroenunciado <italic>latente</italic> que a repetição de peças de desinformação (kit gay, mamadeira com bico fálico etc.) sedimenta na pré-compreensão dos destinatários das mensagens (“Candidatos de esquerda relativizam a sexualidade de crianças”). A narrativa é a camada subterrânea de sentido que a desinformação veicula. Por essa razão, a repetição é importante: ela mobiliza o usuário para um posicionamento político.</p>
            <p>Mais uma vez, a pesquisa empírica apresenta sólidos fundamentos sobre o papel da repetição no consumo de desinformação política: a câmara de ressonância repete para o usuário tudo aquilo que ele acredita, de forma que a familiaridade com determinadas afirmações passa a não ser mais questionada por ele (<xref ref-type="bibr" rid="B50">Unkelbach <italic>et al</italic>., 2019</xref>). Sunstein designa o fenômeno da repetição interna às bolhas com o conceito de “cascata” (“<italic>cascade</italic>”): uma torrente de afirmações relativamente semelhantes, relativamente homogêneas acerca de um determinado tema que polariza opiniões, e que é suportada por nossos pares nas redes sociais, reforçando o viés de confirmação (<xref ref-type="bibr" rid="B46">Sunstein, 2017</xref>, p. 98). De fato, a “exposição reiterada a uma mensagem que contém uma posição extrema, com a sugestão de que muitas pessoas pensam dessa forma, provavelmente levará aqueles expostos, e provavelmente predispostos, a acreditar na mensagem” (p. 77). Mas acreditar não é o mais importante: “Na maior parte das vezes, o usuário tende a selecionar e compartilhar conteúdo de acordo com uma narrativa específica, ignorando todo o resto” (p. 124/125). Essa narrativa é construída pela repetição de enunciados performativos encadeados de forma a transmitir uma visão de mundo bipolar, instando o destinatário a se posicionar. A narrativa funciona então, para o usuário, como um mecanismo redutor de complexidade, como um atalho para a compreensão de um mundo complexo. Com base na narrativa, o usuário atribui sentido ao mundo e consegue se posicionar politicamente.</p>
        </sec>
        <sec sec-type="conclusions">
            <title>CONCLUSÕES</title>
            <p>Este artigo procurou oferecer uma visada interdisciplinar sobre o fenômeno da desinformação. Partimos da hipótese de que a desinformação não deve ser explicada ou compreendida como comportamento individual, mas como uma operação genuinamente social: são as características estruturais da sociedade digital que explicam como e por que a desinformação funciona. Essas características (fragmentação da esfera pública, plataformas digitais baseadas no engajamento e em filtros-bolha, efeito de massa e contágio emocional, repetição de enunciados linguísticos e tomada de posição política em um mundo polarizado) estruturam uma lógica comunicativa própria, objetiva. Isso não significa que “todos acreditam” em <italic>fake news</italic>. A pergunta central parece ser outra. Não devemos nos perguntar “por que as pessoas acreditam em <italic>fake news</italic>”, mas quais as condições sociais que permitem que sequências de informação falsa “ajudem” as pessoas a atribuir sentido ao mundo. Nesses termos, o desafio de combater a desinformação e proteger a democracia adquire seu real relevo.</p>
            <p>Esse é o cerne do desafio regulatório, pois a experiência jurídica moderna está associada à punição de comportamentos individuais (de indivíduos ou organizações, mas sempre um comportamento específico, individualizado). Mas como regular um fenômeno inscrito na estrutura social dos meios eletrônicos de comunicação? Se o Direito cuida de processar cadeias de imputação estabelecendo causalidade e responsabilização (<xref ref-type="bibr" rid="B30">Latour, 2002</xref>, p. 294/295), como identificar qualquer imputação causal quando os fluxos de desinformação são produzidos e replicados por milhões de usuários em um estágio de contágio emocional, em um frenesi típico da massa? “Se aceitarmos que o cérebro humano nem sempre trabalha de forma racional, simplesmente disseminar informação de qualidade não é uma resposta” (<xref ref-type="bibr" rid="B55">Wardle; Derkhshan, 2017</xref>, p. 28). Como vimos, a imagem idílica de uma internet acêntrica, democrática, livre e isonômica já foi substituída há muito por uma estratificação de caráter algorítmico invisível ao usuário. Alguma regulação é, por isso, indispensável. Propostas regulatórias focadas na punição de comportamentos individuais, à luz de nossas conclusões, podem se desvirtuar em punitivismo e vigilância. Mas a discussão de propostas regulatórias concretas deverá ser adiada para uma outra oportunidade.</p>
            <p>Pelo momento, é importante acentuar o caráter social da desinformação. Ela funciona socialmente porque permite que os destinatários das mensagens interpretem o mundo de uma forma compatível com seus próprios valores e suas crenças pessoais pré-existentes. Ela funciona, ainda, ao permitir um posicionamento político em um mundo polarizado: é possível definir de que lado se está. A desinformação, por mais paradoxal que possa parecer, oferece uma visão de mundo ao destinatário da mensagem falsa que é compatível com a sua visão de mundo pessoal. Paradoxalmente, ela torna o mundo coerente:</p>
            <p><disp-quote>
                    <p>Por trás do aparente absurdo das <italic>fake news</italic> e das teorias da conspiração, oculta-se <italic>uma lógica bastante sólida</italic>. Do ponto de vista dos líderes populistas, as verdades alternativas não são um simples instrumento de propaganda. Contrariamente às informações verdadeiras, <italic>elas constituem um formidável vetor de coesão</italic>. [...] Na prática, para os adeptos dos populistas, a verdade dos fatos, tomados um a um, não conta. O que é verdadeiro é a mensagem <italic>no seu conjunto</italic>, que <italic>corresponde a seus sentimentos e suas sensações</italic>.</p>
                    <attrib>(<xref ref-type="bibr" rid="B18">Da Empoli, 2019</xref>, p. 16 – grifos acrescidos)</attrib>
                </disp-quote></p>
            <p>Foi justamente essa “lógica sólida” subjacente ao absurdo das <italic>fake news</italic> que procuramos desvendar neste artigo, ainda que inicialmente. O paradoxo sociológico da desinformação está no fato de que a informação falsa gera mais <italic>coesão social</italic> e mais <italic>integração</italic> do que a informação verdadeira. A verdade gera, “no máximo”, debate público racional – e, com ele, dissenso. Essa lógica sólida oferece um desafio para a democracia, pois ela compromete o fundamento da vida democrática: a liberdade de expressão e o discurso público livre. E não haverá solução fácil para o problema das <italic>fake news</italic>. Será preciso envolver agentes públicos, plataformas e especialistas em busca de um arcabouço institucional que mitigue os efeitos deletérios da desinformação. A descrição do fenômeno e a identificação mais precisa de seus contornos constituem apenas o primeiro passo nesse desafio.</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other" id="fn02">
                <label>2</label>
                <p>Todas as citações feitas em português neste artigo são traduções livres do autor.</p>
            </fn>
            <fn fn-type="other" id="fn03">
                <label>3</label>
                <p>A pesquisa mais rigorosa tem evitado o uso do termo <italic>fake news</italic>, optando pelo conceito técnico de <italic>desinformação</italic>. Isso porque notórios propagadores de <italic>fake news</italic> empregaram esse termo contra a mídia tradicional, tornando a expressão politizada e disputável (<xref ref-type="bibr" rid="B54">Vosoughi <italic>et al</italic>., 2018</xref>, p. 1146; <xref ref-type="bibr" rid="B48">Träsel, 2018</xref>, p. 71; <xref ref-type="bibr" rid="B55">Wardle; Derakhshan, 2017</xref>, p. 15).</p>
            </fn>
            <fn fn-type="other" id="fn04">
                <label>4</label>
                <p><italic>Code of Practice on Desinformation</italic> da União Europeia, documento de autorregulação assinado por Facebook, Google, Twitter, Mozilla e <italic>stakeholders</italic> do mercado publicitário em outubro de 2018. Disponível no <italic>link</italic>: <ext-link ext-link-type="uri" xlink:href="https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation">https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation</ext-link>. Acesso em: 31.05.2021. Ver também <xref ref-type="bibr" rid="B27">Jack, 2017</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p>Na temática de que se ocupa este artigo, é imprescindível recorrer a <italic>reports</italic> e <italic>papers</italic> elaborados por institutos de pesquisa, tais como, <italic>e.g.</italic>, Data &amp; Society Research Institute.</p>
            </fn>
            <fn fn-type="other" id="fn06">
                <label>6</label>
                <p>É claro que isso não nega a existência de coberturas parciais. Não obstante, são esses frágeis princípios que nos permitem identificar, inclusive, desvios na cobertura jornalística da mídia tradicional.</p>
            </fn>
            <fn fn-type="other" id="fn07">
                <label>7</label>
                <p>Um exemplo: o canal de YouTube <italic>Foco do Brasil</italic> tem quase três milhões de seguidores e se apresenta como veículo para “As notícias e ações do Presidente Jair Bolsonaro e seu governo e o nosso Brasil” (cf. <italic>link</italic>: <ext-link ext-link-type="uri" xlink:href="https://www.youtube.com/c/FocodoBrasil">https://www.youtube.com/c/FocodoBrasil</ext-link>). Trata-se de importante fonte de vídeos bolsonaristas que circulam largamente em grupos de aplicativos de mensagens privadas.</p>
            </fn>
            <fn fn-type="other" id="fn08">
                <label>8</label>
                <p>No que segue, valemo-nos essencialmente das descrições de <xref ref-type="bibr" rid="B38">Pariser, 2011</xref>; <xref ref-type="bibr" rid="B37">O’Neil, 2016</xref>; <xref ref-type="bibr" rid="B42">Srnicek, 2017</xref>; <xref ref-type="bibr" rid="B44">Sumpter, 2018</xref>; <xref ref-type="bibr" rid="B18">Da Empoli, 2019</xref>; e <xref ref-type="bibr" rid="B02">Applebaum, 2020</xref>. Embora cresçam as publicações acadêmicas sobre as plataformas, as principais obras têm ainda o caráter de <italic>Sachbuch</italic> (em parte devido à escassez de informações sobre o funcionamento preciso dos algoritmos desenvolvidos pelas plataformas; em parte porque os principais financiadores de <italic>think tanks</italic> são as próprias <italic>Big Techs</italic>).</p>
            </fn>
            <fn fn-type="other" id="fn09">
                <label>9</label>
                <p>O exemplo mais notório é o algoritmo <italic>EdgeRank</italic>, que estrutura o <italic>News Feed</italic> na página inicial do Facebook: “<italic>At first, the News Feed showed nearly everything your friends did on the site. But as the volume of posts and friends increased, the Feed became unreadable and unmanageable. Even if you had only a hundred friends, it was too much to read. Facebook’s solution was EdgeRank, the algorithm that powers the default page on the site, the Top News Feed</italic>” (<xref ref-type="bibr" rid="B38">Pariser, 2011</xref>, p. 36).</p>
            </fn>
            <fn fn-type="other" id="fn10">
                <label>10</label>
                <p>Há países que regulamentaram a remuneração da mídia tradicional como compensação pela circulação do conteúdo jornalístico, como Alemanha, Espanha e mais, recentemente, a Austrália (é o chamado <italic>link tax</italic>). A medida é polêmica e marcada por uma série de efeitos paradoxais (<xref ref-type="bibr" rid="B04">Athey <italic>et al</italic>., 2017</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn11">
                <label>11</label>
                <p>Freud critica o poder explicativo limitado do conceito de “sugestão” de Le Bon, acrescentando uma variável libidinal – mas não entraremos nesses pormenores aqui. Para os fins deste artigo, a sugestiva noção de <italic>contágio emocional</italic> é suficiente (<xref ref-type="bibr" rid="B25">Hatfield; Cacioppo; Rapson, 1994</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn12">
                <label>12</label>
                <p>Há uma intensa discussão acerca da teoria dos atos de fala de Austin que não pode ser recuperada aqui (cf. <xref ref-type="bibr" rid="B06">Bachur, 2017</xref>, cap. 1). Para o que segue, basta o uso elementar das três funções dos atos de fala, tal como incorporada por Luhmann.</p>
            </fn>
            <fn fn-type="other" id="fn13">
                <label>13</label>
                <p>Vídeo disponível no <italic>link</italic>: <ext-link ext-link-type="uri" xlink:href="https://globoplay.globo.com/v/6980200/">https://globoplay.globo.com/v/6980200/</ext-link> (ver entrevista a partir do minuto 17, ou o vídeo integral a partir do minuto 19).</p>
            </fn>
            <fn fn-type="other" id="fn14">
                <label>14</label>
                <p>Cf.: <ext-link ext-link-type="uri" xlink:href="https://www.tse.jus.br/imprensa/noticias-tse/2018/Outubro/facebook-e-youtube-tem-48-horas-para-reti--rar-do-ar-videos-com-inverdades-sobre-livro-de-educacao-sexual">https://www.tse.jus.br/imprensa/noticias-tse/2018/Outubro/facebook-e-youtube-tem-48-horas-para-reti--rar-do-ar-videos-com-inverdades-sobre-livro-de-educacao-sexual</ext-link> (consultado em julho de 2021).</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>REFERÊNCIAS</title>
            <ref id="B01">

                <mixed-citation>ADORNO, Theodor W.; HORKHEIMER, Max. (1947). <italic>Dialektik der Aufklärung</italic>. Frankfurt am Main: Fischer, 2003.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ADORNO</surname>
                            <given-names>Theodor W.</given-names>
                        </name>
                        <name>
                            <surname>HORKHEIMER</surname>
                            <given-names>Max</given-names>
                        </name>
                    </person-group>
                    <comment>1947</comment>
                    <source>Dialektik der Aufklärung</source>
                    <publisher-loc>Frankfurt am Main</publisher-loc>
                    <publisher-name>Fischer</publisher-name>
                    <year>2003</year>

                </element-citation>
            </ref>
            <ref id="B02">

                <mixed-citation>APPLEBAUM, Anne. <italic>O crepúsculo da democracia</italic>. Trad. A. Bonrruquer. Rio de Janeiro: Record, 2020.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>APPLEBAUM</surname>
                            <given-names>Anne</given-names>
                        </name>
                    </person-group>
                    <source>O crepúsculo da democracia</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Bonrruquer</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Record</publisher-name>
                    <year>2020</year>

                </element-citation>
            </ref>
            <ref id="B03">

                <mixed-citation>ARENDT, Hannah. Lying in politics: reflections on the Pentagon Papers. In: ARENDT, H. <italic>Crises of the Republic</italic>. New York: Harvest, p. 3-47, 1972.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ARENDT</surname>
                            <given-names>Hannah</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Lying in politics: reflections on the Pentagon Papers</chapter-title>
                    <person-group person-group-type="author">
                        <name>
                            <surname>ARENDT</surname>
                            <given-names>H.</given-names>
                        </name>
                    </person-group>
                    <source>Crises of the Republic</source>
                    <publisher-loc>New York</publisher-loc>
                    <publisher-name>Harvest</publisher-name>
                    <fpage>3</fpage>
                    <lpage>47</lpage>
                    <year>1972</year>

                </element-citation>
            </ref>
            <ref id="B04">

                <mixed-citation>ATHEY, Susan; MOBIUS, Markus; PAL, Jeno. The impact of aggregators on internet news consumption. <italic>National Bureau of Economic Research Working Paper</italic>, 28746, 2017. 37 p.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ATHEY</surname>
                            <given-names>Susan</given-names>
                        </name>
                        <name>
                            <surname>MOBIUS</surname>
                            <given-names>Markus</given-names>
                        </name>
                        <name>
                            <surname>PAL</surname>
                            <given-names>Jeno</given-names>
                        </name>
                    </person-group>
                    <article-title>The impact of aggregators on internet news consumption</article-title>
                    <source>National Bureau of Economic Research Working Paper</source>
                    <volume>28746</volume>
                    <year>2017</year>
                    <size units="pages">37 p.</size>

                </element-citation>
            </ref>
            <ref id="B05">

                <mixed-citation>AUSTIN, John L. <italic>How to do things with words</italic>. Oxford: Oxford University Press, 1962.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>AUSTIN</surname>
                            <given-names>John L</given-names>
                        </name>
                    </person-group>
                    <source>How to do things with words</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>1962</year>

                </element-citation>
            </ref>
            <ref id="B06">

                <mixed-citation>BACHUR, J. P. <italic>Schrift und Gesellschaft</italic>: Die Kraft der Inskriptionen in der Produktion des Sozialen. Weilerswist: Velbrück Wissenschaft, 2017.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BACHUR</surname>
                            <given-names>J. P.</given-names>
                        </name>
                    </person-group>
                    <source><italic>Schrift und Gesellschaft</italic>: Die Kraft der Inskriptionen in der Produktion des Sozialen</source>
                    <publisher-loc>Weilerswist</publisher-loc>
                    <publisher-name>Velbrück Wissenschaft</publisher-name>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B07">

                <mixed-citation>BARBOSA, Mariana (Org.). <italic>Pós-verdade e fake news</italic>: reflexões sobre a guerra de narrativas. Rio de Janeiro: Cobogó, 2019.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>BARBOSA</surname>
                            <given-names>Mariana</given-names>
                        </name>
                    </person-group>
                    <source><italic>Pós-verdade e fake news</italic>: reflexões sobre a guerra de narrativas</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Cobogó</publisher-name>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B08">

                <mixed-citation>BARFAR, Arash. Cognitive and affective responses to political disinformation in Facebook. In: <italic>Computers in Human Behavior</italic>, 101:173-179, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BARFAR</surname>
                            <given-names>Arash</given-names>
                        </name>
                    </person-group>
                    <article-title>Cognitive and affective responses to political disinformation in Facebook</article-title>

                    <source>Computers in Human Behavior</source>
                    <volume>101</volume>
                    <fpage>173</fpage>
                    <lpage>179</lpage>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B09">

                <mixed-citation>BENKLER, Yoshai; FARIS, Robert; ROBERTS, Hal. <italic>Network propaganda</italic>: Manipulation, disinformation, and radicalization in American Politics. Oxford: Oxford University Press, 2018.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BENKLER</surname>
                            <given-names>Yoshai</given-names>
                        </name>
                        <name>
                            <surname>FARIS</surname>
                            <given-names>Robert</given-names>
                        </name>
                        <name>
                            <surname>ROBERTS</surname>
                            <given-names>Hal</given-names>
                        </name>
                    </person-group>
                    <source><italic>Network propaganda</italic>: Manipulation, disinformation, and radicalization in American Politics</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B10">

                <mixed-citation>BENKLER, Yoshai; SUNSTEIN, Cass et al. The Science of Fake News. <italic>Science</italic>, 359: 1094-1096, 2018.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BENKLER</surname>
                            <given-names>Yoshai</given-names>
                        </name>
                        <name>
                            <surname>SUNSTEIN</surname>
                            <given-names>Cass</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>The Science of Fake News</article-title>
                    <source>Science</source>
                    <volume>359</volume>
                    <fpage>1094</fpage>
                    <lpage>1096</lpage>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B11">

                <mixed-citation>BERINSKY, Adam J. Telling the truth about believing the lies? Evidence for the limited prevalence of expressive survey response. <italic>The Journal of Politics</italic>, 80:211-224, 2017.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BERINSKY</surname>
                            <given-names>Adam J.</given-names>
                        </name>
                    </person-group>
                    <article-title>Telling the truth about believing the lies? Evidence for the limited prevalence of expressive survey response</article-title>
                    <source>The Journal of Politics</source>
                    <volume>80</volume>
                    <fpage>211</fpage>
                    <lpage>224</lpage>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B12">

                <mixed-citation>BLACHNIO, Agata; PRZEPIORKA, Aneta; PANTIC, Igor. Association between Facebook Addiction, self-steem and life satisfaction: a cross-sectional study. In: <italic>Computers in Human Behavior</italic>, 55:701-705, 2016.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BLACHNIO</surname>
                            <given-names>Agata</given-names>
                        </name>
                        <name>
                            <surname>PRZEPIORKA</surname>
                            <given-names>Aneta</given-names>
                        </name>
                        <name>
                            <surname>PANTIC</surname>
                            <given-names>Igor</given-names>
                        </name>
                    </person-group>
                    <article-title>Association between Facebook Addiction, self-steem and life satisfaction: a cross-sectional study</article-title>
                    <source>Computers in Human Behavior</source>
                    <volume>55</volume>
                    <fpage>701</fpage>
                    <lpage>705</lpage>
                    <year>2016</year>

                </element-citation>
            </ref>
            <ref id="B13">

                <mixed-citation>BOURDIEU, Pierre. L’emprise du journalisme. In: <italic>Actes de la recherche en sciences sociales</italic>, 101-102:3-9, 1994.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BOURDIEU</surname>
                            <given-names>Pierre</given-names>
                        </name>
                    </person-group>
                    <article-title>L’emprise du journalisme</article-title>
                    <source>Actes de la recherche en sciences sociales</source>
                    <volume>101-102</volume>
                    <fpage>3</fpage>
                    <lpage>9</lpage>
                    <year>1994</year>

                </element-citation>
            </ref>
            <ref id="B14">

                <mixed-citation>BULLOCK, John G.; GERBER, Alan S.; HILL, Seth J.; HUBER, Gregory A. Partisan bias in factual beliefs about politics. <italic>Quaterly Journal of Political Science</italic>, 10: 519-578, 2015.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BULLOCK</surname>
                            <given-names>John G.</given-names>
                        </name>
                        <name>
                            <surname>GERBER</surname>
                            <given-names>Alan S.</given-names>
                        </name>
                        <name>
                            <surname>HILL</surname>
                            <given-names>Seth J.</given-names>
                        </name>
                        <name>
                            <surname>HUBER</surname>
                            <given-names>Gregory A.</given-names>
                        </name>
                    </person-group>
                    <article-title>Partisan bias in factual beliefs about politics</article-title>
                    <source>Quaterly Journal of Political Science</source>
                    <volume>10</volume>
                    <fpage>519</fpage>
                    <lpage>578</lpage>
                    <year>2015</year>

                </element-citation>
            </ref>
            <ref id="B15">

                <mixed-citation>BRADY, William J.; WILLS, Julian A.; JOST, John T.; TUCKER, Joshua A.; VAN BAVEL, Jay J. Emotion shapes the diffusion of moralized content in social networks. In: <italic>Proceedings of the National Academy of Sciences of the United States of America</italic>, v. 114, n. 28, p. 7.313-7.318, 2017.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRADY</surname>
                            <given-names>William J.</given-names>
                        </name>
                        <name>
                            <surname>WILLS</surname>
                            <given-names>Julian A.</given-names>
                        </name>
                        <name>
                            <surname>JOST</surname>
                            <given-names>John T.</given-names>
                        </name>
                        <name>
                            <surname>TUCKER</surname>
                            <given-names>Joshua A.</given-names>
                        </name>
                        <name>
                            <surname>VAN BAVEL</surname>
                            <given-names>Jay J.</given-names>
                        </name>
                    </person-group>
                    <article-title>Emotion shapes the diffusion of moralized content in social networks</article-title>
                    <source>Proceedings of the National Academy of Sciences of the United States of America</source>
                    <volume>114</volume>
                    <issue>28</issue>
                    <fpage>7.313</fpage>
                    <lpage>7.318</lpage>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B16">

                <mixed-citation>BRANCO, Sérgio. Pequeno guia para identificar <italic>fake news</italic> na campanha eleitoral 2018 (ou como não ser vítima das notícias falsas). In: <italic>VvAa, Fake news e as eleições de 2018</italic>, Rio de Janeiro: Fundação Konrad Adenauer, p. 157-168, 2018.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRANCO</surname>
                            <given-names>Sérgio</given-names>
                        </name>
                    </person-group>
                    <article-title>Pequeno guia para identificar <italic>fake news</italic> na campanha eleitoral 2018 (ou como não ser vítima das notícias falsas)</article-title>
                    <source>VvAa, Fake news e as eleições de 2018</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Fundação Konrad Adenauer</publisher-name>
                    <fpage>157</fpage>
                    <lpage>168</lpage>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B17">

                <mixed-citation>CANETTI, Elias. (1960). <italic>Massa e poder</italic>. Trad. S. Tellaroli. São Paulo: Companhia das Letras, 1995.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CANETTI</surname>
                            <given-names>Elias</given-names>
                        </name>
                    </person-group>
                    <comment>1960</comment>
                    <source>Massa e poder</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Tellaroli</surname>
                            <given-names>S.</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Companhia das Letras</publisher-name>
                    <year>1995</year>

                </element-citation>
            </ref>
            <ref id="B18">

                <mixed-citation>DA EMPOLI, Giuliano. <italic>Os engenheiros do caos</italic>. Trad. A. Bloch. São Paulo: Vestígio, 2019.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DA EMPOLI</surname>
                            <given-names>Giuliano</given-names>
                        </name>
                    </person-group>
                    <source>Os engenheiros do caos</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Bloch</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Vestígio</publisher-name>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B19">

                <mixed-citation>DERRIDA, Jaques. História da mentira: prolegômenos. Trad. Jean Briant. In: <italic>Estudos Avançados</italic>, 10, 27: 7-39, 1996.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DERRIDA</surname>
                            <given-names>Jaques</given-names>
                        </name>
                    </person-group>
                    <article-title>História da mentira: prolegômenos</article-title>

                    <person-group person-group-type="translator">
                        <name>
                            <surname>Briant</surname>
                            <given-names>Jean</given-names>
                        </name>
                    </person-group>
                    <source>Estudos Avançados</source>
                    <volume>10</volume>
                    <issue>27</issue>
                    <fpage>7</fpage>
                    <lpage>39</lpage>
                    <year>1996</year>

                </element-citation>
            </ref>
            <ref id="B20">

                <mixed-citation>EVANGELISTA, Rafael; BRUNO, Fernanda. WhatsApp and political instability in Brazil: targeted messages and political radicalisation. <italic>Internet Policy Review</italic>, v. 8, n. 4: 1-23, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>EVANGELISTA</surname>
                            <given-names>Rafael</given-names>
                        </name>
                        <name>
                            <surname>BRUNO</surname>
                            <given-names>Fernanda</given-names>
                        </name>
                    </person-group>
                    <article-title>WhatsApp and political instability in Brazil: targeted messages and political radicalisation</article-title>
                    <source>Internet Policy Review</source>
                    <volume>8</volume>
                    <issue>4</issue>
                    <fpage>1</fpage>
                    <lpage>23</lpage>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B21">

                <mixed-citation>FESTINGER, L.; PEPITONE, A.; NEWCOMB, T. Some consequences of de-individuation in a group. <italic>The Journal of Abnormal and Social Psychology</italic>, 47: 382-389, 1952.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FESTINGER</surname>
                            <given-names>L.</given-names>
                        </name>
                        <name>
                            <surname>PEPITONE</surname>
                            <given-names>A.</given-names>
                        </name>
                        <name>
                            <surname>NEWCOMB</surname>
                            <given-names>T.</given-names>
                        </name>
                    </person-group>
                    <article-title>Some consequences of de-individuation in a group</article-title>
                    <source>The Journal of Abnormal and Social Psychology</source>
                    <volume>47</volume>
                    <fpage>382</fpage>
                    <lpage>389</lpage>
                    <year>1952</year>

                </element-citation>
            </ref>
            <ref id="B22">

                <mixed-citation>FREUD, Sigmund. (1921). Psicologia das massas e análise do eu. In: <italic>Obras completas</italic>. 6. reimp. São Paulo: Companhia das Letras, v. 15, 2011.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FREUD</surname>
                            <given-names>Sigmund</given-names>
                        </name>
                    </person-group>
                    <comment>1921</comment>
                    <chapter-title>Psicologia das massas e análise do eu</chapter-title>
                    <source>Obras completas</source>
                    <comment>reimp</comment>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Companhia das Letras</publisher-name>
                    <volume>15</volume>
                    <year>2011</year>

                </element-citation>
            </ref>
            <ref id="B23">

                <mixed-citation>HABERMAS, Jürgen. <italic>Strukturwandel der Öffentlichkeit</italic>: Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Frankfurt am Main: Suhrkamp, 1962.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HABERMAS</surname>
                            <given-names>Jürgen</given-names>
                        </name>
                    </person-group>
                    <source><italic>Strukturwandel der Öffentlichkeit</italic>: Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft</source>
                    <publisher-name>Frankfurt am Main</publisher-name>
                    <publisher-loc>Suhrkamp</publisher-loc>
                    <year>1962</year>

                </element-citation>
            </ref>
            <ref id="B24">

                <mixed-citation>______. <italic>Faktizität und Geltung</italic>: Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats. 4. ed. Frankfurt am Main: Suhrkamp, 1992.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HABERMAS</surname>
                            <given-names>Jürgen</given-names>
                        </name>
                    </person-group>
                    <source><italic>Faktizität und Geltung</italic>: Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats</source>
                    <edition>4. ed.</edition>
                    <publisher-name>Frankfurt am Main</publisher-name>
                    <publisher-loc>Suhrkamp</publisher-loc>
                    <year>1992</year>

                </element-citation>
            </ref>
            <ref id="B25">

                <mixed-citation>HATFIELD, Elaine; CACIOPPO, John T.; RAPSON, Richard L. <italic>Emotional contagion</italic>. Cambridge: Cambridge University Press, 1994.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HATFIELD</surname>
                            <given-names>Elaine</given-names>
                        </name>
                        <name>
                            <surname>CACIOPPO</surname>
                            <given-names>John T.</given-names>
                        </name>
                        <name>
                            <surname>RAPSON</surname>
                            <given-names>Richard L.</given-names>
                        </name>
                    </person-group>
                    <source>Emotional contagion</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Cambridge University Press</publisher-name>
                    <year>1994</year>

                </element-citation>
            </ref>
            <ref id="B26">

                <mixed-citation>ICO (INFORMATION COMMISSIONER’S OFFICE). <italic>Democracy disrupted?</italic> Personal Information and Political Influence. London, 2018.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>ICO (INFORMATION COMMISSIONER’S OFFICE)</collab>
                    </person-group>
                    <source>Democracy disrupted?</source>
                    <publisher-name>Personal Information and Political Influence</publisher-name>
                    <publisher-loc>London</publisher-loc>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B27">

                <mixed-citation>JACK, Caroline. <italic>Lexicon of lies</italic>: terms for problematic information. Data &amp; Society Research Institute, p. 22, 2017.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>JACK</surname>
                            <given-names>Caroline</given-names>
                        </name>
                    </person-group>
                    <source><italic>Lexicon of lies</italic>: terms for problematic information</source>
                    <publisher-name>Data &amp; Society Research Institute</publisher-name>
                    <fpage>22</fpage>
                    <lpage>22</lpage>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B28">

                <mixed-citation>KOSELLECK, Reinhart. <italic>Kritik und Krise</italic>: Eine Studie zur Pathogenese der bürgerlichen Welt. 8. ed. Frankfurt am Main: Suhrkamp, 1959.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KOSELLECK</surname>
                            <given-names>Reinhart</given-names>
                        </name>
                    </person-group>
                    <source><italic>Kritik und Krise</italic>: Eine Studie zur Pathogenese der bürgerlichen Welt</source>
                    <edition>8. ed.</edition>
                    <publisher-name>Frankfurt am Main</publisher-name>
                    <publisher-loc>Suhrkamp</publisher-loc>
                    <year>1959</year>

                </element-citation>
            </ref>
            <ref id="B29">

                <mixed-citation>LAPIDOT-LEFLER, Noam; BARAK, Azy. Effects of anonymity, invisibility, and lack of eye-contact on toxic online desinhibition. In: <italic>Computers in Human Behavior</italic>, 28: 434-443, 2012.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LAPIDOT-LEFLER</surname>
                            <given-names>Noam</given-names>
                        </name>
                        <name>
                            <surname>BARAK</surname>
                            <given-names>Azy</given-names>
                        </name>
                    </person-group>
                    <article-title>Effects of anonymity, invisibility, and lack of eye-contact on toxic online desinhibition</article-title>

                    <source>Computers in Human Behavior</source>
                    <volume>28</volume>
                    <fpage>434</fpage>
                    <lpage>443</lpage>
                    <year>2012</year>

                </element-citation>
            </ref>
            <ref id="B30">

                <mixed-citation>LATOUR, Bruno. <italic>La fabrique du droit</italic>. Paris: La Découverte, 2002.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LATOUR</surname>
                            <given-names>Bruno</given-names>
                        </name>
                    </person-group>
                    <source>La fabrique du droit</source>
                    <publisher-loc>Paris</publisher-loc>
                    <publisher-name>La Découverte</publisher-name>
                    <year>2002</year>

                </element-citation>
            </ref>
            <ref id="B31">

                <mixed-citation>LE BON, Gustave. <italic>Psychologie des foules</italic>. Paris: Presses Universitaires de France, 1895.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LE BON</surname>
                            <given-names>Gustave</given-names>
                        </name>
                    </person-group>
                    <source>Psychologie des foules</source>
                    <publisher-loc>Paris</publisher-loc>
                    <publisher-name>Presses Universitaires de France</publisher-name>
                    <year>1895</year>

                </element-citation>
            </ref>
            <ref id="B32">

                <mixed-citation>LUHMANN, Niklas. <italic>Soziale systeme</italic>. Frankfurt am Main: Suhrkmap, 1984.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LUHMANN</surname>
                            <given-names>Niklas</given-names>
                        </name>
                    </person-group>
                    <source>Soziale systeme</source>
                    <publisher-name>Frankfurt am Main</publisher-name>
                    <publisher-loc>Suhrkmap</publisher-loc>
                    <year>1984</year>

                </element-citation>
            </ref>
            <ref id="B33">

                <mixed-citation>______. <italic>Die Kunst der Gesellschaft</italic>. Frankfurt am Main: Suhrkamp, 1995a.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LUHMANN</surname>
                            <given-names>Niklas</given-names>
                        </name>
                    </person-group>
                    <source>Die Kunst der Gesellschaft</source>
                    <publisher-loc>Frankfurt am Main</publisher-loc>
                    <publisher-name>Suhrkamp</publisher-name>
                    <year>1995a</year>

                </element-citation>
            </ref>
            <ref id="B34">

                <mixed-citation>______. (2004). <italic>Die Realität der Massenmedien</italic>. 3. ed. Wiesbaden: VS, 1995b.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LUHMANN</surname>
                            <given-names>Niklas</given-names>
                        </name>
                    </person-group>
                    <comment>2004</comment>
                    <source>Die Realität der Massenmedien</source>
                    <edition>3. ed.</edition>
                    <publisher-loc>Wiesbaden</publisher-loc>
                    <publisher-name>VS</publisher-name>
                    <year>1995b</year>

                </element-citation>
            </ref>
            <ref id="B35">

                <mixed-citation>______. <italic>Die Gesellschaft der Gesellschaft</italic>. Frankfurt am Main: Suhrkamp, 1997.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LUHMANN</surname>
                            <given-names>Niklas</given-names>
                        </name>
                    </person-group>
                    <source>Die Gesellschaft der Gesellschaft</source>
                    <publisher-loc>Frankfurt am Main</publisher-loc>
                    <publisher-name>Suhrkamp</publisher-name>
                    <year>1997</year>

                </element-citation>
            </ref>
            <ref id="B36">

                <mixed-citation>NOBRE, Marcos. <italic>Choque de democracia</italic>: razões da revolta. São Paulo: Companhia das Letras, 2013 (<italic>e-book</italic>).</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>NOBRE</surname>
                            <given-names>Marcos</given-names>
                        </name>
                    </person-group>
                    <source><italic>Choque de democracia</italic>: razões da revolta</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>Companhia das Letras</publisher-name>
                    <year>2013</year>
                    <comment>e-book</comment>

                </element-citation>
            </ref>
            <ref id="B37">

                <mixed-citation>O’NEIL, Cathy. <italic>Weapons of math destruction</italic>: How big data increases inequality and threatens democracy. New York: Broadway Books, 2016.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>O’NEIL</surname>
                            <given-names>Cathy</given-names>
                        </name>
                    </person-group>
                    <source><italic>Weapons of math destruction</italic>: How big data increases inequality and threatens democracy</source>
                    <publisher-loc>New York</publisher-loc>
                    <publisher-name>Broadway Books</publisher-name>
                    <year>2016</year>

                </element-citation>
            </ref>
            <ref id="B38">

                <mixed-citation>PARISER, Eli. <italic>The Filter-Bubble</italic>. New York: Penguin Books, 2011.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>PARISER</surname>
                            <given-names>Eli</given-names>
                        </name>
                    </person-group>
                    <source>The Filter-Bubble</source>
                    <publisher-loc>New York</publisher-loc>
                    <publisher-name>Penguin Books</publisher-name>
                    <year>2011</year>

                </element-citation>
            </ref>
            <ref id="B39">

                <mixed-citation>SCHUMPETER, Joseph. <italic>Capitalismo, socialismo e democracia</italic>. Trad. Ruy Jungmann. Rio de Janeiro: Fundo de Cultura, 1961.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SCHUMPETER</surname>
                            <given-names>Joseph</given-names>
                        </name>
                    </person-group>
                    <source>Capitalismo, socialismo e democracia</source>
                    <person-group person-group-type="translator">
                        <name>
                            <surname>Jungmann</surname>
                            <given-names>Ruy</given-names>
                        </name>
                    </person-group>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Fundo de Cultura</publisher-name>
                    <year>1961</year>

                </element-citation>
            </ref>
            <ref id="B40">

                <mixed-citation>SIMMEL, Georg. (2016). Zur Psychologie und Soziologie der Lüge. In: SIMMEL, G. <italic>Individualismus der modernen Zeit</italic>. 2. ed. Berlin: Suhrkamp, p. 83-94, 1899.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SIMMEL</surname>
                            <given-names>Georg</given-names>
                        </name>
                    </person-group>
                    <comment>2016</comment>
                    <chapter-title>Zur Psychologie und Soziologie der Lüge</chapter-title>
                    <person-group person-group-type="author">
                        <name>
                            <surname>SIMMEL</surname>
                            <given-names>G.</given-names>
                        </name>
                    </person-group>
                    <source>Individualismus der modernen Zeit</source>
                    <edition>2. ed.</edition>
                    <publisher-loc>Berlin</publisher-loc>
                    <publisher-name>Suhrkamp</publisher-name>
                    <fpage>83</fpage>
                    <lpage>94</lpage>
                    <year>1899</year>

                </element-citation>
            </ref>
            <ref id="B41">

                <mixed-citation>SLOTERDIJK, Peter. <italic>Die Verachtung der Massen</italic>: Versuch über die Kulturkämpfe in der modernen Gesellschaft. Frankfurt am Main: Suhrkamp, 2000.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SLOTERDIJK</surname>
                            <given-names>Peter</given-names>
                        </name>
                    </person-group>
                    <source><italic>Die Verachtung der Massen</italic>: Versuch über die Kulturkämpfe in der modernen Gesellschaft</source>
                    <publisher-loc>Frankfurt am Main</publisher-loc>
                    <publisher-name>Suhrkamp</publisher-name>
                    <year>2000</year>

                </element-citation>
            </ref>
            <ref id="B42">

                <mixed-citation>SRNICEK, Nick. <italic>Platform capitalism</italic>. Cambridge: Polity Press, 2017.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SRNICEK</surname>
                            <given-names>Nick</given-names>
                        </name>
                    </person-group>
                    <source>Platform capitalism</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Polity Press</publisher-name>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B43">

                <mixed-citation>SULER, John. The online disinhibition effect. In: <italic>Cyberpsychology &amp; Behavior</italic>, v. 7, n. 3, p. 321-326, 2004.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SULER</surname>
                            <given-names>John.</given-names>
                        </name>
                    </person-group>
                    <article-title>The online disinhibition effect</article-title>
                    <source>Cyberpsychology &amp; Behavior</source>
                    <volume>7</volume>
                    <issue>3</issue>
                    <fpage>321</fpage>
                    <lpage>326</lpage>
                    <year>2004</year>

                </element-citation>
            </ref>
            <ref id="B44">

                <mixed-citation>SUMPTER, David. <italic>Outnumbered</italic>: From Facebook and Google to fake news and filter-bubbles – The algorithms that control our lives. London: Bloomsbury Sigma, 2018.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SUMPTER</surname>
                            <given-names>David</given-names>
                        </name>
                    </person-group>
                    <source><italic>Outnumbered</italic>: From Facebook and Google to fake news and filter-bubbles – The algorithms that control our lives</source>
                    <publisher-loc>London</publisher-loc>
                    <publisher-name>Bloomsbury Sigma</publisher-name>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B45">

                <mixed-citation>SUNSTEIN, Cass. <italic>Going to extremes</italic>: how like minds unite and divide. Oxford: Oxford University Press, 2009.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SUNSTEIN</surname>
                            <given-names>Cass</given-names>
                        </name>
                    </person-group>
                    <source><italic>Going to extremes</italic>: how like minds unite and divide</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>2009</year>

                </element-citation>
            </ref>
            <ref id="B46">

                <mixed-citation>______. <italic>#republic</italic>: divided democracy in the age of social media. Princeton: Princeton University Press, 2017.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SUNSTEIN</surname>
                            <given-names>Cass</given-names>
                        </name>
                    </person-group>
                    <source><italic>#republic</italic>: divided democracy in the age of social media</source>
                    <publisher-loc>Princeton</publisher-loc>
                    <publisher-name>Princeton University Press</publisher-name>
                    <year>2017</year>

                </element-citation>
            </ref>
            <ref id="B47">

                <mixed-citation>TALISSE, Robert. <italic>Overdoing democracy</italic>. Oxford: Oxford University Press, 2019.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TALISSE</surname>
                            <given-names>Robert</given-names>
                        </name>
                    </person-group>
                    <source>Overdoing democracy</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B48">

                <mixed-citation>TRÄSEL, Marcelo. A eficácia da checagem de fatos no combate à desinformação. In: <italic>VvAa, Fake News e as eleições de 2018</italic>, Rio de Janeiro: Fundação Konrad Adenauer, p. 69-87, 2018.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TRÄSEL</surname>
                            <given-names>Marcelo</given-names>
                        </name>
                    </person-group>
                    <chapter-title>A eficácia da checagem de fatos no combate à desinformação</chapter-title>
                    <source>VvAa, Fake News e as eleições de 2018</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Fundação Konrad Adenauer</publisher-name>
                    <fpage>69</fpage>
                    <lpage>87</lpage>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B49">

                <mixed-citation>TUCKER, Joshua A. et al. <italic>Social media, political polarization, and political disinformation</italic>: a review of the scientific literature. Report Hewlett Foundation, 2018. 95 p.</mixed-citation>

                <element-citation publication-type="report">
                    <person-group person-group-type="author">
                        <name>
                            <surname>TUCKER</surname>
                            <given-names>Joshua A.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <source><italic>Social media, political polarization, and political disinformation</italic>: a review of the scientific literature</source>
                    <comment>Report Hewlett Foundation</comment>
                    <year>2018</year>
                    <size units="pages">95 p.</size>

                </element-citation>
            </ref>
            <ref id="B50">

                <mixed-citation>UNKELBACH, Christian; KOCH, Alex; SILVA, Rita R.; GARCIA-MARQUES, Teresa. Truth by repetition: explanations and implications. In: <italic>Current Directinos in Psychological Science</italic>, 28(3): 247-253, 2019.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>UNKELBACH</surname>
                            <given-names>Christian</given-names>
                        </name>
                        <name>
                            <surname>KOCH</surname>
                            <given-names>Alex</given-names>
                        </name>
                        <name>
                            <surname>SILVA</surname>
                            <given-names>Rita R.</given-names>
                        </name>
                        <name>
                            <surname>GARCIA-MARQUES</surname>
                            <given-names>Teresa</given-names>
                        </name>
                    </person-group>
                    <article-title>Truth by repetition: explanations and implications</article-title>
                    <source>Current Directinos in Psychological Science</source>
                    <volume>28</volume>
                    <issue>3</issue>
                    <fpage>247</fpage>
                    <lpage>253</lpage>
                    <year>2019</year>

                </element-citation>
            </ref>
            <ref id="B51">

                <mixed-citation>VESTING, Thomas (2011a, 2011b, 2013, 2015). <italic>Die Medien des Rechts</italic>, Weilerswist, Velbrück Wissenschaft, v. 1 (<italic>Sprache</italic>), v. 2 (<italic>Schrift</italic>), v. 3 (<italic>Buchdruck</italic>) e v. 4 (<italic>Computernetzwerk</italic>), respectivamente.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VESTING</surname>
                            <given-names>Thomas</given-names>
                        </name>
                    </person-group>
                    <year>2011a</year>
                    <comment>2011b, 2013, 2015</comment>
                    <source><italic>Die Medien des Rechts</italic>, Weilerswist, Velbrück Wissenschaft, v. 1 (<italic>Sprache</italic>), v. 2 (<italic>Schrift</italic>), v. 3 (<italic>Buchdruck</italic>) e v. 4 (<italic>Computernetzwerk</italic>)</source>
                    <comment>respectivamente</comment>

                </element-citation>
            </ref>
            <ref id="B52">

                <mixed-citation>______. A mudança da esfera pública pela inteligência artificial. In: ABBOUD, G.; NERY JR., G., N.; CAMPOS, R. (Org.). <italic>Fake news e regulação</italic>. São Paulo: RT, p. 91-108, 2018.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VESTING</surname>
                            <given-names>Thomas</given-names>
                        </name>
                    </person-group>
                    <chapter-title>A mudança da esfera pública pela inteligência artificial</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>ABBOUD</surname>
                            <given-names>G.</given-names>
                        </name>
                        <name>
                            <surname>NERY</surname>
                            <given-names>G N.</given-names>
                        </name>
                        <name>
                            <surname>CAMPOS</surname>
                            <given-names>R.</given-names>
                        </name>
                    </person-group>
                    <source>Fake news e regulação</source>
                    <publisher-loc>São Paulo</publisher-loc>
                    <publisher-name>RT</publisher-name>
                    <fpage>91</fpage>
                    <lpage>108</lpage>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B53">

                <mixed-citation>VILMER, J-B Jeangène; ESCORCIA, A.; GUILLAUME, M.; HERRERA, J. <italic>Information manipulation</italic>: a challenge for our democracies. Report Policy Planning Staff (CAPS), Ministry for Europe and Foreing Affairs &amp; Institute for Strategic Research (IRSEM). Paris, 2018.</mixed-citation>

                <element-citation publication-type="report">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VILMER</surname>
                            <given-names>J-B Jeangène</given-names>
                        </name>
                        <name>
                            <surname>ESCORCIA</surname>
                            <given-names>A.</given-names>
                        </name>
                        <name>
                            <surname>GUILLAUME</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>HERRERA</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <source><italic>Information manipulation</italic>: a challenge for our democracies</source>
                    <comment>Report Policy Planning Staff (CAPS), Ministry for Europe and Foreing Affairs &amp; Institute for Strategic Research (IRSEM)</comment>
                    <publisher-loc>Paris</publisher-loc>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B54">

                <mixed-citation>VOSOUGHI, Soroush; ROY, Deb; ARAL, Sinan. The spread of true and false news online. <italic>Science</italic>, 359: 1146-1151, 2018.</mixed-citation>

                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VOSOUGHI</surname>
                            <given-names>Soroush</given-names>
                        </name>
                        <name>
                            <surname>ROY</surname>
                            <given-names>Deb</given-names>
                        </name>
                        <name>
                            <surname>ARAL</surname>
                            <given-names>Sinan</given-names>
                        </name>
                    </person-group>
                    <article-title>The spread of true and false news online</article-title>
                    <source>Science</source>
                    <volume>359</volume>
                    <fpage>1146</fpage>
                    <lpage>1151</lpage>
                    <year>2018</year>

                </element-citation>
            </ref>
            <ref id="B55">

                <mixed-citation>WARDLE, Claire; DERAKHSHAN, Hossein. <italic>Information disorder</italic>: toward an interdisciplinary framework for research and policy making. Council of Europe Report DGI(2017)09. Strasbourg, 2017. 109 p.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WARDLE</surname>
                            <given-names>Claire</given-names>
                        </name>
                        <name>
                            <surname>DERAKHSHAN</surname>
                            <given-names>Hossein</given-names>
                        </name>
                    </person-group>
                    <source><italic>Information disorder</italic>: toward an interdisciplinary framework for research and policy making</source>
                    <comment>Council of Europe Report DGI(2017)09</comment>
                    <publisher-loc>Strasbourg</publisher-loc>
                    <year>2017</year>
                    <size units="pages">109 p.</size>

                </element-citation>
            </ref>
            <ref id="B56">

                <mixed-citation>WITTY, Monica; YOUNG, Garry. <italic>Cyberpsychology</italic>: the study of individuals, society and digital technologies. Oxford: Blackwell, 2016.</mixed-citation>

                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WITTY</surname>
                            <given-names>Monica</given-names>
                        </name>
                        <name>
                            <surname>YOUNG</surname>
                            <given-names>Garry</given-names>
                        </name>
                    </person-group>
                    <source><italic>Cyberpsychology</italic>: the study of individuals, society and digital technologies</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Blackwell</publisher-name>
                    <year>2016</year>

                </element-citation>
            </ref>

        </ref-list>
    </back>
</article>
