<?xml version="1.0" encoding="utf-8"?><!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">rdp</journal-id>
            <journal-title-group>
                <journal-title>Revista Direito Público</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Rev. Dir. Publico</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2236-1766</issn>
            <publisher>
                <publisher-name>Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.11117/rdp.v20i106.732</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>ARTIGOS ORIGINAIS</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>INTELIGÊNCIA ARTIFICIAL E DIREITOS HUMANOS: UMA AVALIAÇÃO ÉTICA NOS NEGÓCIOS<xref ref-type="fn" rid="fn01">1</xref></article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>ARTIFICIAL INTELLIGENCE AND HUMAN RIGHTS: A BUSINESS ETHICAL ASSESSMENT</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0001-7959-5980</contrib-id>
                    <name>
                        <surname>KRIEBITZ</surname>
                        <given-names>ALEXANDER</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01">I</xref>
                    <xref ref-type="fn" rid="fn13"/>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-3870-4789</contrib-id>
                    <name>
                        <surname>LÜTGE</surname>
                        <given-names>CHRISTOPH</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff02">II</xref>
                    <xref ref-type="fn" rid="fn14"/>
                    <xref ref-type="corresp" rid="c02"/>
                </contrib>
                <contrib contrib-type="translator">
                    <contrib-id contrib-id-type="orcid">0000-0001-9210-6651</contrib-id>
                    <name>
                        <surname>WIMMER</surname>
                        <given-names>MIRIAM</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff03">III</xref>
                    <xref ref-type="fn" rid="fn15"/>
                    <xref ref-type="corresp" rid="c03"/>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <label>I</label>
                <institution content-type="orgname">Technical University Munich</institution>
                <addr-line>
                    <named-content content-type="city">Munich</named-content>
                </addr-line>
                <country country="DE">Alemanha</country>
                <institution content-type="original">Technical University Munich. Munich. Alemanha</institution>
            </aff>
            <aff id="aff02">
                <label>II</label>
                <institution content-type="orgname">Technical University Munich</institution>
                <addr-line>
                    <named-content content-type="city">Munich</named-content>
                </addr-line>
                <country country="DE">Alemanha</country>
                <institution content-type="original">Technical University Munich. Munich. Alemanha</institution>
            </aff>
            <aff id="aff03">
                <label>III</label>
                <institution content-type="orgname">Instituto De Ensino, Desenvolvimento E Pesquisa</institution>
                <addr-line>
                    <named-content content-type="city">Brasília</named-content>
                    <named-content content-type="state">Df</named-content>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Instituto De Ensino, Desenvolvimento E Pesquisa (Idp). Brasília (Df). Brasil</institution>
            </aff>
            <author-notes>
                <fn fn-type="other" id="fn13">
                    <label>Alexander Kriebitz</label>
                    <p>Pesquisador Associado da Cátedra de Ética Empresarial da Universidade Técnica de Munique, Munique, Alemanha.</p>
                </fn>
                <fn fn-type="other" id="fn14">
                    <label>Christoph Lütge</label>
                    <p><italic>Chair Holder</italic> e professor titular da Cátedra de Ética Empresarial, Universidade Técnica de Munique, Munique, Alemanha. Como professor da Universidade Técnica de Munique e diretor do Instituto de Ética em Inteligência Artificial, Christoph Lütge recebeu financiamento para projetos do Facebook Inc., Fujitsu K.K. e Huawei Technologies Co. Ltd, relacionados à pesquisa em inteligência artificial e ética.</p>
                </fn>
                <corresp id="c02">E-mail: <email>luetge(at)tum.de</email>
                </corresp>
                <fn fn-type="other" id="fn15">
                    <label>Miriam Wimmer</label>
                    <p>Doutora em Comunicação pela UnB, mestre em Direito Público pela UERJ e professora do IDP.</p>
                </fn>
                <corresp id="c03">E-mail: <email>miriam.wimmer@yahoo.com.br</email>
                </corresp>
            </author-notes>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2023</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <season>Apr-Jun</season>
                <year>2023</year>
            </pub-date>
            <volume>10</volume>
            <issue>106</issue>
            <fpage>351</fpage>
            <lpage>384</lpage>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution Non-Commercial</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais e que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMO</title>
                <p>A inteligência artificial (IA) evoluiu como uma tecnologia disruptiva, gerando impactos para uma ampla gama de questões relacionadas aos direitos humanos, que vão desde a discriminação até a devida diligência na cadeia logística. Dadas as crescentes obrigações de direitos humanos das empresas e a intensificação do discurso sobre IA e direitos humanos, lançamos luz sobre as responsabilidades dos atores corporativos em termos de padrões de direitos humanos no contexto do desenvolvimento e uso da IA. Quais são as implicações das obrigações de direitos humanos para as empresas que desenvolvem e usam IA? Em nosso artigo, discutimos, primeiramente, se a IA possui um conflito intrínseco com os direitos humanos e com a autonomia humana. A seguir, discutimos como a IA pode estar ligada ao critério de beneficência, que integra a ética da IA, e como a IA pode ser aplicada em áreas relacionadas aos direitos humanos. Por fim, aprofundamo-nos sobre aspectos particulares do que significa estar em conformidade com os direitos humanos, abordando áreas problemáticas específicas da IA.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>Artificial intelligence (AI) has evolved as a disruptive technology, impacting a wide range of human rights-related issues ranging from discrimination to supply chain due diligence. Given the increasing human rights obligations of companies and the intensifying discourse on AI and human rights, we shed light on the responsibilities of corporate actors in terms of human rights standards in the context of developing and using AI. What implications do human rights obligations have for companies developing and using AI? In our article, we discuss firstly whether AI inherently conflicts with human rights and human autonomy. Next, we discuss how AI might be linked to the beneficence criterion of AI ethics and how AI might be applied in human rights-related areas. Finally, we elaborate on individual aspects of what it means to conform to human rights, addressing AI-specific problem areas.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>PALAVRAS-CHAVE</title>
                <kwd>inteligência artificial</kwd>
                <kwd>ética corporativa</kwd>
                <kwd>privacidade</kwd>
                <kwd>digitalização</kwd>
                <kwd>direitos humanos</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>KEYWORDS</title>
                <kwd>artificial intelligence</kwd>
                <kwd>corporate ethics</kwd>
                <kwd>data privacy</kwd>
                <kwd>digitization</kwd>
                <kwd>human rights</kwd>
            </kwd-group>
            <counts>
                <fig-count count="0"/>
                <table-count count="1"/>
                <equation-count count="0"/>
                <ref-count count="86"/>
                <page-count count="34"/>
            </counts>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>I - INTRODUÇÃO</title>
            <p>A inteligência artificial (IA) está, de maneira crescente, conquistando nossa realidade e moldando a forma como as sociedades e suas instituições são mantidas, organizadas e controladas, abrangendo ferramentas de reconhecimento facial, veículos autônomos, mecanismos de busca, ferramentas de tradução e programas que preveem a evolução dos preços nas bolsas de valores. Em comparação com tecnologias convencionais, a IA ocupa posição de destaque em termos de sua capacidade de interpretação e reação a dados, que (para fins de IA) são documentados, gerados e armazenados em dispositivos eletrônicos; os dados começam a se comunicar uns com os outros e a gerar o que chamamos de <italic>big data</italic>. Nesse sentido, podemos apropriadamente descrever a IA como uma constelação de diferentes processos e tecnologias (<xref ref-type="bibr" rid="B37">KAYE, 2017</xref>; <xref ref-type="bibr" rid="B17">COWLS et. al., 2019</xref>), conduzindo a uma substituição incremental das ações humanas pelo processamento automatizado de dados. Ainda que a IA claramente ofereça grandes vantagens para a humanidade, a exemplo de ferramentas diagnósticas mais precisas e medidas aprimoradas para combater o crime e limitar o terrorismo, os críticos apontam para os riscos que podem acompanhar essa revolução tecnológica. A Carta Aberta sobre IA de 2015, assinada por grandes cientistas e empresários, gerou um intenso debate sobre como regular a IA e como evitar potenciais armadilhas decorrentes da má gestão dessa tecnologia (<xref ref-type="bibr" rid="B67">SPARKES, 2015</xref>). Nesse contexto, Stephen Hawking se referiu à IA como potencialmente o pior evento da história humana, apto a anunciar o fim da humanidade (<xref ref-type="bibr" rid="B15">CELLAN-JONES, 2014</xref>), enquanto outras profecias sobre a tecnologia relacionada à IA soam tão ameaçadoras quanto os avisos dados na obra 1984, de Orwell, ou no livro Admirável Mundo Novo, de Huxley.</p>
            <p>As incertezas que acompanham este período de mudança tecnológica requerem um intenso debate sobre como orientar o desenvolvimento futuro da IA, bem como sua ética e governança; esses debates suscitam novas questões sobre o desenho de estruturas éticas e legislação em todo o mundo (<xref ref-type="bibr" rid="B24">FLORIDI et. al., 2018</xref>; <xref ref-type="bibr" rid="B63">RUSSEL, 2015</xref>). Embora a IA certamente contribua para a realização de vários objetivos sociais e ambientais, como os Objetivos de Desenvolvimento Social da Organização das Nações Unidas (ONU), ainda existe o risco de conflito entre os fundamentos normativos de nossa civilização e o uso concreto da IA. Assim, legisladores e especialistas em ética em todo o mundo começaram a desenvolver normas e padrões legais para lidar com casos potenciais de uso indevido de IA e para regulamentar o assunto. Estes incluem, por exemplo, a Declaração de Montreal para IA Responsável; os Princípios de Asilomar para IA; os princípios da AI4People para ética em IA (<xref ref-type="bibr" rid="B24">FLORIDI et. al, 2018</xref>); os relatórios dos dois Grupos de Especialistas de Alto Nível sobre relatórios de IA, tratando sobre ética (<xref ref-type="bibr" rid="B31">HLEG, 2019</xref>) bem como sobre governança de IA (FLORIDI et. al, 2018; <xref ref-type="bibr" rid="B18">COWLS e FLORIDI, 2019</xref>); o Comitê de Inteligência Artificial da Câmara dos Lordes do Reino Unido; o Regulamento Geral de Proteção de Dados europeu – RGPD; e o Código de Ética Alemão para Direção Automatizada e Conectada; que envolvem aspectos importantes de questões éticas relacionadas à IA.</p>
            <p>Afora o Relatório da ONU sobre Inteligência Artificial e suas implicações para os direitos humanos, ainda não foi articulada uma codificação legal ou ética adaptada à aplicação da IA ​​no contexto dos direitos humanos. Os direitos humanos, no entanto, desempenham um papel essencial no contexto da governança da IA, visto que são considerados normas fundamentais da civilização ocidental e desempenham um papel cada vez maior, em geral, no direito internacional (<xref ref-type="bibr" rid="B65">SIMMA e PULKOWSKI, 2006</xref>).</p>
            <p>Para além dos deveres éticos dos Estados e de organizações internacionais, como a ONU, na salvaguarda e proteção dos direitos humanos, o foco dos direitos humanos tem, de maneira mais proeminente após a formulação dos Princípios de Ruggie (<xref ref-type="bibr" rid="B54">ONU, 2011</xref>)<xref ref-type="fn" rid="fn05">5</xref>, gravitado em direção à sua aplicação pelas empresas. Dadas as crescentes obrigações e deveres das empresas como responsáveis pela tutela dos direitos humanos (<xref ref-type="bibr" rid="B34">JÄGERS, 2000</xref>; <xref ref-type="bibr" rid="B81">WETTSTEIN, 2009</xref>; <xref ref-type="bibr" rid="B62">RUGGIE, 2013</xref>; <xref ref-type="bibr" rid="B46">MUCHLINSKY, 2002</xref>), este artigo lança luz sobre as responsabilidades dos atores corporativos para a aplicação e realização dos padrões de direitos humanos no contexto da IA. Quais são as implicações das obrigações de direitos humanos para as empresas que desenvolvem e usam IA?</p>
            <p>Em um sentido mais amplo, nosso artigo tem como objetivo conectar o discurso sobre a ética da IA ​​ao discurso sobre as obrigações de direitos humanos dos tomadores de decisão corporativos. Em nossa opinião, ambos os discursos não representam pontos de vista concorrentes ou exclusivos, mas se complementam e enriquecem à medida que integram os domínios mais amplos da ética empresarial e da ética da tecnologia.</p>
        </sec>
        <sec>
            <title>II. O QUE SÃO DIREITOS HUMANOS E POR QUE SÃO IMPORTANTES?</title>
            <p>Abordar a IA a partir de uma perspectiva de direitos humanos requer uma breve descrição do conceito de direitos humanos. No pensamento ocidental, os direitos humanos são considerados a norma suprema da lei e constituem a base da maioria dos sistemas jurídicos. De acordo com a maior parte dos especialistas em direito internacional (<xref ref-type="bibr" rid="B65">SIMMA e PULKOWSKI, 2006</xref>; <xref ref-type="bibr" rid="B26">GARDBAUM, 2008</xref>), os direitos humanos não são meramente uma enumeração dos direitos individuais, mas formam um regime independente. O pilar integrante deste regime é uma antropologia baseada na autodeterminação e autonomia do ser humano (<xref ref-type="bibr" rid="B36">KANT, 1998</xref>).</p>
            <p>De acordo com esse entendimento, os direitos humanos obrigam o Estado e outras organizações sociais a observar certos princípios e procedimentos no trato com subalternos; esses princípios abrangem, por exemplo, a adesão estrita ao princípio do Estado de Direito e o direito a um julgamento justo. Ao mesmo tempo, a filosofia dos direitos humanos compreende a liberdade como condição básica do ser humano, concluindo que restrições a essa liberdade devem servir ao bem comum, e não à vontade de um monarca ou tirano. Esse conceito corresponde em grande parte à noção defendida por <xref ref-type="bibr" rid="B11">Isaiah Berlin (1969)</xref>, que definiu a liberdade como “a ausência de obstáculos às escolhas e atividades possíveis”, e que contribuiu para a compreensão dos direitos humanos como “pretensões” <italic>(claims)</italic> que limitam o poder do Estado (<xref ref-type="bibr" rid="B32">HOHFELD, 1917</xref>).</p>
            <p>Nessas circunstâncias, as intervenções na autonomia do indivíduo só são legítimas se forem baseadas no consentimento do indivíduo em questão ou se a liberdade de um indivíduo entrar em conflito com o interesse de outros. A transferência de bens ou a efetivação de um tratamento médico - uma intervenção na integridade inviolável do corpo - só são lícitas se gozarem do consentimento explícito do indivíduo, ressalvadas algumas isenções necessárias, como as emergências. A principal exceção que permite restringir a liberdade de uma pessoa exige que tal restrição sirva para prevenir danos a terceiros. De acordo com o princípio do dano, que forma a base dos direitos humanos enquanto pretensões que explicitamente vinculam instituições e terceiros, “o único propósito pelo qual o poder pode ser legitimamente exercido sobre qualquer membro de uma comunidade civilizada, contra sua vontade, é prevenir danos a outros” (<xref ref-type="bibr" rid="B43">MILL, 1859</xref>).</p>
            <p>Como resultado, as incursões do Estado, limitando a liberdade dos indivíduos, enfrentam restrições substanciais e só são legítimas em casos de colisão de normas. Desse modo, a regulação do trânsito, na medida em que constitui uma limitação à liberdade individual, serve para minimizar os acidentes de trânsito, em última análise decorrentes da tarefa do Estado de proteger a vida humana.</p>
            <p>No entanto, de acordo com o princípio da proporcionalidade, a interferência do Estado deve ser proporcional ao dano evitado. Essa noção deriva da alta prioridade concedida à ideia de igualdade perante a lei, que decorre da ideia aristotélica de “justiça corretiva” (<xref ref-type="bibr" rid="B02">AMBROSI, 2007</xref>; <xref ref-type="bibr" rid="B59">POJMAN, 1996</xref>),  implicando que o dano gerado por um regulamento ou por um ato do Estado deve ser proporcional ao dano evitado. Um aspecto importante deste termo é o conceito weberiano de <italic>Augenmaß</italic> (<xref ref-type="bibr" rid="B80">WEBER, 1919</xref>)  - um senso de proporção ou de “bom senso” - que deve nortear as ações políticas e os legisladores (<xref ref-type="bibr" rid="B86">ZUCCA, 2007</xref>; <xref ref-type="bibr" rid="B30">HARBO, 2010</xref>; <xref ref-type="bibr" rid="B19">CRAIG e DE BRUCA, 2015</xref>).  Prender uma criança por roubar uma maçã ou confiscar a carteira de motorista de uma pessoa após ela ter excedido o limite de velocidade em 5 km/h seriam exemplos de interferência desproporcional nas liberdades dos indivíduos.</p>
            <p>No entanto, há casos em que o princípio da proporcionalidade não é aplicável, uma vez que não é possível derrogar determinados tipos de direitos humanos. De acordo com a corrente majoritária dos especialistas em direitos humanos, a própria natureza dos direitos humanos veda determinadas ações, como tortura, escravidão, estupro ou comportamento extremamente humilhante, ainda que sirvam a outros direitos fundamentais (<xref ref-type="bibr" rid="B51">ONU, 2004</xref>).</p>
            <p>A partir dessa perspectiva, derivamos algumas consequências básicas de direitos humanos para a regulamentação da IA:</p>
            <list list-type="alpha-lower">
                <list-item>
                    <p>Os direitos de um indivíduo só podem ser transferidos com o seu consentimento (princípio do consentimento).</p>
                </list-item>
                <list-item>
                    <p>A única justificativa para o uso do poder contra a vontade de uma pessoa é a prevenção do dano (princípio do dano).</p>
                </list-item>
                <list-item>
                    <p>O uso da força deve ser proporcional à ameaça (princípio da proporcionalidade).</p>
                </list-item>
            </list>
            <p>Os direitos humanos, entretanto, vão além de uma natureza puramente defensiva, para influenciar os objetivos das organizações sociais, como na forma de “objetivos estatais” ou imperativos (<xref ref-type="bibr" rid="B39">KUSZLER, 2007</xref>). O Estado, como autoridade normativa máxima, e as organizações internacionais enfrentam, assim, a tarefa de garantir a observância dos direitos humanos em bases materiais e econômicas. O Pacto Internacional sobre Direitos Sociais, Econômicos e Culturais, por exemplo, contém o princípio de implementação progressiva <italic>(progressive realization)</italic>, que insta os Estados a adotar “políticas e técnicas para alcançar um desenvolvimento econômico, social e cultural estável [...]” (<xref ref-type="bibr" rid="B50">ONU, 1966</xref>, Artigo 6.2). Por fim, a noção de direitos humanos e a ideia de que os seres humanos nascem livres e iguais requerem que a <italic>participação</italic> seja ancorada no processo político. Essa noção é, grosso modo, equivalente ao princípio lockeano de governo, sustentado pelo “consentimento dos governados” mencionado na Declaração de Independência dos Estados Unidos.</p>
            <p>Devido ao papel crescente das empresas no direito internacional na esteira da globalização, John <xref ref-type="bibr" rid="B62">Ruggie (2013)</xref> leciona que as empresas se tornaram parte do discurso dos direitos humanos (<xref ref-type="bibr" rid="B84">ZERK, 2006</xref>:19). O Pacto Global da ONU, a Declaração da OIT sobre Princípios e Direitos Fundamentais no Trabalho, a Lei de Escravidão Moderna e Tráfico Humano do Reino Unido, bem como os Princípios Orientadores da ONU sobre Negócios e Direitos Humanos (<italic>United Nations Guiding Principles</italic> ou UNGPs) influenciaram amplamente esse desenvolvimento. Os UNGPs, de acordo com Ruggie, estabelecem que as empresas devem “identificar e avaliar qualquer impacto adverso real ou potencial sobre os direitos humanos com o qual possam estar envolvidas, seja por meio de suas próprias atividades, seja como resultado de relações comerciais”. Portanto, chama-se a atenção para as responsabilidades das empresas em relação às mencionadas pretensões <italic>(claims)</italic> em um contexto internacional (<xref ref-type="bibr" rid="B54">ONU, 2011</xref>).</p>
        </sec>
        <sec>
            <title>III. O QUE DISTINGUE A IA DE OUTRAS TECNOLOGIAS?</title>
            <p>A discussão da relação entre direitos humanos e IA requer um exame das propriedades e peculiaridades da IA. O que torna a IA diferente de outras tecnologias, como veículos tradicionais, <italic>smartphones</italic> ou usinas nucleares? Por que, afinal, precisamos de uma ética sob medida para IA? A definição mais próxima do nosso entendimento de IA é dada pelo Dicionário Merriam-Webster, que define inteligência artificial como a capacidade de uma máquina imitar o comportamento humano inteligente. A rigor, a palavra “inteligente” não se refere à máquina, mas sim ao fato de que se a tarefa da solução de IA tivesse sido resolvida por um ser humano, o modo de realizar a tarefa teria sido chamado de inteligente (<xref ref-type="bibr" rid="B37">KAYE, 2017</xref>).  A comparação à inteligência humana refere-se, portanto, em primeira instância, ao resultado <italic>(output)</italic> de uma ação, e não ao <italic>input</italic> ou ao processo de tomada de decisão das máquinas (<xref ref-type="bibr" rid="B42">MCCARTHY, 1959</xref>).  Quanto a esse ponto, a Carta Aberta sobre IA (<xref ref-type="bibr" rid="B63">RUSSEL et. al., 2015</xref>) se refere às noções estatísticas e econômicas de inteligência. Esse entendimento tem uma implicação importante para os direitos humanos, uma vez que a IA - não sendo uma entidade ontológica - não pode ser considerada um ator independente ou potencial perpetrador de violações de direitos humanos, pelo menos não ainda. Ao invés, as obrigações de conformidade com os direitos humanos relacionadas às soluções de IA permanecem no domínio da responsabilidade humana, e buscam vincular os Estados-nação, empresas ou organizações não governamentais (ONGs) que utilizem tais tecnologias.</p>
            <p>Com base nessa conceituação de IA, as violações dos direitos humanos podem ter origem em diferentes impulsos e inclinações. Ao imitar o comportamento inteligente, a IA combina grandes quantidades de dados com processamento iterativo rápido e algoritmos inteligentes, permitindo que o <italic>software</italic> aprenda automaticamente a partir de padrões ou características dos dados. Nesse sentido, a IA utiliza redes neurais para evitar a necessidade de coleta e interpretação de dados, podendo, portanto, chegar a conclusões não previstas por humanos, uma vez que estes não participam da definição dos objetivos e dos <italic>outputs</italic> da IA (<xref ref-type="bibr" rid="B37">KAYE, 2017</xref>). Nesse sentido, a característica especial da IA ​​é que alguns de seus processos são executados automaticamente e, nesses casos, os humanos não podem intervir diretamente; seus resultados também não podem ser previstos <italic>ex ante</italic>, resultando em consequências não previstas.</p>
            <p>Essas características suscitam questões mais gerais quanto à sua conformidade com os direitos humanos, a saber, se a IA, na medida em que consiste na transferência da agência humana para uma máquina, acarreta um conflito intrínseco com a ideia de autodeterminação moral. Caso não exista um conflito intrínseco, permanecem dúvidas sobre as maneiras como certas características e aspectos da IA ​​podem afetar os direitos humanos. As perguntas a seguir lançam luz sobre alguns desses problemas:</p>
            <list list-type="bullet">
                <list-item>
                    <p>Existem cenários em que a IA produz um impacto positivo sobre os direitos humanos?</p>
                </list-item>
                <list-item>
                    <p>Existem cenários em que os dados de entrada <italic>(input)</italic> de IA violam os direitos humanos?</p>
                </list-item>
                <list-item>
                    <p>Existem cenários em que os resultados <italic>(output)</italic> de IA violam os direitos humanos?</p>
                </list-item>
                <list-item>
                    <p>O uso de IA em domínios específicos viola os direitos humanos, especialmente no que tange aos direitos de participação?</p>
                </list-item>
                <list-item>
                    <p>É possível usar a IA para violar ou restringir os direitos humanos?</p>
                </list-item>
            </list>
        </sec>
        <sec>
            <title>IV. INTELIGÊNCIA ARTIFICIAL E DIREITOS HUMANOS - UM CONFLITO INTRÍNSECO?</title>
            <p>Na primeira parte de nossa análise, abordamos a questão de saber se existe um conflito intrínseco entre o uso de IA e os direitos humanos. Isso requer um esclarecimento quanto ao termo “intrínseco” aqui utilizado. Em geral, podemos distinguir entre atos que conflitam de maneira intrínseca com os direitos humanos e atos que representam um conflito fortuito com os direitos humanos (<xref ref-type="bibr" rid="B13">BRANNON e JAWORSKI, 2015</xref>; <xref ref-type="bibr" rid="B47">MUELLER, 2018</xref>). Em nossa opinião, um ato é intrinsecamente contrário aos direitos humanos se constituir uma violação dos direitos humanos independentemente das circunstâncias. Um exemplo paradigmático é a escravidão, que coloca em xeque a natureza dos direitos humanos e da autodeterminação, independentemente de suas circunstâncias e causas exatas (cfr. Artigo 4, Pacto Internacional sobre Direitos Civis e Políticos). A construção de uma estrada pode ser um exemplo para ilustrar a diferença entre limites intrínsecos e fortuitos. Normalmente, não há nada de errado em construir estradas. Se, no entanto, o governo constrói a estrada com trabalho forçado ou pela expropriação de tribos indígenas, há uma clara violação dos direitos humanos. Casos desse tipo constituem violações de direitos humanos por motivos fortuitos, pois sua avaliação ética não depende da ação em si, mas de suas circunstâncias.</p>
            <p>O uso de IA constitui uma violação intrínseca dos direitos humanos, justificando assim uma proibição universal? A razão pela qual abordamos esta questão um tanto teórica deve-se à rejeição geral do uso de IA por alguns especialistas em ética e entidades religiosas, postulando a existência de um conflito intransponível entre a autodeterminação moral e o uso de IA. Uma linha de argumento frequente é que o uso da IA representa um conflito com a autonomia humana, porque mesmo decisões graves podem ser tomadas pela IA, entrando assim em conflito direto com o próprio significado dos direitos humanos e conduzindo à alienação (<xref ref-type="bibr" rid="B82">WOGU, 2018</xref>). Na declaração de princípios da Convenção de Inteligência Artificial da igreja Southern Baptist <italic>(“An Evangelical Statement of Principles”)</italic>, a igreja se posicionou contra a atribuição de um nível de identidade humana, valor, dignidade ou agência moral à IA (<xref ref-type="bibr" rid="B22">ERLC, 2019</xref>). </p>
            <p>Para analisar se essa afirmação é válida, nos referimos a um dos exemplos mais controversos, a saber, o uso de IA para sopesar decisões de vida ou morte. Na direção autônoma, como em outras aplicações, ações como dirigir o veículo ou desacelerar, originalmente realizadas por humanos, são cada vez mais gerenciadas por processos mecânicos e automáticos. Além disso, as soluções de <italic>software</italic> podem intervir, em caso de acidente, para minimizar o número de vítimas. No caso de um acidente inevitável, se o carro tiver que escolher entre atingir um dos dois indivíduos que atravessam uma rua, o carro autônomo passa a ser a entidade responsável pela decisão de qual alvo atingir. Além das considerações gerais relativas à prestação de contas e responsabilidade, a permissibilidade da automação em tais casos é importante para a perspectiva de direitos humanos,<xref ref-type="fn" rid="fn06">6</xref> vez que se refere à questão de saber se a IA pode tomar decisões que envolvem a vida ou a morte de pessoas. Isso, por sua vez, se conecta ao debate mais amplo sobre a relação entre dignidade humana e automatização. Uma posição deontológica estrita indicaria que sopesar vidas não pode ser legítimo, com base no pressuposto de que entra em conflito com a ideia de dignidade humana, que estabelece que os seres humanos não devem ser tratados como objetos; ao passo que considerações utilitárias incitariam o programador a escolher a alternativa com menos vítimas.</p>
            <p>Do nosso ponto de vista, entretanto, um argumento prático e outro teórico depõem contra a alegação de que o uso de IA em tais casos constitui uma violação intrínseca dos direitos humanos. Na prática, a decisão de um determinado motorista geralmente não resulta de um processo de pensamento bem elaborado, mas sim de uma reação inconsciente ou de pânico. Portanto, é questionável se o ato realmente envolve um momento de ação humana. Depois de atingirem um certo nível de desenvolvimento, os processos sensoriais e mecânicos podem ser superiores às reações humanas, pois podem reagir muito mais rapidamente do que qualquer cérebro humano - mesmo em crise. Do ponto de vista teórico, o conceito rawlsiano de um véu de ignorância (<xref ref-type="bibr" rid="B60">RAWLS, 1971</xref>) oferece uma saída para o dilema, ao demonstrar que o princípio do consentimento pode se harmonizar com a maximização do direito à vida. Se imaginarmos o cenário concreto de um acidente inevitável que envolve a morte do motorista ou a morte de um grupo de pessoas (<xref ref-type="bibr" rid="B79">WALLACH e ALLEN, 2008</xref>) e, além disso, assumimos que todos os indivíduos desejam primeiro salvar suas próprias vidas; decorre que as partes envolvidas não seriam capazes de chegar a um consenso unânime. Devido ao alto valor da vida, também é questionável se um indivíduo estaria disposto a desistir de sua vida pelo bem dos outros, apesar dos achados empíricos (<xref ref-type="bibr" rid="B21">DI NUCCI, 2013</xref>). Obviamente, sem sacrificar o princípio do consentimento unânime, a perspectiva de se chegar a um acordo nesta situação concreta está fadada ao fracasso. Embora a aplicação de uma decisão baseada na vontade - hipotética - da maioria seja possível, de acordo com algumas teorias amplamente utilitárias, tal possibilidade permanece controversa (<xref ref-type="bibr" rid="B28">GOODALL, 2014</xref>; <xref ref-type="bibr" rid="B05">AWAD et al, 2018</xref>).</p>
            <p>A única maneira de resolver essa situação de impasse é mudar o foco do caso individual para uma regra geral. Dada a premissa de que indivíduos anônimos não sabem sua posição com antecedência e devem concordar <italic>ex ante</italic> quanto a um procedimento (<xref ref-type="bibr" rid="B60">RAWLS, 1971</xref>)  sobre como lidar com o uso de IA em situações inevitáveis, eles provavelmente concordarão com princípios abstratos e imparciais. O fato de os indivíduos não terem consciência de seu papel exato no cenário estabelece um ambiente propício à imparcialidade, garantindo “que ninguém tenha vantagens ou desvantagens na escolha dos princípios pelo resultado do acaso natural ou pela contingência das circunstâncias sociais” (<xref ref-type="bibr" rid="B60">RAWLS, 1971</xref>). Com base nisso, indivíduos razoáveis podem propor um regulamento segundo o qual um carro deve ser programado para minimizar o número de vítimas em situações de dilema inevitáveis, visto que a probabilidade geral de ser atropelado ou morto em um carro autônomo diminui com a redução do número de vítimas. A regra deve, portanto, implicar que o maior grupo de pessoas é sempre salvo, após ponderar as decisões, independentemente de sua condição de motoristas, pedestres ou outras características pessoais. Tal regra está de acordo com o princípio da dignidade humana, que afirma que todos os indivíduos envolvidos devem ter oportunidades iguais de vida. Elevar a questão da programação de acidentes inevitáveis ao nível de participação social parece ser mais significativo, pois a formulação da regra tem impacto sobre todos os indivíduos que participam do tráfego rodoviário. A escolha exata dos mecanismos e a decisão sobre a aplicação da randomização nos casos em que o carro deve decidir entre dois grupos do mesmo tamanho é, em última análise, uma questão de consentimento social e democrático. Isso implica que as empresas são incapazes de formular suas próprias interpretações das estruturas de direitos humanos para tais instâncias e precisam se referir às estruturas jurídicas abrangentes ou às decisões dos tribunais constitucionais. Além disso, a programação deve distinguir entre situações que envolvem pessoas anônimas e situações em que as pessoas se conhecem para evitar danos extremos (veja-se a Regra 3). Portanto, a decisão final, talvez na forma de uma decisão parlamentar e finalmente na sua implementação pelas empresas, deve cumprir os seguintes critérios:</p>
            <list list-type="bullet">
                <list-item>
                    <p><bold>Regra 1:</bold> A probabilidade de morrer em um acidente deve diminuir para todas as pessoas.</p>
                </list-item>
                <list-item>
                    <p><bold>Regra 2:</bold> Todos os indivíduos devem ter chances iguais de sobreviver.</p>
                </list-item>
                <list-item>
                    <p><bold>Regra 3:</bold> Situações extremamente difíceis para os indivíduos podem anular a Regra 2, com base no consentimento explícito das partes afetadas (por exemplo, a avó consente que o carro a atropele em vez de seu neto.)</p>
                </list-item>
            </list>
            <p>O princípio da “meta-autonomia”, que se refere à decisão de delegar decisões específicas às máquinas (<xref ref-type="bibr" rid="B24">FLORIDI et. al, 2018</xref>),  não é um conceito muito novo, uma vez que já delegamos voluntariamente a liberdade a organizações e normas coletivas no sentido de um “consentimento dos governados”. É possível traçar paralelos entre o supramencionado exemplo de direção autônoma e a noção de delegar liberdades pessoais a organizações sociais, a elaboração de um testamento, ou considerações quanto a danos colaterais em conflitos armados. Nesse sentido, o exemplo também leva a uma conclusão relacionada à relação geral entre a agência humana e a IA. A transferência da decisão para o veículo autônomo na situação concreta do sinistro não representa conflito com a agência humana, desde que seja com base em recurso a princípios gerais legitimados pelo consentimento democrático e assente em regras racionais e abstratas, as quais tenham sido estabelecidas em um discurso aberto.</p>
        </sec>
        <sec>
            <title>V. BENEFICÊNCIA E DIREITOS HUMANOS</title>
            <p>Nesta seção, examinamos a direção em que o desenvolvimento e a pesquisa de IA por empresas devem seguir a partir de uma perspectiva de direitos humanos. Pretendemos vincular o debate existente sobre o princípio da beneficência nas regulamentações da IA ​​às implicações socioeconômicas dos direitos humanos. Embora os direitos humanos sejam classicamente definidos como pretensões <italic>(claims)</italic> face ao Estado, pretendemos lançar luz sobre as implicações mais amplas dos direitos humanos para a implementação das normas de direitos humanos <italic>(human rights standards)</italic>, bem como suas implicações para os fatores socioeconômicos que podem estar ligados aos direitos humanos (<xref ref-type="bibr" rid="B60">RAWLS, 1971</xref>;<xref ref-type="bibr" rid="B08"> BANCO MUNDIAL, 2012</xref>).  </p>
            <p>A ideia de que o uso de tecnologias científicas deve servir ao bem maior decorre do critério de beneficência da IA, que está presente em diferentes marcos regulatórios e diretrizes éticas. Nesse sentido, os critérios de Pequim sobre Inteligência Artificial são bastante representativos quanto à opinião de que “a IA deve ser projetada e desenvolvida para promover o progresso da sociedade e da civilização humana [...]” (<xref ref-type="bibr" rid="B06">BAAI, 2019</xref>).</p>
            <p>A ideia de beneficência, no sentido de que o desenvolvimento econômico e científico deve contribuir para o atingimento de objetivos normativos, se enquadra na estrutura dos Objetivos de Desenvolvimento Sustentável – ODS das Nações Unidas, que abrangem uma ampla gama de objetivos sociais e ambientais, como o de “acabar com a pobreza em todas as suas formas, em todos os lugares”. Usar os ODS como um <italic>proxy</italic> para os direitos humanos pode ser um tanto problemático, pois há um debate em andamento atualmente sobre a relação exata entre as duas estruturas.<xref ref-type="fn" rid="fn07">7</xref> No entanto, argumentamos que alguns desses objetivos correspondem aos direitos socioeconômicos enumerados no Pacto Internacional sobre Direitos Econômicos, Sociais e Culturais, tais como o direito a um padrão de vida adequado, o direito à educação ou o direito à saúde (<xref ref-type="bibr" rid="B53">ONU, 2008b</xref>). A Agenda 2030 para o Desenvolvimento Sustentável apontou que os ODS das Nações Unidas “buscam realizar os direitos humanos de todos” e se referiu aos direitos socioeconômicos da Declaração dos Direitos Humanos das Nações Unidas (<xref ref-type="bibr" rid="B55">ONU, 2015</xref>). Na próxima seção, ilustramos, portanto, como as empresas podem vincular suas estratégias de IA à realização dessas questões socialmente importantes e como integrar a realização dos direitos humanos consagrados em tratados internacionais em abordagens corporativas relacionadas à IA.</p>
            <sec>
                <title>A. OBJETIVO DE DESENVOLVIMENTO SUSTENTÁVEL 1: ELIMINAÇÃO DA POBREZA</title>
                <p>De acordo com uma publicação recente, a IA viabiliza tecnologias que desencadeiam o crescimento econômico e aumentam a produtividade da economia (<xref ref-type="bibr" rid="B76">VINUESA et. al., 2019</xref>; <xref ref-type="bibr" rid="B01">ACEMOGLU e RESTREPO, 2018</xref>).  Nesse sentido, a IA parece ter consequências positivas diretas para a pobreza e para a prosperidade global, que são, segundo as Nações Unidas, os maiores desafios globais contra a humanidade (<xref ref-type="bibr" rid="B56">ONU, 2017</xref>). Além das implicações gerais da IA para o crescimento econômico, muitas das implicações positivas da IA ​​são mais diretas. O uso de <italic>drones</italic> na agricultura, por exemplo, ajuda os agricultores a trabalhar, produzir e manter suas fazendas e gado de forma eficiente. O Stanford Poverty &amp; Technology Lab tem feito pesquisas intensivas para encontrar soluções para os agricultores de baixa renda, tanto na agricultura como também em todos os outros aspectos que permitem tirar os humanos da pobreza. O Laboratório também usa IA e imagens para prever a pobreza, e essas previsões foram confirmadas com 81-99% de precisão (<xref ref-type="bibr" rid="B10">BENNINTON-CASTRO, 2017</xref>).</p>
            </sec>
            <sec>
                <title>B. OBJETIVO DE DESENVOLVIMENTO SUSTENTÁVEL 5: IGUALDADE DE GÊNERO</title>
                <p>A IA também pode ser usada para conduzir à igualdade de gênero e ao empoderamento de todas as mulheres e meninas (<xref ref-type="bibr" rid="B55">ONU, 2015</xref>).  No Paquistão, o <italic>chatbot</italic> RAAJI conversa com mulheres sobre saúde reprodutiva feminina, higiene e segurança. A educação e a igualdade de gênero não são apenas um direito humano e uma meta dos ODS, mas também a principal ferramenta para valorizar outros tópicos relevantes para os direitos humanos, como a igualdade, a liberdade pessoal ou a dignidade humana. A empresa que viabiliza o <italic>chatbot</italic> tem parceria com a UNESCO para criar conteúdo veiculado nas áreas rurais do Paquistão.</p>
                <p>Embora os dois casos descritos representem apenas alguns casos de IA benéfica, eles evidenciam que as empresas podem contribuir para o bem maior ao implementar soluções de IA. Isso se vincula ao objetivo normativo da beneficência no sentido de contribuir para os objetivos econômicos, sociais e ambientais. Na perspectiva de longo prazo, o critério de beneficência derivado da governança da IA pode influenciar o entendimento geral quanto às responsabilidades corporativas no tocante aos direitos humanos, no sentido de que as empresas se tornam cada vez mais comprometidas com aprimoramentos éticos. Isso pode ser comparável às implicações para os Estados, que têm de elevar o nível de desenvolvimento do respectivo país. Até agora, as Diretrizes da ONU sobre Negócios e Direitos Humanos consideram as responsabilidades das empresas principalmente em sua dimensão de pretensões <italic>(claims)</italic><xref ref-type="fn" rid="fn08">8</xref>. Portanto, a incorporação do critério de beneficência na ética da IA pode contribuir para uma interpretação dos direitos humanos como objetivos normativos para a tomada de decisões corporativas.</p>
            </sec>
        </sec>
        <sec>
            <title>VI. VIOLAÇÃO FORTUITA DE DIREITOS HUMANOS POR INTELIGÊNCIA ARTIFICIAL</title>
            <p>Na seção a seguir, discutiremos os casos em que o uso de IA pode entrar em conflito com os direitos humanos. Os casos aqui descritos são exemplificativos e não representam uma lista exaustiva.</p>
            <table-wrap id="t01">
                <label>Tabela 1</label>
                <caption>
                    <title>tipologia de Violações de Direitos Humanos relacionadas à IA</title>
                </caption>
                <table frame="box" rules="all">
                    <thead>
                        <tr align="left">
                            <th valign="top">Situação</th>
                            <th valign="top">Exemplos</th>
                        </tr>
                    </thead>
                    <tbody>
                        <tr>
                            <td valign="top">Situação I: os dados de entrada <italic>(input)</italic> de IA conflitam com os direitos humanos</td>
                            <td valign="top">• Uso de dados sem ou contra a vontade explícita dos clientes<break/>• Uso desproporcional de dados íntimos e pessoais de indivíduos por instituições públicas</td>
                        </tr>
                        <tr>
                            <td valign="top">Situação II: o resultado <italic>(output)</italic> da IA leva a violações involuntárias dos direitos humanos</td>
                            <td valign="top">• Discriminação ilegal em candidaturas a empregos com base na etnia<break/>• Discriminação ilícita de mulheres no sistema público de saúde</td>
                        </tr>
                        <tr>
                            <td valign="top">Situação III: o uso de IA em áreas específicas conflita com os direitos humanos</td>
                            <td valign="top">• Violação do direito de opinião, devido ao uso excessivo de algoritmos nas redes sociais<break/>• Substituição de decisões democráticas por decisões de IA (robotocracia)</td>
                        </tr>
                        <tr>
                            <td valign="top">Situação IV: um violador de direitos humanos usa IA</td>
                            <td valign="top">• Uso de IA para monitorar os cidadãos que criticam o governo<break/>• Uso de IA para suprimir minorias étnicas e rastrear indivíduos</td>
                        </tr>
                    </tbody>
                </table>
            </table-wrap>
            <p>Em contraste com a seção acima, discutimos aqui não o que a IA deveria fazer, mas, sim, o que não deveria ser feito em termos de direitos humanos. Para facilitar a compreensão dos aspectos individuais do que significa estar em conformidade com os direitos humanos, nos orientamos para diversas situações, abordando áreas problemáticas específicas da IA. Os aspectos centrais são a conformidade com os direitos humanos do <italic>input</italic> e do <italic>output</italic> de soluções de IA, o tipo de uso e as intenções do ator (<xref ref-type="table" rid="t01">Tabela 1</xref>).</p>
            <sec>
                <title>A. SITUAÇÃO I: OS DADOS DE ENTRADA <italic>(INPUT)</italic> DE IA CONFLITAM COM OS DIREITOS HUMANOS</title>
                <p>A IA precisa processar dados para expandir suas capacidades e realizar certas tarefas. Compreender essa ligação estreita entre IA e dados é crucial para casos práticos, pois a coleta de dados pode entrar em conflito com o direito dos indivíduos à privacidade e com a sua autonomia de dados (<xref ref-type="bibr" rid="B20">DATEN ETHIK KOMMISSION, 2019</xref>). Do ponto de vista dos direitos humanos, o direito à privacidade pode ser considerado uma extensão da dignidade humana, o que foi confirmado por decisões judiciais (cfr. <italic>Lawrence v. Texas</italic>) e textos legais como a Declaração Universal dos Direitos Humanos e a Convenção Europeia sobre Direitos Humanos (artigo 8) (<xref ref-type="bibr" rid="B23">ETZIONI, 2007</xref>).</p>
                <p>Diferentemente do que ocorre com a dignidade humana, a propriedade dos dados geralmente pode ser transferida a terceiros com base no consentimento, o que também se aplica à forma como os dados são usados (<xref ref-type="bibr" rid="B41">LESSIG, 2002</xref>). O Regulamento Geral de Proteção de Dados – RGPD estabelece que “sempre que o tratamento for realizado com base no consentimento do titular dos dados, o responsável pelo tratamento deverá poder demonstrar que o titular deu o seu consentimento à operação de tratamento dos dados”. Essa passagem reflete, sobretudo, o aumento do uso de dados pela IA, como ocorre no caso de veículos altamente automatizados e, especialmente, conectados: as interações entre os veículos aumentariam substancialmente a segurança no trânsito e - pelo menos, em princípio - provavelmente seriam objeto do consentimento de todas as partes envolvidas. Embora a proteção de dados no caso de veículos conectados sirva para aumentar a segurança do veículo, os interesses comerciais podem ser preponderantes no que tange ao acúmulo de dados em outras áreas. Isso não é problemático em si, desde que a transação seja baseada no consentimento de ambas as partes. No entanto, a realização objetiva do princípio do consentimento pode ser dependente do ambiente socioeconômico, que precisa ser abordado no nível regulatório ou por meio de padrões autorregulatórios para todo o setor (<xref ref-type="bibr" rid="B58">PAGALLO <italic>et. al,</italic> 2019</xref>).</p>
                <p>De grande importância neste contexto é o princípio do consentimento informado, que foi integrado em muitos <italic>frameworks</italic> que lidam com IA (<xref ref-type="bibr" rid="B25">FUTURE OF LIFE INSTITUTE, 2017</xref>). A noção de consentimento informado implica que “medidas devem ser tomadas para garantir que os interessados nos sistemas de IA tenham consentimento informado suficiente sobre o impacto do sistema sobre seus direitos e interesses” (<xref ref-type="bibr" rid="B06">BAAI, 2019</xref>). Ao mesmo tempo, uma quantidade excessiva de dados no local errado pode levar a um resultado prejudicial, não pretendido pelos tomadores de decisões corporativas. A proporção de judeus mortos na Holanda durante o Holocausto foi relativamente alta porque a Câmara Municipal de Amsterdã realizou um censo populacional detalhado, que registrou estatisticamente a religião dos habitantes. O acesso a esses dados permitiu que a Gestapo alemã transferisse cidadãos judeus para campos de concentração (<xref ref-type="bibr" rid="B68">STELTZER, 1998</xref>). Para mitigar futuras violações dos direitos humanos, as empresas devem respeitar o princípio da minimização de dados, que consiste em não coletar mais informações pessoais do que as necessárias para uma finalidade específica<xref ref-type="fn" rid="fn09">9</xref>. Esse princípio pode ser integrado com o princípio da responsabilidade previdente <italic>(foresighted responsibility)</italic> (<xref ref-type="bibr" rid="B20">DATEN ETHIK KOMMISSION, 2019</xref>), que significa que as empresas precisam levar em consideração os efeitos de rede e as constantes mudanças nos arranjos entre atores. Desse modo, a devida diligência de uma empresa suscita questões relacionadas não apenas à origem dos dados, mas também ao seu destino final e a casos de uso futuros.</p>
                <p>A cooperação com as autoridades públicas, mediante o fornecimento ou recebimento de dados, representa talvez o desafio mais importante para as empresas no âmbito das violações de direitos humanos relacionadas ao <italic>input</italic> de dados. O principal motivo é que a relação entre o receptor e o provedor de dados é assimétrica e que o direito à privacidade pode ser derrogado no caso de conflitos de normas (<xref ref-type="bibr" rid="B61">REIGADA, 2012</xref>). O uso de dados pela polícia ou por unidades de investigação, por exemplo, requer o equilíbrio do direito à privacidade com o interesse do público em geral na investigação de infrações penais ou administrativas. No entanto, nem todos os fins justificam meios específicos, já que o uso de tais <italic>inputs</italic> de dados para crimes “menores”, como consumo de drogas, evasão fiscal ou trabalho não declarado, tornaria obsoleta a noção de privacidade como um direito de defesa face ao Estado. O uso de tecnologias de vigilância pela China na província de Xinjiang aponta para o uso indevido de dados por autoridades estatais (<xref ref-type="bibr" rid="B74">UHRP, 2018</xref>). A orientação para o princípio da proporcionalidade e a aplicação estrita da necessidade podem, portanto, fornecer uma base importante para garantir a aplicação lícita da Inteligência Artificial, conduzindo às seguintes regras gerais para regular e autorregular o <italic>input</italic> de dados na IA:</p>
                <list list-type="bullet">
                    <list-item>
                        <p>A transferência de dados pelas empresas deve estar alinhado com o consentimento das partes envolvidas e deve considerar a alteração das constelações de atores.</p>
                    </list-item>
                    <list-item>
                        <p>Os dados só podem ser usados por soluções de IA com o consentimento das partes envolvidas, de modo a reduzir o dano a terceiros (aplicação do princípio do dano).</p>
                    </list-item>
                    <list-item>
                        <p>A invasividade da solução de IA deve ser proporcional aos seus objetivos. O acesso ao <italic>input</italic> de dados deve se dar da maneira menos invasiva possível.</p>
                    </list-item>
                </list>
                <p>Tal perspectiva é importante para as empresas, visto que podem interagir com entidades públicas em infraestruturas críticas como vigilância, formação de perfis ou reconhecimento facial. A aplicação iBorderCTRL, que verifica a confiabilidade dos passageiros de voos em aeroportos europeus, pode ser um exemplo da cooperação entre entidades públicas e empresas de desenvolvimento de IA envolvendo dados pessoais críticos. Devido à proximidade com tópicos sensíveis aos direitos humanos, as empresas que operam em tais ambientes precisam estar atentas a possíveis violações aos direitos humanos e desenvolver seus próprios códigos de conduta em termos de uso de dados. Para avaliar a probabilidade de conflitos com os direitos humanos, podem ser traçados paralelos com outras ferramentas avançadas de investigação, como perfis de DNA (<xref ref-type="bibr" rid="B66">SIMONCELLI e WALLACE, 2006</xref>), o estabelecimento de bancos de dados de DNA (<xref ref-type="bibr" rid="B78">WALLACE, 2006</xref>; <xref ref-type="bibr" rid="B77">WALLACE et. al, 2014</xref>) ou o uso de polígrafos pelos órgãos responsáveis pela aplicação da lei, que são parcialmente percebidos como violações excessivas e desproporcionais da privacidade se usados ​​contra ou sem o consentimento ou conhecimento do suspeito (<xref ref-type="bibr" rid="B35">JOHNSTON, 2016</xref>).</p>
                <p>A aplicação de IA em sistemas judiciais também é altamente crítica. Um limite dos instrumentos de interrogatório seria o princípio jurídico do <italic>nemo tenetur se ipsum accusare</italic>, segundo o qual ninguém pode ser forçado a acusar a si mesmo. O estatuto jurídico do chamado direito ao silêncio foi consagrado na Convenção Europeia dos Direitos do Homem (Artigo 6) e é relevante no direito processual penal de muitos países. De acordo com algumas jurisdições (<xref ref-type="bibr" rid="B72">Tribunal Federal de Justiça da Alemanha, 1954</xref>), o uso de polígrafos seria até qualificado como uma violação absoluta dos direitos humanos, indicando que o uso de tecnologias de IA para detectar a confiabilidade de uma pessoa (<xref ref-type="bibr" rid="B73">Tribunal Federal de Justiça, 2003</xref>), ao usar dados muito pessoais, enfrenta grandes barreiras. A comparação entre os efeitos da IA e técnicas mais convencionais pode ser relevante nesse ponto, uma vez que a IA não constitui uma novidade absoluta em termos de invasividade e considerando que comparações semelhantes entre tecnologias convencionais e modernas já foram feitas no contexto da regulação da guerra cibernética. Nessas situações, as empresas podem não apenas fazer referência à legislação nacional, mas também vincularem-se aos direitos humanos reconhecidos internacionalmente, devido à criticidade do <italic>input</italic> de dados utilizado.</p>
            </sec>
            <sec>
                <title>B. SITUAÇÃO II: O RESULTADO <italic>(OUTPUT)</italic> DA IA CONDUZ A VIOLAÇÕES INVOLUNTÁRIAS DOS DIREITOS HUMANOS</title>
                <p>Nesta seção, fazemos referência aos abusos de direitos humanos originados do desalinhamento entre os objetivos da máquina e a sua implementação (<xref ref-type="bibr" rid="B24">FLORIDI et. al., 2018</xref>). Como ocorre com toda tecnologia, consequências indesejadas para uma tecnologia específica podem ter resultados devastadores. O exemplo do <italic>chatbot</italic> da Microsoft, Tay, expõe as consequências potenciais das falhas de <italic>design</italic>. Originalmente projetado para imitar os padrões de linguagem de uma garota americana de 19 anos, o robô de bate-papo acabou elogiando Hitler e incitando o ódio (<xref ref-type="bibr" rid="B33">HUNT, 2016</xref>). Ademais, exemplos de erros resultantes de programação ou treinamento incorreto de IA que afetam os direitos humanos variam de riscos de segurança em veículos autônomos a problemas de discriminação em <italic>softwares</italic> de recrutamento de trabalhadores. Muitos destes casos podem constituir violações não intencionais dos direitos fundamentais, mas antes falhas técnicas ou atos de negligência. Nesse sentido, os vieses <italic>(biases)</italic> podem constituir uma nova forma de violação dos direitos humanos, em que o perpetrador não tem interesse em violar os direitos humanos. Os impactos dessas falhas, vieses e erros sobre os direitos humanos, entretanto, não devem ser subestimados. <xref ref-type="bibr" rid="B03">Angwin <italic>et al</italic>. (2016)</xref>, por exemplo, descobriram que as soluções de IA operadas pela polícia discriminam pessoas negras, enquanto a Amazon deixou de utilizar uma solução de IA que era tendenciosa contra mulheres em candidaturas a empregos de natureza técnica. <xref ref-type="bibr" rid="B49">Obermeyer et al. (2019)</xref> apontaram que o sistema de saúde dos EUA confiava em um algoritmo para orientar as decisões de saúde que foi afetado por um viés, levando à discriminação contra americanos negros.</p>
                <p>Vieses que resultam na discriminação ilícita de indivíduos são os exemplos mais representativos de violações involuntárias dos direitos humanos. As razões pela discriminação acidental por soluções de IA variam, mas uma das principais fontes de falhas e violações de direitos humanos desse tipo é que a IA frequentemente é incapaz de diferenciar causalidade de correlação. Além disso, os problemas relativos à discriminação por IA muitas vezes se relacionam à forma como a “variável alvo” <italic>(target variable)</italic> e os “rótulos de classe” <italic>(class labels)</italic> são calibrados, como os dados de treinamento são rotulados e coletados e à seleção de recursos e <italic>proxies</italic>. Diferentemente de outras situações em que a IA e os direitos humanos entram em conflito, neste caso há a vantagem de que as empresas já começam a entrar no radar da lei, pois a maior parte dos países proíbe a discriminação com base em fatores como gênero e religião. Juridicamente, os arcabouços normativos voltados a combater a discriminação também consideram casos de discriminação não intencional, de modo que a maior parte das leis também se aplica ao uso de IA. O uso de IA em circunstâncias em que algumas formas de discriminação não são explicitamente proibidas pode exigir mudanças legais e códigos de conduta voluntários adaptados ao uso de IA (<xref ref-type="bibr" rid="B12">BORGESIUS, 2018</xref>). Com efeito, alguns códigos e diretrizes no campo da inteligência artificial, como os Princípios de Asilomar, já colocaram em foco a questão da não-discriminação. Como a inteligência artificial pode ter um grande impacto sobre a vida e sobre a propriedade, processos aptos a prevenir o viés e identificar problemas éticos tempestivamente desempenham um papel essencial. A mitigação de preconceitos, portanto, endereça o risco de causar ou contribuir para abusos graves de direitos humanos como uma questão de <italic>compliance</italic> jurídico.<xref ref-type="fn" rid="fn10">10</xref></p>
                <p>A consequência para as empresas é que, no que tange à qualidade dos produtos de IA, as questões relacionadas aos consumidores e os direitos humanos precisam ser compreendidos de maneira interconectada; daí resulta que a simples probabilidade de que as decisões de IA sejam melhores do que as humanas não é suficiente para a implementação de IA compatível com os direitos humanos. Do ponto de vista regulatório, as soluções que tratam da aplicação de padrões mínimos precisam ser compatíveis com a estrutura de incentivos existente, já que os apelos morais nem sempre são fortes o suficiente para dissuadir as empresas de violar as normas. O verdadeiro problema por trás do uso de IA, portanto, pode ser a ausência de padrões de qualidade ou a negligência por parte do produtor. Do ponto de vista da ética empresarial, o precedente relevante seria o caso Ford Pinto da década de 1970. Nesse caso particular, a Ford deu prioridade à maximização de lucros sobre a segurança do produto e evitou investimentos adicionais em segurança, aceitando uma taxa de mortalidade mais elevada (<xref ref-type="bibr" rid="B69">STROBEL, 1980</xref>).</p>
                <p>Para além dos padrões de qualidade relativos aos impactos sobre os direitos humanos e das estruturas contra a discriminação, a transparência desempenha papel importante para evitar que o <italic>output</italic> conduza a violações relevância de “processos transparentes de devida diligência em direitos humanos, que envolvam a identificação dos riscos aos direitos humanos associados aos seus sistemas de IA e a adoção de medidas eficazes para prevenir e/ou mitigar os danos causados ​​por tais sistemas” (<xref ref-type="bibr" rid="B16">CONSELHO DA EUROPA, 2019</xref>). Esse raciocínio se estende à atuação de empresas privadas, que tratam de serviços de interesse relevante para as partes envolvidas, como, por exemplo, no setor de saúde. Mecanismos para fornecer mais transparência podem incluir relatórios de sustentabilidade, que já tratam dos impactos sobre os direitos humanos. A título de exemplo, as empresas podem relatar os critérios usados ​​nos algoritmos dos mecanismos de candidatura a empregos e descrever os processos usados para reduzir os riscos de viés.</p>
                <p>Transparência sobre a abordagem da gestão da IA, explicações quanto às soluções de IA e seus impactos potenciais sobre os direitos humanos, bem como os mecanismos de remediação, desempenham papeis centrais para garantir que a IA esteja em conformidade com os direitos humanos. A intensidade dos mecanismos de <italic>enforcement</italic> desses princípios, na forma de regras de licenciamento e de auditoria, deve depender do impacto da solução de IA e de sua relevância para os direitos humanos.</p>
            </sec>
            <sec>
                <title>C. SITUAÇÃO III: O USO DE IA EM ÁREAS ESPECÍFICAS CONFLITA COM OS DIREITOS HUMANOS</title>
                <p>Nas seções anteriores, discutimos os impactos da IA sobre os direitos humanos a partir de uma perspectiva de pretensões <italic>(claims)</italic>. No entanto, uma perspectiva holística sobre o tema requer a inclusão de direitos que possibilitem a participação no processo de tomada de decisões políticas e sociais. A participação política do cidadão se expressa classicamente no direito de voto e no direito de expressar sua opinião. Ambos os conceitos podem estar ligados à noção de “participação democrática”, que foi prevista como um princípio orientador da regulação de IA pela Declaração de Montreal para o Desenvolvimento Responsável da Inteligência Artificial (<xref ref-type="bibr" rid="B04">ARTIFICIAL INTELLIGENCE CLUSTER STEERING COMMITTEE QUEBEC, 2019</xref>),  e ao “princípio da autonomia”, previsto nos Princípios de Asilomar sobre IA. A fim de ilustrar a importância de áreas específicas para a discussão sobre violações de direitos humanos, particularmente no que tange a direitos de participação, será dado foco ao comportamento das empresas de IA no que se refere à liberdade de expressão, por se tratar da área mais contestada da ética em IA. Sua relevância foi destacada pelo Relatório da ONU “Promoção e proteção do direito à liberdade de opinião e expressão”, que abordou o impacto da IA sobre a liberdade de expressão e opinião e destacou o papel da Internet como plataforma para formar e articular opiniões (<xref ref-type="bibr" rid="B37">KAYE, 2017</xref>).</p>
                <p>Em geral, a influência da IA sobre a liberdade de opinião e expressão parece ter duas implicações para os tomadores de decisões corporativas. Por um lado, os vieses criados pela IA podem impactar a autodeterminação e a autonomia dos indivíduos para formar e desenvolver opiniões pessoais com base em informações factuais e variadas (<xref ref-type="bibr" rid="B07">BALKIN, 2018</xref>; <xref ref-type="bibr" rid="B14">BRKAN, 2019</xref>). Os impactos da IA podem ser particularmente fortes, se considerarmos o papel importante que as teorias do discurso atribuem ao pressuposto de que nenhum argumento relevante deve ser suprimido ou excluído pelos participantes (<xref ref-type="bibr" rid="B29">HABERMAS, 1992</xref>). Como resultado, a filtragem pela IA poderia alterar o rumo do discurso e suprimir partes do espectro de opinião. A Declaração de Montreal argumentou, portanto, que salvaguardar a “democracia contra a manipulação de informações para fins políticos” constitui um dos maiores desafios éticos para os tomadores de decisão, o que implica que as empresas precisam “prevenir e mitigar” os efeitos negativos sobre o discurso por meio de avaliações de risco e da adoção de padrões de qualidade<xref ref-type="fn" rid="fn11">11</xref>.</p>
                <p>Por outro lado, o uso de IA para censurar comentários políticos específicos permanece altamente problemático. O debate atual gira em torno da questão de saber se a IA deve limitar o discurso de ódio (<xref ref-type="bibr" rid="B09">BBC, 2018</xref>).  A primeira questão diz respeito ao aspecto da viabilidade técnica. A IA ainda não parece ser capaz de distinguir entre comentários apropriados e discurso de ódio. As linhas que separam expressões de opinião “ainda permitidas” e comentários de ódio podem ser difíceis de distinguir e dependentes do contexto: as soluções de IA requerem uma compreensão da ironia e de expressões específicas de determinado ambiente e cultura, tornando a padronização de decisões de casos individuais uma tarefa muito árida. A segunda questão é de natureza mais teórica. A transferência da censura de comentários para as empresas pode ser questionável não apenas em termos de liberdade de opinião, mas também quando se considera o princípio do Estado de Direito, uma vez que decisões anteriormente tomadas pelo Poder Judiciário são substituídas por algoritmos empregados por empresas privadas (<xref ref-type="bibr" rid="B40">LA RUE, 2011</xref>). Nessas circunstâncias, torna-se, portanto, imprescindível que as empresas e, especialmente, as redes sociais estabeleçam mecanismos de reparação que permitam aos indivíduos se protegerem em casos de injustiça. Ademais, o Relatório da ONU sobre a promoção e proteção do direito à liberdade de opinião e expressão referiu-se à responsabilidade das empresas de “publicar dados sobre remoções de conteúdo, [...] juntamente com estudos de caso e educação sobre formação de perfis comerciais e políticos” (<xref ref-type="bibr" rid="B37">KAYE, 2017</xref>). Devido ao fato de que o uso excessivo e a subutilização (<xref ref-type="bibr" rid="B24">FLORIDI et. al.,  2018</xref>) de mecanismos de censura de comentários nas mídias sociais podem ser igualmente prejudiciais aos direitos humanos, as empresas podem ser obrigadas a enfatizar aspectos procedimentais, como a transparência perante terceiros, avaliações de risco e padrões operacionais, em maior extensão do que em outros casos de IA.</p>
            </sec>
            <sec>
                <title>D. SITUAÇÃO IV: UM VIOLADOR DOS DIREITOS HUMANOS USA IA</title>
                <p>Na seção final, lidamos com o caso de uso mais problemático, ou seja, o uso de IA para infringir direitos humanos. Esta forma de uso de IA é normalmente chamada de “IA maliciosa” e a regulamentação de IA tem dedicado grande atenção a esse aspecto, que pode até mesmo ser considerado o seu princípio mais antigo<xref ref-type="fn" rid="fn12">12</xref>. A diferença com relação aos casos anteriormente citados está na intenção de usar a IA como instrumento de violação de direitos humanos. Nesse sentido, a violação dos direitos humanos não é uma externalidade ou um ato de negligência, mas sim o objetivo da solução de IA.</p>
                <p>Possíveis cenários desse tipo incluiriam o uso de algoritmos para discriminar membros de sindicatos em processos automatizados de remuneração e promoção, ou programas que - deliberadamente - favorecem certos grupos étnicos na distribuição de serviços sociais. Ambos os casos constituem atos de discriminação e retratam violações graves do direito ao tratamento igual e justo. Embora o Poder Legislativo possa estabelecer disposições legais e mecanismos de triagem para prevenir violações de direitos humanos sob sua jurisdição, violações de direitos humanos planejadas fora de seu escopo são muito mais difíceis de prevenir.</p>
                <p>Desenvolvimentos recentes em alguns países geram preocupações de que a combinação de IA com <italic>big data</italic> possa fortalecer os mecanismos de vigilância de Estados que vivem à margem das leis internacionais, ou organizações terroristas . Um exemplo que ressalta a relevância prática da não maleficência é a repressão do governo chinês às minorias étnicas. Recentemente, a vigilância governamental se expandiu e foi combinada com o uso de IA para acessar bancos de dados de material biológico e genético, com vínculo com sistemas de reconhecimento facial (<xref ref-type="bibr" rid="B74">UHRP, 2018</xref>). As medidas do governo chinês também levantam questões relativas à legitimidade, uma vez que alguns desses aplicativos parecem ser usados ​​em conexão com medidas de repressão a parcelas da oposição chinesa ou a minorias nacionais (<xref ref-type="bibr" rid="B38">KUO, 2019</xref>). De acordo com um relatório do New York Times em 2019 (<xref ref-type="bibr" rid="B45">MOZUR, 2019</xref>), <italic>startups</italic> chinesas criaram algoritmos para monitorar muçulmanos étnicos na província chinesa de Xinjiang, o que gerou críticas de várias ONGs e também de governos (<xref ref-type="bibr" rid="B44">MOGHERINI, 2018</xref>) e de organizações internacionais (<xref ref-type="bibr" rid="B57">ONU, 2018</xref>). A existência de sistemas de câmeras com o objetivo de aumentar o controle sobre os cidadãos, combinados com campos de detenção e ferramentas de reconhecimento facial, reforçam a urgência do assunto (<xref ref-type="bibr" rid="B83">ZENZ, 2019</xref>). Os eventos que ocorrem em Xinjiang constituem uma violação dos direitos humanos, uma vez que as intervenções do Estado entram em conflito com as considerações de proporcionalidade e com o uso legítimo do poder do Estado. O fato de os membros de minorias étnicas serem geralmente colocados sob suspeita, as violações ao direito à integridade física e à igualdade de tratamento (como o artigo 18/19/21/29 da Lei de Contraterrorismo da República Popular da China, ou o “Regulamento sobre Desradicalização”) e os pouco exigentes requisitos legais para a detenção de indivíduos parecem confirmar esta opinião (<xref ref-type="bibr" rid="B71">THUM, 2018</xref>).</p>
                <p>Esses casos naturalmente geram repercussões de governança para empresas que fornecem tecnologias para regimes repressivos, porque a IA se qualifica como uma tecnologia de uso dual.</p>
                <p>A natureza de uso dual se aplica explicitamente a <italic>softwares</italic> de reconhecimento facial e de voz, à coleção de dados biológicos e aos bancos de dados de policiamento preditivo. De acordo com Princípios Orientadores da ONU sobre Negócios e Direitos Humanos, as empresas precisam, portanto, considerar como essas tecnologias serão utilizadas pelo usuário final e se precisam estabelecer medidas de devida diligência específicas para o país, de modo a evitar casos de uso indevido. Isso também é importante do ponto de vista de <italic>compliance</italic>, uma vez que as violações de direitos humanos entranhadas na cadeia logística mais ampla de empresas já podem recair sob o escopo de leis com efeitos extraterritoriais, incluindo a Lei de Escravidão Moderna, do Reino Unido, ou a Lei Magnitzky, dos EUA.</p>
                <p>Apesar disso, o caráter de uso dual da IA ​​pode ser útil para que as empresas detectem violações dos direitos humanos. As tecnologias modernas têm apoiado decisivamente o trabalho de jornalistas, ativistas e acadêmicos em suas pesquisas sobre os eventos em andamento em Xinjiang e em outros lugares (<xref ref-type="bibr" rid="B71">THUM, 2018</xref>; <xref ref-type="bibr" rid="B83">ZENZ, 2019</xref>).  Um caso concreto em que a IA teve um impacto positivo sobre os direitos humanos inclui o uso de <italic>blockchain</italic> na cadeia de suprimento de cobalto, para ajudar empresas e governos a avaliar se o material está envolvido em questões de direitos humanos (<xref ref-type="bibr" rid="B70">SULKOWSKI, 2019</xref>). Os relatórios também destacaram o papel da IA na detecção e no combate ao crime financeiro e lavagem de dinheiro, bem como na verificação da existência de sanções (<xref ref-type="bibr" rid="B85">ZIMILES e MUELLER, 2019</xref>).</p>
                <p>Embora o uso de algoritmos e de tecnologias de <italic>blockchain</italic> possa ser central para rastrear violações de direitos humanos no futuro e aumentar a pressão sobre as empresas para cumprir os padrões de direitos humanos ao operarem no exterior, o uso dessas tecnologias pode atingir certas limitações concretas. Os países com maior tamanho econômico e peso político são mais propensos a resistir aos mecanismos de sanção que lhes são impostos e têm mais capacidade para contornar as sanções impostas individualmente. A prevenção efetiva de tais ações é, portanto, não apenas uma questão de legislação específica da IA, mas também uma questão de política externa e de aplicação das normas internacionais de direitos humanos.</p>
            </sec>
        </sec>
        <sec sec-type="conclusions">
            <title>VII. CONCLUSÃO</title>
            <p>Neste artigo, examinamos as responsabilidades dos atores corporativos para a aplicação e concretização dos padrões de direitos humanos no contexto da inteligência artificial. Em geral, descobrimos que o uso de IA - mesmo em decisões de vida ou morte - não entra, em princípio, em conflito com o princípio da autodeterminação moral. No entanto, o tratamento da IA precisa ser baseado em considerações mais amplas de direitos humanos. A aplicação geral da IA em situações irreversíveis e de escolhas difíceis, por exemplo, precisa obedecer a regras universais e abstratas, que podem evoluir a partir de um discurso aberto e democrático.</p>
            <p>Em uma etapa posterior, delineamos os desafios para as empresas em relação às condutas de direitos humanos impostas pela inteligência artificial. De acordo com o critério de beneficência, que decorre da ética de IA, a IA tem como objetivo beneficiar os seres humanos e atingir o bem comum. Esta ideia pode estar ligada à realização progressiva dos direitos humanos, em linha com o Pacto Internacional sobre Direitos Econômicos Sociais e Culturais, bem como com a estrutura dos Objetivos de Desenvolvimento Social da ONU. Encontramos muitos casos que mostram que o uso de IA pode levar à realização dos direitos humanos, especialmente quando se trata de saúde, combate à pobreza e educação, e que as empresas podem desempenhar um papel positivo no oferecimento de soluções de IA que abordem questões relevantes de direitos humanos.</p>
            <p>Em outros contextos, em que as ações das empresas podem entrar em conflito com os direitos humanos, torna-se necessário o estabelecimento de mecanismos de governança quanto aos casos de uso de IA, com vistas a prevenir as violações dos direitos humanos. No caso do <italic>input</italic> de dados, a aplicação de IA geralmente não é problemática, desde que todas as partes envolvidas consintam com as condições de seu uso e desde que o uso esteja em conformidade com os padrões éticos e legais. O princípio do consentimento, entretanto, pode ser questionado, dada a assimetria de poder entre a empresa e o consumidor. Isso se aplica especificamente à interação entre empresas e autoridades públicas. Outra área de potenciais violações dos direitos humanos se encontra nos vieses que levam à discriminação ilícita. Aqui, as empresas precisam aderir a padrões de qualidade e elucidar, com transparência, a tomada de decisões corporativas e os riscos de violações dos direitos humanos que resultam do uso de IA. Além disso, o uso de IA é questionável em alguns casos e ambientes, especialmente quando se trata da participação dos cidadãos ou da transferência de poderes de decisão com consequências impactantes. Para prevenir as violações ao direito de opinião, as empresas precisam desenvolver medidas preventivas e construir uma infraestrutura interna voltada a remediar as violações dos direitos humanos. Por fim, a última questão relacionada à IA e aos direitos humanos diz respeito aos atores que usam a IA para violar os direitos humanos. Em contraste com os mecanismos anteriores de <italic>enforcement</italic>, as vantagens da IA são que os seus resultados são mais confiáveis e mais rápidos. Contudo, o <italic>enforcement</italic> de direitos humanos face a atores estatais representa um grande desafio a empresas que atuam internacionalmente, uma vez que o direito internacional tem progressivamente enfatizado as responsabilidades corporativas.</p>
            <p>Ao avaliar esses aspectos da discussão sobre IA e direitos humanos, constatamos que os tomadores de decisões corporativas são confrontados com desafios complexos, que incluem a transparência, problemas de qualidade de dados e o gerenciamento da cadeia logística. O <italic>input</italic> e o <italic>output</italic> da IA, os usuários e a forma como as tecnologias são utilizadas ensejam possibilidades regulatórias completamente distintas e, portanto, requerem medidas adequadas à situação.</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other" id="fn01">
                <label>1</label>
                <p>Este artigo foi originalmente publicado em inglês na revista <italic>Business and Human Rights Journal</italic>, 5 (janeiro de 2020), pp. 84-104. O texto original está disponível em: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1017/bhj.2019.28">https://doi.org/10.1017/bhj.2019.28</ext-link>.</p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p>Nota da Tradutora: os Princípios de Ruggie, endossados em 2011 pelo Conselho de Direitos Humanos da ONU (Resolução 17/4), estabelecem diretrizes orientadores para Estados e empresas no que tange à proteção de direitos humanos.</p>
            </fn>
            <fn fn-type="other" id="fn06">
                <label>6</label>
                <p>A questão se vincula ao Princípio de Asilomar “Não-subversão e controle humano”.</p>
            </fn>
            <fn fn-type="other" id="fn07">
                <label>7</label>
                <p>O debate também está relacionado ao papel geral dos direitos humanos e das obrigações econômicas correspondentes. Alguns postulam que os direitos humanos se desdobram em obrigações econômicas (por exemplo, <xref ref-type="bibr" rid="B75">Universal Rights Group [2017]</xref>); outros afirmam que os direitos humanos não resultam em uma dimensão econômica ou o fazem em menor grau (<xref ref-type="bibr" rid="B48">NOZICK, 1974</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn08">
                <label>8</label>
                <p>Os Princípios de Ruggie falam explicitamente em 'proteger, respeitar e remediar', o que, em grande parte, confirma a natureza de direitos de defesa ou de pretensões dos direitos humanos.</p>
            </fn>
            <fn fn-type="other" id="fn09">
                <label>9</label>
                <p>Compare com o art. 5º do Regulamento Geral de Proteção de Dados da Europa.</p>
            </fn>
            <fn fn-type="other" id="fn10">
                <label>10</label>
                <p>Veja-se os Princípios Orientadores da ONU sobre Negócios e Direitos Humanos.</p>
                <p>Nota da tradutora: os princípios em questão estabelecem, em seu item 23 (c), que empresas devem tratar como uma questão de <italic>compliance</italic> jurídico o risco de causar ou contribuir para graves abusos de direitos humanos, onde quer que estejam operando.</p>
            </fn>
            <fn fn-type="other" id="fn11">
                <label>11</label>
                <p>Vide os Princípios Orientadores da ONU <italic>(United Nations Guiding Principles on Business and Human Rights)</italic>.</p>
            </fn>
            <fn fn-type="other" id="fn12">
                <label>12</label>
                <p>Veja-se a Lei de Asimov: “Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum dano”.</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>REFERÊNCIAS</title>
            <ref id="B01">

                <mixed-citation>﻿ACEMOGLU, Daron; RESTREPO, Pascual. Artificial Intelligence, Automation and Work. <bold>NBER Working Paper</bold> No. 24196 (2018).</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ACEMOGLU</surname>
                            <given-names>Daron</given-names>
                        </name>
                        <name>
                            <surname>RESTREPO</surname>
                            <given-names>Pascual</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Artificial Intelligence, Automation and Work</chapter-title>
                    <source>NBER Working Paper</source>
                    <issue>24196</issue>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B02">

                <mixed-citation>AMBROSI, Gerhard M. <bold>Aristotle's Geometrical Model of Distributive Justice</bold> (2007). Disponível em: https://www.uni-trier.de/ fileadmin / fb4 / prof / VWL / EWP / Publikationen / Ambrosi / Aristotle-4.pdf . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>AMBROSI</surname>
                            <given-names>Gerhard M.</given-names>
                        </name>
                    </person-group>
                    <source>Aristotle's Geometrical Model of Distributive Justice</source>
                    <year>2007</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.uni-trier.de/ fileadmin / fb4 / prof / VWL / EWP / Publikationen / Ambrosi / Aristotle-4.pdf">https://www.uni-trier.de/ fileadmin / fb4 / prof / VWL / EWP / Publikationen / Ambrosi / Aristotle-4.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B03">

                <mixed-citation>ANGWIN, Julia et al. 'Machine Bias', <bold>ProPublica</bold> (23 de maio de 2016). Disponível em: https://www.propublica.org/article/machine-bias- avaliações de risco em condenações criminais . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ANGWIN</surname>
                            <given-names>Julia</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <comment>Machine Bias</comment>
                    <source>ProPublica</source>
                    <day>23</day>
                    <month>05</month>
                    <year>2016</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.propublica.org/article/machine-bias- avaliações de risco em condenações criminais">https://www.propublica.org/article/machine-bias- avaliações de risco em condenações criminais</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B04">

                <mixed-citation>ARTIFICIAL INTELLIGENCE CLUSTER STEERING COMMITTEE QUEBEC. <bold>Montréal Declaration for Responsible Development of Artificial Intelligence.</bold> Disponível em: https://forumia.quebec/wp-content/uploads/sites/2/2018/12/News-release_Launch_Montreal_Declaration_AI-04_12_18.pdf. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ARTIFICIAL INTELLIGENCE CLUSTER STEERING COMMITTEE QUEBEC</collab>
                    </person-group>
                    <source>Montréal Declaration for Responsible Development of Artificial Intelligence</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://forumia.quebec/wp-content/uploads/sites/2/2018/12/News-release_Launch_Montreal_Declaration_AI-04_12_18.pdf">https://forumia.quebec/wp-content/uploads/sites/2/2018/12/News-release_Launch_Montreal_Declaration_AI-04_12_18.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B05">

                <mixed-citation>AWAD, Edmond <italic>et al.</italic> The Moral Machine Experiment (2018) 563 <bold>Nature</bold>, 59.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>AWAD</surname>
                            <given-names>Edmond</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>The Moral Machine Experiment</article-title>
                    <year>2018</year>
                    <volume>563</volume>
                    <source>Nature</source>
                    <issue>59</issue>
                </element-citation>
            </ref>
            <ref id="B06">

                <mixed-citation>BAAI - Beijing Academy of Artificial Intelligence. <bold>Beijing AI Principles</bold> (28 de maio de 2019). Disponível em: https://www.baai.ac.cn/news/beijing-ai-principles-en.html . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>BAAI - Beijing Academy of Artificial Intelligence</collab>
                    </person-group>
                    <source>Beijing AI Principles</source>
                    <day>28</day>
                    <month>05</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.baai.ac.cn/news/beijing-ai-principles-en.html">https://www.baai.ac.cn/news/beijing-ai-principles-en.html</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B07">

                <mixed-citation>BALKIN, Jack M. 'Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation', <bold>Yale Law School, Public Law Research Paper No. 615</bold> (2018).</mixed-citation>
                <element-citation publication-type="thesis">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BALKIN</surname>
                            <given-names>Jack M.</given-names>
                        </name>
                    </person-group>
                    <source>Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation</source>
                    <publisher-name>Yale Law School, Public Law Research Paper No. 615</publisher-name>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B08">

                <mixed-citation>BANCO MUNDIAL. <bold>Human Rights and Economics: Tensions and Positive Relationships</bold> (2012). Disponível em: http://siteresources.worldbank.org/PROJECTS/Resources/40940-1331068268558/Report_Development_Fragility_Human_ Rights.pdf . Acesso em 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>BANCO MUNDIAL</collab>
                    </person-group>
                    <source>Human Rights and Economics: Tensions and Positive Relationships</source>
                    <year>2012</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="http://siteresources.worldbank.org/PROJECTS/Resources/40940-1331068268558/Report_Development_Fragility_Human_ Rights.pdf">http://siteresources.worldbank.org/PROJECTS/Resources/40940-1331068268558/Report_Development_Fragility_Human_ Rights.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B09">

                <mixed-citation>BBC. 'Germany Starts Enforcing Hate Speech Law' (1 de janeiro de 2018). <bold>BBC.</bold> Disponível em: https://www.bbc.com/news/technology- 42510868 . Acesso em: 30 de agosto de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>BBC</collab>
                    </person-group>
                    <comment>Germany Starts Enforcing Hate Speech Law</comment>
                    <day>1</day>
                    <month>01</month>
                    <year>2018</year>
                    <source>BBC.</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.bbc.com/news/technology- 42510868">https://www.bbc.com/news/technology- 42510868</ext-link></comment>
                    <date-in-citation content-type="access-date">30 de agosto de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B10">

                <mixed-citation>BENNINTON-CASTRO, Joseph. AI is a Game-Changer in the Fight Against Hunger and Poverty. Here’s Why'. (12 de junho de 2017). <bold>NBC News</bold>. Disponível em: https://www.nbcnews.com/mach/tech/ai-game-changer-fight-against-hunger-poverty-here-s-why- ncna774696 . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BENNINTON-CASTRO</surname>
                            <given-names>Joseph</given-names>
                        </name>
                    </person-group>
                    <comment>AI is a Game-Changer in the Fight Against Hunger and Poverty. Here’s Why</comment>
                    <day>12</day>
                    <month>06</month>
                    <year>2017</year>
                    <source>NBC News</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.nbcnews.com/mach/tech/ai-game-changer-fight-against-hunger-poverty-here-s-why- ncna774696">https://www.nbcnews.com/mach/tech/ai-game-changer-fight-against-hunger-poverty-here-s-why- ncna774696</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B11">

                <mixed-citation>BERLIN, Isaiah. ‘Two Concepts of Liberty’. In: <bold>Four Essays on Liberty</bold>. Oxford: Oxford University Press, 1969.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BERLIN</surname>
                            <given-names>Isaiah</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Two Concepts of Liberty</chapter-title>
                    <source>Four Essays on Liberty</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>1969</year>
                </element-citation>
            </ref>
            <ref id="B12">

                <mixed-citation>BORGESIUS, Frederik Z. <bold>Discrimination, Artificial Intelligence, and Algorithmic Decision-Making</bold>. Conselho da Europa: Estrasburgo (2018). Disponível em: https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73 . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BORGESIUS</surname>
                            <given-names>Frederik Z</given-names>
                        </name>
                    </person-group>
                    <source>Discrimination, Artificial Intelligence, and Algorithmic Decision-Making</source>
                    <publisher-name>Conselho da Europa</publisher-name>
                    <publisher-loc>Estrasburgo</publisher-loc>
                    <year>2018</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73">https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B13">

                <mixed-citation>BRANNON, Jason; JAWORSKI, Peter M. <bold>Markets without Limits: Moral Virtues and Commercial Interests</bold>. Abingdon, UK: Routledge, 2015.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRANNON</surname>
                            <given-names>Jason</given-names>
                        </name>
                        <name>
                            <surname>JAWORSKI</surname>
                            <given-names>Peter M.</given-names>
                        </name>
                    </person-group>
                    <source>Markets without Limits: Moral Virtues and Commercial Interests</source>
                    <publisher-loc>Abingdon, UK</publisher-loc>
                    <publisher-name>Routledge</publisher-name>
                    <year>2015</year>
                </element-citation>
            </ref>
            <ref id="B14">

                <mixed-citation>BRKAN, Maja. <bold>Freedom of Expression and Artificial Intelligence: On Personalization, Disinformation and (Lack of) Horizontal Effect of the Charter</bold> (17 de março de 2019). Disponível em: http://dx.doi.org/10.2139/ssrn.3354180 . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BRKAN</surname>
                            <given-names>Maja</given-names>
                        </name>
                    </person-group>
                    <source>Freedom of Expression and Artificial Intelligence: On Personalization, Disinformation and (Lack of) Horizontal Effect of the Charter</source>
                    <day>17</day>
                    <month>03</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="http://dx.doi.org/10.2139/ssrn.3354180">http://dx.doi.org/10.2139/ssrn.3354180</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B15">

                <mixed-citation>CELLAN-JONES, Rory. Stephen Hawking Warns Artificial Intelligence Could End Mankind’(2 December 2014). <bold>BBC</bold>. Disponível em: https:// www.bbc.com/news/technology-30290540 . Acesso em: 27 November 2019).</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CELLAN-JONES</surname>
                            <given-names>Rory</given-names>
                        </name>
                    </person-group>
                    <comment>Stephen Hawking Warns Artificial Intelligence Could End Mankind’</comment>
                    <day>2</day>
                    <month>12</month>
                    <year>2014</year>
                    <source>BBC</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https:// www.bbc.com/news/technology-30290540">https:// www.bbc.com/news/technology-30290540</ext-link></comment>
                    <date-in-citation content-type="access-date">27 November 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B16">

                <mixed-citation>CONSELHO DA EUROPA. <bold>Unboxing Artificial Intelligence: 10 steps to protect Human Rights.</bold> Disponível em: https://rm.coe.int/ unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco / 1680946e64 p. 18 . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>CONSELHO DA EUROPA</collab>
                    </person-group>
                    <source>Unboxing Artificial Intelligence: 10 steps to protect Human Rights</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://rm.coe.int/ unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco / 1680946e64">https://rm.coe.int/ unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco / 1680946e64</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B17">

                <mixed-citation>COWLS, Josh et al. <bold>Designing AI for Social Good: Seven Essential Factors</bold> (15 May 2019). Disponível em: https://dx.doi.org/10.2139/ssrn.3388669. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COWLS</surname>
                            <given-names>Josh et al.</given-names>
                        </name>
                    </person-group>
                    <source>Designing AI for Social Good: Seven Essential Factors</source>
                    <day>15</day>
                    <month>05</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://dx.doi.org/10.2139/ssrn.3388669">https://dx.doi.org/10.2139/ssrn.3388669</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B18">

                <mixed-citation>COWLS, Josh; FLORIDI, Luciano. <bold>Prolegomena to a White Paper on an Ethical Framework for a Good AI Society</bold> (2019). Disponível em: https://dx.doi.org/10.2139/ssrn.3198732 . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COWLS</surname>
                            <given-names>Josh</given-names>
                        </name>
                        <name>
                            <surname>FLORIDI</surname>
                            <given-names>Luciano</given-names>
                        </name>
                    </person-group>
                    <source>Prolegomena to a White Paper on an Ethical Framework for a Good AI Society</source>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://dx.doi.org/10.2139/ssrn.3198732">https://dx.doi.org/10.2139/ssrn.3198732</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B19">

                <mixed-citation>CRAIG, Paul; DE BRUCA, Grainne. <bold>EU Law - Text, Cases and Materials</bold>. Oxford, UK: Oxford University Press, 2015.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CRAIG</surname>
                            <given-names>Paul</given-names>
                        </name>
                        <name>
                            <surname>DE BRUCA</surname>
                            <given-names>Grainne</given-names>
                        </name>
                    </person-group>
                    <source>EU Law - Text, Cases and Materials</source>
                    <publisher-loc>Oxford, UK</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>2015</year>
                </element-citation>
            </ref>
            <ref id="B20">

                <mixed-citation>DATEN ETHIK KOMMISSION. <bold>Opinion of the Data Ethics Commission</bold> (outubro de 2019). Disponível em: https://www.bmjv.de/SharedDocs/Downloads/DE/Themen/Fokusthemen/Gutachten_DEK_EN.pdf?__blob=publicationFile&amp;v=2. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>DATEN ETHIK KOMMISSION</collab>
                    </person-group>
                    <source>Opinion of the Data Ethics Commission</source>
                    <month>10</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.bmjv.de/SharedDocs/Downloads/DE/Themen/Fokusthemen/Gutachten_DEK_EN.pdf?__blob=publicationFile&amp;v=2">https://www.bmjv.de/SharedDocs/Downloads/DE/Themen/Fokusthemen/Gutachten_DEK_EN.pdf?__blob=publicationFile&amp;v=2</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B21">

                <mixed-citation>DI NUCCI, Ezio, Self-Sacrifice and the Trolley Problem. (2013) 26 <bold>Philosophical Psychology</bold> 5, 662.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DI NUCCI</surname>
                            <given-names>Ezio</given-names>
                        </name>
                    </person-group>
                    <article-title>Self-Sacrifice and the Trolley Problem</article-title>
                    <year>2013</year>
                    <volume>26</volume>
                    <source>Philosophical Psychology</source>
                    <issue>5</issue>
                    <fpage>662</fpage>
                    <lpage>662</lpage>
                </element-citation>
            </ref>
            <ref id="B22">

                <mixed-citation>ERLC - The Ethics and Religious Liberty Commission of the Southern Baptist Convention. <bold>Artificial Intelligence: An Evangelical Statement of Principles</bold> (2019), https://erlc.com/resource-library/statements/artificial-intelligence-an-evangelical-statement-of-principles/ (acessado em 27 de novembro de 2019).</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ERLC - The Ethics and Religious Liberty Commission of the Southern Baptist Convention</collab>
                    </person-group>
                    <source>Artificial Intelligence: An Evangelical Statement of Principles</source>
                    <year>2019</year>
                    <ext-link ext-link-type="uri" xlink:href="https://erlc.com/resource-library/statements/artificial-intelligence-an-evangelical-statement-of-principles/">https://erlc.com/resource-library/statements/artificial-intelligence-an-evangelical-statement-of-principles/</ext-link>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B23">

                <mixed-citation>ETZIONI, Amitai 'Are New Technologies the Enemy of Privacy?' (2007) 20 <bold>Knowledge, Technology, and Policy</bold> 115.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ETZIONI</surname>
                            <given-names>Amitai</given-names>
                        </name>
                    </person-group>
                    <article-title>Are New Technologies the Enemy of Privacy?</article-title>
                    <year>2007</year>
                    <source>20</source>
                    <publisher-name>Knowledge, Technology, and Policy</publisher-name>
                    <volume>115</volume>
                </element-citation>
            </ref>
            <ref id="B24">

                <mixed-citation>FLORIDI, Luciano <italic>et al</italic>. AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations (2018). 28 <bold>Minds &amp; Machines</bold> 4, 689</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FLORIDI</surname>
                            <given-names>Luciano</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations</article-title>
                    <year>2018</year>
                    <source>28 <bold>Minds &amp; Machines</bold></source>
                    <volume>4</volume>
                    <fpage>689</fpage>
                    <lpage>701</lpage>
                </element-citation>
            </ref>
            <ref id="B25">

                <mixed-citation>FUTURE OF LIFE INSTITUTE. <bold>Asilomar AI Principles</bold> (2017). Disponível em: https://futureoflife.org/ai-principles/ . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>FUTURE OF LIFE INSTITUTE</collab>
                    </person-group>
                    <source>Asilomar AI Principles</source>
                    <year>2017</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://futureoflife.org/ai-principles/">https://futureoflife.org/ai-principles/</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B26">

                <mixed-citation>GARDBAUM, Stephen. Human Rights as International Constitutional Rights (2008). 19 <bold>European Journal of International Law</bold> 4, 749.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GARDBAUM</surname>
                            <given-names>Stephen</given-names>
                        </name>
                    </person-group>
                    <article-title>Human Rights as International Constitutional Rights</article-title>
                    <year>2008</year>
                    <source>European Journal of International Law</source>
                    <volume>4</volume>
                    <fpage>749</fpage>
                    <lpage>749</lpage>
                </element-citation>
            </ref>
            <ref id="B27">

                <mixed-citation>DEUTSCHER BUNDESTAG. Documento 19/5544 do parlamento alemão (novembro de 2018). Disponível em: https://dserver.bundestag.de/btd/19/055/1905544.pdf. Acesso em: novembro de 2021.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>DEUTSCHER BUNDESTAG</collab>
                    </person-group>
                    <source>Documento 19/5544 do parlamento alemão (novembro de 2018)</source>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://dserver.bundestag.de/btd/19/055/1905544.pdf">https://dserver.bundestag.de/btd/19/055/1905544.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">novembro de 2021</date-in-citation>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B28">

                <mixed-citation>GOODALL, Noah J, 'Machine Ethics and Automated Vehicles', In: Gereon Meyer and Sven Beiker (eds.), <bold>Road Vehicle Automation</bold> (Springer, 2014), 93</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GOODALL</surname>
                            <given-names>Noah J</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Machine Ethics and Automated Vehicles</chapter-title>
                    <person-group person-group-type="editor">
                        <name>
                            <surname>Meyer</surname>
                            <given-names>Gereon</given-names>
                        </name>
                        <name>
                            <surname>Beiker</surname>
                            <given-names>Sven</given-names>
                        </name>
                    </person-group>
                    <source>Road Vehicle Automation</source>
                    <comment>Springer</comment>
                    <year>2014</year>
                    <fpage>93</fpage>
                    <lpage>107</lpage>
                </element-citation>
            </ref>
            <ref id="B29">

                <mixed-citation>HABERMAS, Juergen, <bold>The Theory of Communicative Action</bold>. Boston, MA: Beacon Press, 1992.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HABERMAS</surname>
                            <given-names>Juergen</given-names>
                        </name>
                    </person-group>
                    <source>The Theory of Communicative Action</source>
                    <publisher-loc>Boston, MA</publisher-loc>
                    <publisher-name>Beacon Press</publisher-name>
                    <year>1992</year>
                </element-citation>
            </ref>
            <ref id="B30">

                <mixed-citation>HARBO, Tor-Inge, 'The Function of the Proportionality Principle in EU Law' (2010) 16 <bold>European Law Journal</bold> 2, 158;</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HARBO</surname>
                            <given-names>Tor-Inge</given-names>
                        </name>
                    </person-group>
                    <article-title>The Function of the Proportionality Principle in EU Law</article-title>
                    <year>2010</year>
                    <source>European Law Journal</source>
                    <volume>2</volume>
                    <fpage>158</fpage>
                    <lpage>158</lpage>
                </element-citation>
            </ref>
            <ref id="B31">

                <mixed-citation>HLEG - High Level Expert Group on Artificial Intelligence, ‘<bold>Ethics Guidelines for Trustworthy AI</bold>’ (8 April 2019). Disponível em: https:// ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419 . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>HLEG - High Level Expert Group on Artificial Intelligence</collab>
                    </person-group>
                    <source>Ethics Guidelines for Trustworthy AI</source>
                    <day>8</day>
                    <month>04</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https:// ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419">https:// ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B32">

                <mixed-citation>HOHFELD, Wesley. Fundamental Legal Conceptions as Applied in Judicial Reasoning (1917). 26 <bold>Yale Law Journal</bold> 8, 710</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HOHFELD</surname>
                            <given-names>Wesley</given-names>
                        </name>
                    </person-group>
                    <article-title>Fundamental Legal Conceptions as Applied in Judicial Reasoning</article-title>
                    <year>1917</year>
                    <volume>26</volume>
                    <source>Yale Law Journal</source>
                    <issue>8</issue>
                    <fpage>710</fpage>
                    <lpage>716</lpage>
                </element-citation>
            </ref>
            <ref id="B33">

                <mixed-citation>HUNT, Elle. 'Tay, Microsoft's AI Chatbot, Gets a Crash Course in Racism from Twitter', <bold>The Guardian</bold> (24 de março de 2016), https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism- do twitter (acessado em 27 de novembro de 2019).</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>HUNT</surname>
                            <given-names>Elle</given-names>
                        </name>
                    </person-group>
                    <comment>Tay, Microsoft's AI Chatbot, Gets a Crash Course in Racism from Twitter</comment>
                    <source>The Guardian</source>
                    <day>24</day>
                    <month>03</month>
                    <year>2016</year>
                    <ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism- do twitter">https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism- do twitter</ext-link>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B34">

                <mixed-citation>JÄGERS, Nicola, <bold>Corporate Human Rights Obligations</bold> (Cambridge: Intersentia, 2002).</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>JÄGERS</surname>
                            <given-names>Nicola</given-names>
                        </name>
                    </person-group>
                    <source>Corporate Human Rights Obligations</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Intersentia</publisher-name>
                    <year>2002</year>
                </element-citation>
            </ref>
            <ref id="B35">

                <mixed-citation>JOHNSTON, Ed. 'Brain Scanning and Lie Detectors: The Implications for Fundamental Defense Rights' (2016) 22 <bold>European Journal of Current Legal Issues</bold> 2</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>JOHNSTON</surname>
                            <given-names>Ed.</given-names>
                        </name>
                    </person-group>
                    <article-title>Brain Scanning and Lie Detectors: The Implications for Fundamental Defense Rights</article-title>
                    <year>2016</year>
                    <source>22</source>
                    <volume>European Journal of Current Legal Issues</volume>
                    <issue>2</issue>
                </element-citation>
            </ref>
            <ref id="B36">

                <mixed-citation>KANT, Immanuel <bold>Groundwork of the Metaphysics of Morals</bold>. Cambridge: Cambridge University Press, 1998.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KANT</surname>
                            <given-names>Immanuel</given-names>
                        </name>
                    </person-group>
                    <source>Groundwork of the Metaphysics of Morals</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Cambridge University Press</publisher-name>
                    <year>1998</year>
                </element-citation>
            </ref>
            <ref id="B37">

                <mixed-citation>KAYE, David, ‘<bold>Mandate of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression’, Open Letter to Office of the High Commissioner for Human Rights</bold> (1 June 2017). Disponível em: &lt;https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf&gt; . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KAYE</surname>
                            <given-names>David</given-names>
                        </name>
                    </person-group>
                    <source>Mandate of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression</source>
                    <publisher-name>Open Letter to Office of the High Commissioner for Human Rights</publisher-name>
                    <day>1</day>
                    <month>06</month>
                    <year>2017</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf">https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B38">

                <mixed-citation>KUO, Lily, '“If You Enter a Camp, You Never Come Out”: Inside China's War on Islam', <bold>The Guardian</bold> (11 de janeiro de 2019). Disponível em: &lt;https://www.theguardian.com/world/2019/jan/11/if-you-enter-a-camp-you-never-come-out-inside-chinas-war-on-islam&gt;. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KUO</surname>
                            <given-names>Lily</given-names>
                        </name>
                    </person-group>
                    <comment>“If You Enter a Camp, You Never Come Out”: Inside China's War on Islam</comment>
                    <source>The Guardian</source>
                    <day>11</day>
                    <month>01</month>
                    <year>2019</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/world/2019/jan/11/if-you-enter-a-camp-you-never-come-out-inside-chinas-war-on-islam">https://www.theguardian.com/world/2019/jan/11/if-you-enter-a-camp-you-never-come-out-inside-chinas-war-on-islam</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B39">

                <mixed-citation>KUSZLER, Patricia, 'Global Health and the Human Rights Imperative' (2007) 2 <bold>Asian Journal of WTO &amp; International Health Law and Policy</bold> 1, 99.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>KUSZLER</surname>
                            <given-names>Patricia</given-names>
                        </name>
                    </person-group>
                    <year>2007</year>
                    <article-title>Global Health and the Human Rights Imperative</article-title>
                    <source>2 <bold>Asian Journal of WTO &amp; International Health Law and Policy</bold></source>
                    <volume>1</volume>
                    <fpage>99</fpage>
                    <lpage>99</lpage>
                </element-citation>
            </ref>
            <ref id="B40">

                <mixed-citation>LA RUE, Frank. <bold>Relatório do Relator Especial sobre a Promoção e Proteção do Direito à Liberdade de Opinião e Expressão</bold>. Conselho de Direitos Humanos da Assembleia Geral das Nações Unidas (16 de maio de 2011). Disponível em: &lt;https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf&gt; . Acesso em 12 de setembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LA RUE</surname>
                            <given-names>Frank</given-names>
                        </name>
                    </person-group>
                    <source>Relatório do Relator Especial sobre a Promoção e Proteção do Direito à Liberdade de Opinião e Expressão</source>
                    <publisher-name>Conselho de Direitos Humanos da Assembleia Geral das Nações Unidas</publisher-name>
                    <day>16</day>
                    <month>05</month>
                    <year>2011</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf">https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/A.HRC.17.27_en.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">12 de setembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B41">

                <mixed-citation>LESSIG, Lawrence, 'Privacy as Property' (2002). 69 <bold>Social Research</bold> 1, 247.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LESSIG</surname>
                            <given-names>Lawrence</given-names>
                        </name>
                    </person-group>
                    <year>2002</year>
                    <article-title>Privacy as Property</article-title>
                    <source>Social Research</source>
                    <volume>1</volume>
                    <issue>247</issue>
                </element-citation>
            </ref>
            <ref id="B42">

                <mixed-citation>MCCARTHY, John. 'Programs with Common Sense', In: <bold>Proceedings of the Teddington Conference on the Mechanization of Thought Processes</bold> (1959), 75.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MCCARTHY</surname>
                            <given-names>John</given-names>
                        </name>
                    </person-group>
                    <conf-name>Programs with Common Sense</conf-name>
                    <source>Proceedings of the Teddington Conference on the Mechanization of Thought Processes</source>
                    <year>1959</year>
                    <fpage>75</fpage>
                    <lpage>75</lpage>
                </element-citation>
            </ref>
            <ref id="B43">

                <mixed-citation>MILL, John S, <bold>On Liberty.</bold> Londres: Longman, Roberts &amp; Green, 1859.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MILL</surname>
                            <given-names>John S</given-names>
                        </name>
                    </person-group>
                    <source>On Liberty</source>
                    <publisher-loc>Londres</publisher-loc>
                    <publisher-name>Longman, Roberts &amp; Green</publisher-name>
                    <year>1859</year>
                </element-citation>
            </ref>
            <ref id="B44">

                <mixed-citation>MOGHERINI, Federica, <bold>Speech by HR/VP Mogherini at the Plenary Session of the European Parliament on the State of the EU–China Relations</bold> (11 September 2018). Disponível em: &lt;https://eeas.europa.eu/headquarters/headquarters-homepage/50337/ speech-hrvp-mogherini-plenary-session-european-parliament-state-eu-china-relations_en&gt;. Acesso em: 26 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MOGHERINI</surname>
                            <given-names>Federica</given-names>
                        </name>
                    </person-group>
                    <source>Speech by HR/VP Mogherini at the Plenary Session of the European Parliament on the State of the EU–China Relations</source>
                    <day>11</day>
                    <month>09</month>
                    <year>2018</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://eeas.europa.eu/headquarters/headquarters-homepage/50337/ speech-hrvp-mogherini-plenary-session-european-parliament-state-eu-china-relations_en">https://eeas.europa.eu/headquarters/headquarters-homepage/50337/ speech-hrvp-mogherini-plenary-session-european-parliament-state-eu-china-relations_en</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">26 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B45">

                <mixed-citation>MOZUR, Paul, 'One Month, 500,000 Face Scans: How China Is Using AI to Profile a Minority', <bold>New York Times</bold> (14 de abril de 2019). Disponível em: &lt;https://www.nytimes.com/2019/04/14/technology/china-surveillance-artificial-intelligence-racial- &gt;. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MOZUR</surname>
                            <given-names>Paul</given-names>
                        </name>
                    </person-group>
                    <comment>One Month, 500,000 Face Scans: How China Is Using AI to Profile a Minority</comment>
                    <source>New York Times</source>
                    <day>14</day>
                    <month>04</month>
                    <year>2019</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2019/04/14/technology/china-surveillance-artificial-intelligence-racial- &gt;">https://www.nytimes.com/2019/04/14/technology/china-surveillance-artificial-intelligence-racial- &gt;</ext-link> &gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B46">

                <mixed-citation>MUCHLINSKY, Peter, ‘Implementing the New UN Corporate Human Rights Framework. Implications for Corporate Law, Governance, and Regulation’ (2002) 22 <bold>Business Ethics Quarterly</bold> 1, 145–177.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MUCHLINSKY</surname>
                            <given-names>Peter</given-names>
                        </name>
                    </person-group>
                    <article-title>Implementing the New UN Corporate Human Rights Framework. Implications for Corporate Law, Governance, and Regulation</article-title>
                    <year>2002</year>
                    <source>Business Ethics Quarterly</source>
                    <volume>1</volume>
                    <fpage>145</fpage>
                    <lpage>177</lpage>
                </element-citation>
            </ref>
            <ref id="B47">

                <mixed-citation>MUELLER, Julian F, 'The Ethics of Commercial Human Smuggling' (2018) <bold>European Journal of Political Theory,</bold> 1–19.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MUELLER</surname>
                            <given-names>Julian F</given-names>
                        </name>
                    </person-group>
                    <year>2018</year>
                    <article-title>The Ethics of Commercial Human Smuggling</article-title>
                    <source>European Journal of Political Theory</source>
                    <fpage>1</fpage>
                    <lpage>19</lpage>
                </element-citation>
            </ref>
            <ref id="B48">

                <mixed-citation>NOZICK, Robert. Anarchy, State and Utopia (1974).</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>NOZICK</surname>
                            <given-names>Robert</given-names>
                        </name>
                    </person-group>
                    <source>Anarchy, State and Utopia</source>
                    <year>1974</year>
                </element-citation>
            </ref>
            <ref id="B49">

                <mixed-citation>OBERMEYER, Ziad et al. Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations (2019). 366 <bold>Science</bold>, 447–453.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>OBERMEYER</surname>
                            <given-names>Ziad</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations</article-title>
                    <year>2019</year>
                    <volume>366</volume>
                    <source>Science</source>
                    <fpage>447</fpage>
                    <lpage>453</lpage>
                </element-citation>
            </ref>
            <ref id="B50">

                <mixed-citation>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS. Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos. <bold>Pacto Internacional sobre Direitos Econômicos, Sociais e Culturais</bold> (1966). Disponível em: &lt;https://www.ohchr.org/en/professionalinterest/pages/cescr.aspx&gt;. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <source>Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos</source>
                    <publisher-name>Pacto Internacional sobre Direitos Econômicos, Sociais e Culturais</publisher-name>
                    <year>1966</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.ohchr.org/en/professionalinterest/pages/cescr.aspx">https://www.ohchr.org/en/professionalinterest/pages/cescr.aspx</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B51">

                <mixed-citation>______. Comitê contra a Tortura. <bold>‘Concluding Observations on the Fourth Periodic Report of the United Kingdom’,</bold> UN Doc. CAT/C/CR/33/3 (25 November 2004), para 4(a)(i).</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <conf-name>Comitê contra a Tortura</conf-name>
                    <source>‘Concluding Observations on the Fourth Periodic Report of the United Kingdom’</source>
                    <comment>UN Doc. CAT/C/CR/33/3</comment>
                    <conf-date>25 November 2004</conf-date>
                    <year>2004</year>
                    <comment>para 4(a)(i)</comment>
                </element-citation>
            </ref>
            <ref id="B52">

                <mixed-citation>______. Conselho de Direitos Humanos. <bold>Report of the Special Representative of the Secretary-General on the issue of human rights and transnational corporations and other business enterprises, John Ruggie</bold> (2008a). Disponível em: &lt;https: //www.business- humanrights.org/sites/default/files/reports-and-materials/Ruggie-report-7-Apr-2008.pdf&gt; . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <source>Conselho de Direitos Humanos</source>
                    <comment>Report of the Special Representative of the Secretary-General on the issue of human rights and transnational corporations and other business enterprises, John Ruggie</comment>
                    <year>2008a</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https: //www.business- humanrights.org/sites/default/files/reports-and-materials/Ruggie-report-7-Apr-2008.pdf">https: //www.business- humanrights.org/sites/default/files/reports-and-materials/Ruggie-report-7-Apr-2008.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B53">

                <mixed-citation>______. Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos, <bold>The Right to Health. Fact Sheet No. 31</bold> (2008b). Disponível em: &lt;https://www.ohchr.org/ Documentos / Publicações / Factsheet31.pdf&gt; . Acesso em: 15 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <comment>Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos</comment>
                    <source>The Right to Health. Fact Sheet No. 31</source>
                    <year>2008b</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.ohchr.org/ Documentos / Publicações / Factsheet31.pdf">https://www.ohchr.org/ Documentos / Publicações / Factsheet31.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">15 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B54">

                <mixed-citation>______. Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos<bold>. United Nations Guiding Principles on Business and Human Rights: Implementing the United Nations ‘Protect, Respect and Remedy’ Framework</bold> (2011). Disponível em: &lt;https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_en.pdf&gt;. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <source>Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos</source>
                    <publisher-name>United Nations Guiding Principles on Business and Human Rights: Implementing the United Nations ‘Protect, Respect and Remedy’ Framework</publisher-name>
                    <year>2011</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_en.pdf">https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_en.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B55">

                <mixed-citation>______. <bold>Agenda 2030 para o Desenvolvimento Sustentável</bold> (2015). Disponível em: &lt;https://www.un.org/ga/search/view_doc.asp?symbol=A/RES/70/1&amp;Lang=E&gt;. Acesso em: 12 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <source>Agenda 2030 para o Desenvolvimento Sustentável</source>
                    <year>2015</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.un.org/ga/search/view_doc.asp?symbol=A/RES/70/1&amp;Lang=E">https://www.un.org/ga/search/view_doc.asp?symbol=A/RES/70/1&amp;Lang=E</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">12 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B56">

                <mixed-citation>______. ‘Task of eradicating poverty must be met ‘with a sense of urgency’, says deputy UN chief. <bold>UN News Centre</bold> (8 de maio de 2017). Disponível em: &lt;https://www.un.org/sustainabledevelopment/blog/2017/05/task-of-eradicating-poverty-must-be-met-with-a-sense-of-urgency-says-deputy-un-chief/&gt;. Acesso em: 2 de setembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <comment>Task of eradicating poverty must be met ‘with a sense of urgency’, says deputy UN chief</comment>
                    <source>UN News Centre</source>
                    <day>8</day>
                    <month>05</month>
                    <year>2017</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.un.org/sustainabledevelopment/blog/2017/05/task-of-eradicating-poverty-must-be-met-with-a-sense-of-urgency-says-deputy-un-chief/">https://www.un.org/sustainabledevelopment/blog/2017/05/task-of-eradicating-poverty-must-be-met-with-a-sense-of-urgency-says-deputy-un-chief/</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">2 de setembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B57">

                <mixed-citation>______. Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos. <bold>Committee on the Elimination of Racial Discrimination reviews the report of China</bold> (13 de agosto de 2018). Disponível em: &lt;https://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx?NewsID=23452&amp;LangID=E&gt;. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>ONU - ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
                    </person-group>
                    <source>Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos</source>
                    <comment>Committee on the Elimination of Racial Discrimination reviews the report of China</comment>
                    <day>13</day>
                    <month>08</month>
                    <year>2018</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx?NewsID=23452&amp;LangID=E">https://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx?NewsID=23452&amp;LangID=E</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B58">

                <mixed-citation>PAGALLO et al. <bold>On Good AI Governance: 14 Priority Actions, a SMART Model of Governance, and a Regulatory Toolbox</bold> (2019). Disponível em: &lt;https://www.eismd.eu/wp-content/uploads/2019/11/AI4Peoples-Report-on-Good-AI-Governance_compressed.pdf&gt;. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>PAGALLO</collab>
                        <etal/>
                    </person-group>
                    <source>On Good AI Governance: 14 Priority Actions, a SMART Model of Governance, and a Regulatory Toolbox</source>
                    <year>2019</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.eismd.eu/wp-content/uploads/2019/11/AI4Peoples-Report-on-Good-AI-Governance_compressed.pdf">https://www.eismd.eu/wp-content/uploads/2019/11/AI4Peoples-Report-on-Good-AI-Governance_compressed.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B59">

                <mixed-citation>POJMAN, Louis P. <bold>Ethical Theory: Classical and Contemporary Readings</bold>. Belmont, CA: Wadsworth Publishing, 1996.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>POJMAN</surname>
                            <given-names>Louis P.</given-names>
                        </name>
                    </person-group>
                    <source>Ethical Theory: Classical and Contemporary Readings</source>
                    <publisher-loc>Belmont, CA</publisher-loc>
                    <publisher-name>Wadsworth Publishing</publisher-name>
                    <year>1996</year>
                </element-citation>
            </ref>
            <ref id="B60">

                <mixed-citation>RAWLS, John. <bold>A Theory of Justice</bold>. Cambridge: Belknap Press of Harvard University Press, 1971.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RAWLS</surname>
                            <given-names>John</given-names>
                        </name>
                    </person-group>
                    <source>A Theory of Justice</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Belknap Press of Harvard University Press</publisher-name>
                    <year>1971</year>
                </element-citation>
            </ref>
            <ref id="B61">

                <mixed-citation>REIGADA, Antonio T. The Principle of Proportionality and the Fundamental Right to Personal Data Protection: The Biometric Data Processing (2012) 17 <bold>Lex Electronica</bold> 2.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>REIGADA</surname>
                            <given-names>Antonio T.</given-names>
                        </name>
                    </person-group>
                    <article-title>The Principle of Proportionality and the Fundamental Right to Personal Data Protection: The Biometric Data Processing</article-title>
                    <year>2012</year>
                    <source>Lex Electronica</source>
                    <volume>2</volume>
                </element-citation>
            </ref>
            <ref id="B62">

                <mixed-citation>RUGGIE, John Gerard. <bold>Just Business: Multinational Corporations and Human Rights</bold>. New York: WW Norton &amp; Company, 2013.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RUGGIE</surname>
                            <given-names>John Gerard</given-names>
                        </name>
                    </person-group>
                    <source>Just Business: Multinational Corporations and Human Rights</source>
                    <publisher-loc>New York</publisher-loc>
                    <publisher-name>WW Norton &amp; Company</publisher-name>
                    <year>2013</year>
                </element-citation>
            </ref>
            <ref id="B63">

                <mixed-citation>RUSSELL, Stuart et al. Research Priorities for Robust and Beneficial Artificial Intelligence. (2015) 36 <bold>Artificial Intelligence Magazine</bold> 4, 105.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RUSSELL</surname>
                            <given-names>Stuart</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <year>2015</year>
                    <article-title>Research Priorities for Robust and Beneficial Artificial Intelligence</article-title>
                    <source>36</source>
                    <comment>Artificial Intelligence Magazine</comment>
                    <volume>4</volume>
                    <fpage>105</fpage>
                    <lpage>105</lpage>
                </element-citation>
            </ref>
            <ref id="B64">

                <mixed-citation>SANTORO, Michael A. <bold>Profits and Principles: Global Capitalism and Human Rights in China.</bold> Ithaca: Cornell University Press, 2000.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SANTORO</surname>
                            <given-names>Michael A.</given-names>
                        </name>
                    </person-group>
                    <source>Profits and Principles: Global Capitalism and Human Rights in China.</source>
                    <publisher-loc>Ithaca</publisher-loc>
                    <publisher-name>Cornell University Press</publisher-name>
                    <year>2000</year>
                </element-citation>
            </ref>
            <ref id="B65">

                <mixed-citation>SIMMA, Bruno; PULKOWSKI, Dirk, ‘Of Planets and the Universe: Self-Contained Regimes’ (2006) 17 <bold>European Journal of International Law</bold> 3, 483.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SIMMA</surname>
                            <given-names>Bruno</given-names>
                        </name>
                        <name>
                            <surname>PULKOWSKI</surname>
                            <given-names>Dirk</given-names>
                        </name>
                    </person-group>
                    <article-title>Of Planets and the Universe: Self-Contained Regimes</article-title>
                    <year>2006</year>
                    <source>European Journal of International Law</source>
                    <volume>3</volume>
                    <fpage>483</fpage>
                    <lpage>483</lpage>
                </element-citation>
            </ref>
            <ref id="B66">

                <mixed-citation> SIMONCELLI, Tania; WALLACE, Helen, 'Expanding Databases, Declining Liberties' (2006) 19 <bold>Genewatch: A Bulletin of the Committee for Responsible Genetics</bold> 1, 3.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SIMONCELLI</surname>
                            <given-names>Tania</given-names>
                        </name>
                        <name>
                            <surname>WALLACE</surname>
                            <given-names>Helen</given-names>
                        </name>
                    </person-group>
                    <article-title>Expanding Databases, Declining Liberties</article-title>
                    <year>2006</year>
                    <source>Genewatch: A Bulletin of the Committee for Responsible Genetics</source>
                    <volume>1</volume>
                    <issue>3</issue>
                </element-citation>
            </ref>
            <ref id="B67">

                <mixed-citation>SPARKES, Matthey, ‘Top Scientists Call for Caution over Artificial Intelligence’, <bold>The Telegraph</bold> (13 January 2015). Disponível em: &lt;https://www.telegraph.co.uk/technology/news/11342200/Top-scientists-call-for-caution-oer-artificial-intelligence.html&gt;. Acesso em 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SPARKES</surname>
                            <given-names>Matthey</given-names>
                        </name>
                    </person-group>
                    <comment>Top Scientists Call for Caution over Artificial Intelligence</comment>
                    <source>The Telegraph</source>
                    <day>13</day>
                    <month>01</month>
                    <year>2015</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.telegraph.co.uk/technology/news/11342200/Top-scientists-call-for-caution-oer-artificial-intelligence.html">https://www.telegraph.co.uk/technology/news/11342200/Top-scientists-call-for-caution-oer-artificial-intelligence.html</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B68">

                <mixed-citation>STELTZER, William, 'Population Statistics, the Holocaust, and the Nuremberg Trials' (1998) 24 <bold>Population and Development Review</bold> 3, 511–552.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>STELTZER</surname>
                            <given-names>William</given-names>
                        </name>
                    </person-group>
                    <year>1998</year>
                    <article-title>Population Statistics, the Holocaust, and the Nuremberg Trials</article-title>
                    <source>Population and Development Review</source>
                    <volume>3</volume>
                    <fpage>511</fpage>
                    <lpage>552</lpage>
                </element-citation>
            </ref>
            <ref id="B69">

                <mixed-citation>STROBEL, Lee P, <bold>Reckless Homicide? Ford's Pinto Trial.</bold> South Bend and Books, 1980.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>STROBEL</surname>
                            <given-names>Lee P</given-names>
                        </name>
                    </person-group>
                    <source>Reckless Homicide? Ford's Pinto Trial.</source>
                    <publisher-loc>South Bend and Books</publisher-loc>
                    <year>1980</year>
                </element-citation>
            </ref>
            <ref id="B70">

                <mixed-citation>SULKOWSKI, Adam J. 'Blockchain, Business Supply Chains, Sustainability, and Law: The Future of Governance, Legal Frameworks, and Lawyers?' (2019) <bold>43 Delaware Journal of Corporate Law</bold> 2, 303–345.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SULKOWSKI</surname>
                            <given-names>Adam J.</given-names>
                        </name>
                    </person-group>
                    <article-title>Blockchain, Business Supply Chains, Sustainability, and Law: The Future of Governance, Legal Frameworks, and Lawyers?'</article-title>
                    <year>2019</year>
                    <source>43 Delaware Journal of Corporate Law</source>
                    <volume>2</volume>
                    <fpage>303</fpage>
                    <lpage>345</lpage>
                </element-citation>
            </ref>
            <ref id="B71">

                <mixed-citation>THUM, Rian 'China's Mass Internment Camps Have No Clear End in Sight', <bold>Foreign Policy</bold> (22 de agosto de 2018), Disponível em: &lt;https://foreignpolicy.com/2018/08/22/chinas-mass-internment-camps-have-no-clear-end-in-sight/&gt;. Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>THUM</surname>
                            <given-names>Rian</given-names>
                        </name>
                    </person-group>
                    <comment>China's Mass Internment Camps Have No Clear End in Sight</comment>
                    <source>Foreign Policy</source>
                    <day>22</day>
                    <month>08</month>
                    <year>2018</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://foreignpolicy.com/2018/08/22/chinas-mass-internment-camps-have-no-clear-end-in-sight/">https://foreignpolicy.com/2018/08/22/chinas-mass-internment-camps-have-no-clear-end-in-sight/</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B72">

                <mixed-citation>TRIBUNAL FEDERAL DE JUSTIÇA DA ALEMANHA. Decisão 1954 BGH, 16.02.1954-1 StR 578/53</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>TRIBUNAL FEDERAL DE JUSTIÇA DA ALEMANHA</collab>
                    </person-group>
                    <source>Decisão 1954 BGH</source>
                    <day>16</day>
                    <month>02</month>
                    <year>1954</year>
                    <comment>1 StR 578/53</comment>
                </element-citation>
            </ref>
            <ref id="B73">

                <mixed-citation>_____. Decisão 2003 BGH, v. 24.06.2003-VI ZR 327/02.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>TRIBUNAL FEDERAL DE JUSTIÇA DA ALEMANHA</collab>
                    </person-group>
                    <source>Decisão 2003 BGH</source>
                    <volume>24</volume>
                    <issue>06</issue>
                    <year>2003</year>
                    <comment>VI ZR 327/02</comment>
                </element-citation>
            </ref>
            <ref id="B74">

                <mixed-citation>UHRP - Uyghur Human Rights Project. <bold>China's Repression and Internment of Uyghurs: US Policy Responses</bold>. Comitê de Relações Exteriores da Câmara - Subcomitê da Ásia e do Pacífico (26 de setembro de 2018). Disponível em: &lt;https://docs.house.gov/reuniões/FA/FA05/20180926/108718/HHRG-115-FA05-WstateTurkelN-20180926.pdf&gt; . Acesso em 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>UHRP - Uyghur Human Rights Project</collab>
                    </person-group>
                    <source>China's Repression and Internment of Uyghurs: US Policy Responses</source>
                    <publisher-name>Comitê de Relações Exteriores da Câmara - Subcomitê da Ásia e do Pacífico</publisher-name>
                    <day>26</day>
                    <month>09</month>
                    <year>2018</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://docs.house.gov/reuniões/FA/FA05/20180926/108718/HHRG-115-FA05-WstateTurkelN-20180926.pdf">https://docs.house.gov/reuniões/FA/FA05/20180926/108718/HHRG-115-FA05-WstateTurkelN-20180926.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="acess-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B75">

                <mixed-citation>UNIVERSAL RIGHTS GROUP. <bold>Human Rights and the SDGs. Pursuing Synergies</bold> (Dezembro de 2017). Disponível em: &lt;https://www.universal-rights.org/wp-content/uploads/2017/12/RAPPORT_2017_HUMAN-RIGHTS-SDGS-PURSUING-SYNERGIES_03_12_2017_digital_use-2.pdf&gt;. Acesso em: 12 de novembro de 2017.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>UNIVERSAL RIGHTS GROUP</collab>
                    </person-group>
                    <source>Human Rights and the SDGs. Pursuing Synergies</source>
                    <month>12</month>
                    <year>2017</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://www.universal-rights.org/wp-content/uploads/2017/12/RAPPORT_2017_HUMAN-RIGHTS-SDGS-PURSUING-SYNERGIES_03_12_2017_digital_use-2.pdf">https://www.universal-rights.org/wp-content/uploads/2017/12/RAPPORT_2017_HUMAN-RIGHTS-SDGS-PURSUING-SYNERGIES_03_12_2017_digital_use-2.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">12 de novembro de 2017</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B76">

                <mixed-citation>VINUESA, Ricardo et al, 'The Role of Artificial Intelligence in Achieving the Sustainable Development Goals', <bold>arXiv</bold> (2019). Disponível em: &lt;https://arxiv.org/ftp/arxiv/papers/1905/1905.00501.pdf&gt; . Acesso em: 12 de setembro de 2019.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>VINUESA</surname>
                            <given-names>Ricardo</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <comment>The Role of Artificial Intelligence in Achieving the Sustainable Development Goals</comment>
                    <source>arXiv</source>
                    <year>2019</year>
                    <comment>Disponível em: &lt;<ext-link ext-link-type="uri" xlink:href="https://arxiv.org/ftp/arxiv/papers/1905/1905.00501.pdf">https://arxiv.org/ftp/arxiv/papers/1905/1905.00501.pdf</ext-link>&gt;</comment>
                    <date-in-citation content-type="access-date">12 de setembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B77">

                <mixed-citation>WALLACE, H. M. <italic>et al,</italic> 'Forensic DNA Databases - Ethical and Legal Standards: A Global Review' (2014) 4 <bold>Egyptian Journal of Forensic Science</bold> 3, 57.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WALLACE</surname>
                            <given-names>H. M.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Forensic DNA Databases - Ethical and Legal Standards: A Global Review</article-title>
                    <year>2014</year>
                    <source>Egyptian Journal of Forensic Science</source>
                    <volume>3</volume>
                    <issue>57</issue>
                </element-citation>
            </ref>
            <ref id="B78">

                <mixed-citation>WALLACE, Helen, 'The UK National DNA Database: Balancing Crime Detection, Human Rights and Privacy' (2006) 7 <bold>EMBO Reports</bold> 26;</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WALLACE</surname>
                            <given-names>Helen</given-names>
                        </name>
                    </person-group>
                    <article-title>The UK National DNA Database: Balancing Crime Detection, Human Rights and Privacy</article-title>
                    <year>2006</year>
                    <source>EMBO Reports</source>
                    <volume>26</volume>
                </element-citation>
            </ref>
            <ref id="B79">

                <mixed-citation>WALLACH, Wendell; ALLEN, Colin<bold>. Moral Machines: Teaching Robots Right From Wrong</bold>. Oxford: Oxford University Press, 2008.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WALLACH</surname>
                            <given-names>Wendell</given-names>
                        </name>
                        <name>
                            <surname>ALLEN</surname>
                            <given-names>Colin</given-names>
                        </name>
                    </person-group>
                    <source>Moral Machines: Teaching Robots Right From Wrong</source>
                    <publisher-loc>Oxford</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>2008</year>
                </element-citation>
            </ref>
            <ref id="B80">

                <mixed-citation>WEBER, Max. <bold>Politik als Beruf', in: Geistige Arbeit als Beruf. Vier Vorträge vor dem Freistudentischen Bund</bold>. Munique, Alemanha: Duncker &amp; Humblot, 1919.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WEBER</surname>
                            <given-names>Max</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Politik als Beruf</chapter-title>
                    <source>Geistige Arbeit als Beruf. Vier Vorträge vor dem Freistudentischen Bund</source>
                    <publisher-loc>Munique, Alemanha</publisher-loc>
                    <publisher-name>Duncker &amp; Humblot</publisher-name>
                    <year>1919</year>
                </element-citation>
            </ref>
            <ref id="B81">

                <mixed-citation>WETTSTEIN, Florian. <bold>Multinational Corporations and Global Justice</bold>. Bibliovault OAI Repository, the University of Chicago Press, 2009.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WETTSTEIN</surname>
                            <given-names>Florian</given-names>
                        </name>
                    </person-group>
                    <source>Multinational Corporations and Global Justice</source>
                    <publisher-name>Bibliovault OAI Repository, the University of Chicago Press</publisher-name>
                    <year>2009</year>
                </element-citation>
            </ref>
            <ref id="B82">

                <mixed-citation>WOGU, I. A. P. et al. "Artificial intelligence, alienation and ontological problems of other minds: A critical investigation into the future of man and machines," <bold>2017 International Conference on Computing Networking and Informatics (ICCNI),</bold> 2017, pp. 1-10, doi: 10.1109/ICCNI.2017.8123792</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WOGU</surname>
                            <given-names>I. A. P.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <conf-name>Artificial intelligence, alienation and ontological problems of other minds: A critical investigation into the future of man and machines</conf-name>
                    <source>2017 International Conference on Computing Networking and Informatics (ICCNI)</source>
                    <year>2017</year>
                    <fpage>1</fpage>
                    <lpage>10</lpage>
                    <pub-id pub-id-type="doi">10.1109/ICCNI.2017.8123792</pub-id>
                </element-citation>
            </ref>
            <ref id="B83">

                <mixed-citation>ZENZ, Adrian, 'Thoroughly Reforming Them Towards a Healthy Heart Attitude: China's Political Re-Education Campaign in Xinjiang' (2019) 38 <bold>Central Asian Survey</bold> 1, 102.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ZENZ</surname>
                            <given-names>Adrian</given-names>
                        </name>
                    </person-group>
                    <article-title>Thoroughly Reforming Them Towards a Healthy Heart Attitude: China's Political Re-Education Campaign in Xinjiang</article-title>
                    <year>2019</year>
                    <source>Central Asian Survey</source>
                    <volume>1</volume>
                    <fpage>102</fpage>
                    <lpage>102</lpage>
                </element-citation>
            </ref>
            <ref id="B84">

                <mixed-citation>ZERK, J. A. <bold>Multinationals and Corporate Social Responsibility. Limitations and Opportunities in International Law</bold>. Cambridge: Cambridge University Press, 2006.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ZERK</surname>
                            <given-names>J. A.</given-names>
                        </name>
                    </person-group>
                    <source>Multinationals and Corporate Social Responsibility. Limitations and Opportunities in International Law</source>
                    <publisher-loc>Cambridge</publisher-loc>
                    <publisher-name>Cambridge University Press</publisher-name>
                    <year>2006</year>
                </element-citation>
            </ref>
            <ref id="B85">

                <mixed-citation>ZIMILES, Ellen; MUELLER, Tim, 'How AI Is Transforming the Fight against Money Laundering', <bold>Fórum Econômico Mundial</bold> (17 de janeiro de 2019). Disponível em: https://www.weforum.org/agenda/2019/01/how-ai-can-knock-the-starch-out-of-money- lavagem / . Acesso em: 27 de novembro de 2019.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ZIMILES</surname>
                            <given-names>Ellen</given-names>
                        </name>
                        <name>
                            <surname>MUELLER</surname>
                            <given-names>Tim</given-names>
                        </name>
                    </person-group>
                    <chapter-title>How AI Is Transforming the Fight against Money Laundering</chapter-title>
                    <source>Fórum Econômico Mundial</source>

                    <day>17</day>
                    <month>01</month>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.weforum.org/agenda/2019/01/how-ai-can-knock-the-starch-out-of-money- lavagem /">https://www.weforum.org/agenda/2019/01/how-ai-can-knock-the-starch-out-of-money- lavagem /</ext-link></comment>
                    <date-in-citation content-type="access-date">27 de novembro de 2019</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B86">

                <mixed-citation>ZUCCA, Lorenzo. <bold>Constitutional Dilemmas: Conflicts of Fundamental Legal Rights in Europe and the USA</bold>. Oxford, UK: Oxford University Press, 2007.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ZUCCA</surname>
                            <given-names>Lorenzo</given-names>
                        </name>
                    </person-group>
                    <source>Constitutional Dilemmas: Conflicts of Fundamental Legal Rights in Europe and the USA</source>
                    <publisher-loc>Oxford, UK</publisher-loc>
                    <publisher-name>Oxford University Press</publisher-name>
                    <year>2007</year>
                </element-citation>
            </ref>
        </ref-list>
    </back>
</article>
