<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">rdp</journal-id>
            <journal-title-group>
                <journal-title>Revista Direito Público</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Rev. Dir. Publico</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2236-1766</issn>
            <publisher>
                <publisher-name>Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.11117/rdp.v22i115.8749</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>Artigos</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>Responsabilidade civil e “inteligência” artificial. Algumas observações</article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>Civil liability and artificial “intelligence”. Some observations</trans-title>
                </trans-title-group>
                <trans-title-group xml:lang="es">
                    <trans-title>Responsabilidad civil e “inteligencia” artificial. Algunas observaciones</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-4939-8959</contrib-id>
                    <name>
                        <surname>Amato</surname>
                        <given-names>Cláudio</given-names>
                    </name>
                    <role content-type="http://credit.niso.org/contributor-roles/conceptualization">Conceitualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/data-curation">Curadoria de Dados</role>
                    <role content-type="http://credit.niso.org/contributor-roles/formal-analysis">Análise Formal</role>
                    <role content-type="http://credit.niso.org/contributor-roles/funding-acquisition">Aquisição de Financiamento</role>
                    <role content-type="http://credit.niso.org/contributor-roles/investigation">Investigação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/methodology">Metodologia</role>
                    <role content-type="http://credit.niso.org/contributor-roles/project-administration">Administração de Projeto</role>
                    <role content-type="http://credit.niso.org/contributor-roles/resources">Recursos</role>
                    <role content-type="http://credit.niso.org/contributor-roles/supervision">Supervisão</role>
                    <role content-type="http://credit.niso.org/contributor-roles/validation">Validação</role>
                    <role content-type="http://credit.niso.org/contributor-roles/visualization">Visualização</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-original-draft">Escrita (rascunho original)</role>
                    <role content-type="http://credit.niso.org/contributor-roles/writing-review-editing">Escrita (revisão e edição)</role>
                    <xref ref-type="aff" rid="aff01"/>
                    <xref ref-type="corresp" rid="c01"/>
                    <bio>
                        <p>Doutor em Direito Privado e Teoria do Direito</p>
                        <p>Possui graduação em Direito - Universitá Magna Graecia di Catanzaro (2011) e doutorado em Teoria del diritto e dell´ordine giuridico ed economico europeo - Università degli studi, Magna Graecia di Catanzar (2017). Tem experiência na área de Direito, com ênfase em Direito Privado, atuando principalmente nos seguintes temas: responsabilidad precontractual, abuso do direito, argumentação juridica, boa fe e buena fe.</p>
                    </bio>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <institution content-type="orgname">Universidade Magna Graecia</institution>
                <addr-line>
                    <city>Catanzaro</city>
                </addr-line>
                <country country="IT">Itália</country>
                <institution content-type="original">Universidade Magna Graecia, Catanzaro, Itália.</institution>
            </aff>
            <author-notes>
                <corresp id="c01">E-mail: <email>claudiodesap@hotmail.it</email>
                </corresp>
                <fn fn-type="edited-by">
                    <label>Corpo Editorial:</label>
                    <p>Editor-Chefe: J.P.B</p>
                    <p>Editora-Adjunta: L.S.G</p>
                    <p>Editora Associada: L.S.G.</p>
                    <p>Pareceristas: 2</p>
                </fn>
            </author-notes>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2026</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <year>2025</year>
            </pub-date>
            <volume>22</volume>
            <issue>115</issue>
            <elocation-id>e8749</elocation-id>
            <history>
                <date date-type="received">
                    <day>30</day>
                    <month>10</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>30</day>
                    <month>10</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>30</day>
                    <month>10</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>30</day>
                    <month>10</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>08</day>
                    <month>12</month>
                    <year>2025</year>
                </date>
                <date date-type="rev-recd">
                    <day>08</day>
                    <month>12</month>
                    <year>2025</year>
                </date>
                <date date-type="accepted">
                    <day>11</day>
                    <month>12</month>
                    <year>2025</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by-nc/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution Non-Commercial</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que sem fins comerciais e que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>RESUMO</title>
                <p>A crescente integração da inteligência artificial (IA) em diversos setores, como o de transportes e saúde, levanta um debate crucial no direito acerca da responsabilidade civil por danos algorítmicos. O presente estudo aborda a carência de uma regulamentação global e setorial europeia para a responsabilidade derivada do uso de IA, que inibe o investimento e a confiança do público. O objetivo é analisar e criticar as principais teses doutrinárias e as propostas regulamentares supranacionais (a tese conservadora, que defende a aplicação das regras existentes; a reformista radical, que propõe o reconhecimento de uma personalidade eletrônica para a máquina; e a reformista moderada, focada em intervenções regulamentares pontuais), utilizando uma abordagem analítico-crítica da doutrina e das iniciativas normativas. Os resultados demonstram que as abordagens interpretativas conservadoras são inadequadas devido à natureza da IA, e que a tese da personalidade eletrônica incorre na falácia naturalista. As recentes propostas europeias, como a <italic>AI Act</italic> e os projetos sobre responsabilidade, carecem de regras globais e de um critério de imputação adequado. Conclui-se que a solução ideal, a ser alcançada a longo prazo, passaria pela "codificação contextual" e "personalização" da responsabilidade, utilizando a IA para reconstruir a causalidade e elaborar regras adaptáveis, protegendo os sujeitos mais vulneráveis</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>ABSTRACT</title>
                <p>The increasing integration of artificial intelligence (AI) into various sectors, such as transport and health, raises a crucial debate in law regarding civil liability for algorithmic damages. This study addresses the lack of global and sectoral European regulation for liability arising from the use of AI, which inhibits investment and public trust. The objective is to analyze and critique the main doctrinal theses and supranational regulatory proposals (the conservative thesis, which advocates applying existing rules; the radical reformist thesis, which proposes recognizing electronic personality for the machine; and the moderate reformist thesis, focused on specific regulatory interventions), using an analytical-critical approach to doctrine and normative initiatives. The results show that conservative interpretive approaches are inadequate due to the nature of AI, and that the electronic personality thesis falls into the naturalistic fallacy. Recent European proposals, such as the AI Act and liability drafts, lack global rules and an appropriate imputation criterion. It is concluded that the ideal solution, to be achieved in the long term, would involve "contextual codification" and "personalization" of liability, using AI to reconstruct causality and elaborate adaptable rules, thereby protecting the most vulnerable subjects.</p>
            </trans-abstract>
            <trans-abstract xml:lang="es">
                <title>RESUMEN</title>
                <p>La creciente integración de la inteligencia artificial (IA) en diversos sectores, como el transporte y la salud, plantea un debate crucial en el ámbito jurídico sobre la responsabilidad civil por daños algorítmicos. El presente estudio aborda la falta de una normativa global y sectorial europea sobre la responsabilidad derivada del uso de la IA, lo que inhibe la inversión y la confianza del público. El objetivo es analizar y criticar las principales tesis doctrinales y las propuestas normativas supranacionales (la tesis conservadora, que defiende la aplicación de las normas existentes; la reformista radical, que propone el reconocimiento de una personalidad electrónica para la máquina; y la reformista moderada, centrada en intervenciones normativas puntuales), utilizando un enfoque analítico-crítico de la doctrina y las iniciativas normativas. Los resultados demuestran que los enfoques interpretativos conservadores son inadecuados debido a la naturaleza de la IA, y que la tesis de la personalidad electrónica incurre en la falacia naturalista. Las recientes propuestas europeas, como la Ley de IA y los proyectos sobre responsabilidad, carecen de normas globales y de un criterio de imputación adecuado. Se concluye que la solución ideal, que se alcanzaría a largo plazo, pasaría por la «codificación contextual» y la «personalización» de la responsabilidad, utilizando la IA para reconstruir la causalidad y elaborar normas adaptables, protegiendo a los sujetos más vulnerables.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>PALAVRAS-CHAVE</title>
                <kwd>Responsabilidade civil</kwd>
                <kwd>Inteligência Artificial</kwd>
                <kwd>Danos Algorítmicos</kwd>
                <kwd>Regulação</kwd>
                <kwd>AI Act</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>KEYWORDS</title>
                <kwd>Civil liability</kwd>
                <kwd>Artificial Intelligence</kwd>
                <kwd>Algorithmic Damages</kwd>
                <kwd>Regulation</kwd>
                <kwd>AI Act</kwd>
            </kwd-group>
            <kwd-group xml:lang="es">
                <title>PALABRAS CLAVE</title>
                <kwd>Responsabilidad civil</kwd>
                <kwd>Inteligencia Artificial</kwd>
                <kwd>Daños Algorítmicos</kwd>
                <kwd>Regulación</kwd>
                <kwd>AI Act</kwd>
            </kwd-group>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>1. Introdução</title>
            <p>De tempos a tempos, as publicações jurídicas imitam os movimentos de um pêndulo. Oscilam; ora assumem a forma de poemas de amor, ora de obituários. Quando surge um novo fenómeno que pode ter alguma importância para o direito, uma primeira fase de grande interesse pelo assunto é seguida de uma segunda, de desilusão e desencanto. Passado o fascínio, a parábola termina com a constatação de que a novidade não era assim tão nova ou, pelo menos, não era assim tão interessante que justificasse os esforços desenvolvidos pelos estudiosos para a compreender e conceitualizar (normalmente com a ocultação de um cadáver). Se nos quisermos cingir ao campo de estudo “Direito e novas tecnologias”, foi assim com a contratação telemática, tem sido assim, em tempos mais recentes, com as bitcoins e as NFTs; quem sabe se não será também assim com a inteligência artificial, tema “<italic>à la page</italic>” do debate político e científico contemporâneo.Talvez não.</p>
            <p>A inteligência artificial parece ter tantas declinações e ramificações que afeta quase todos os domínios da existência humana. Não só, evidentemente, o domínio das comunicações, mas também o dos cuidados de saúde e, por último, o dos transportes.</p>
            <p>E, como qualquer nova tecnologia, embora possa trazer benefícios para o bemestar individual e coletivo, pode também ser uma fonte de (novos) danos. De entre os muitos sectores que poderiam ser referidos, fiquemos no domínio dos transportes. No início, era o automóvel. Substituiu as carruagens. Alterou a dinâmica dos transportes; apresentou-se, e/ou foi apresentado, como um artefato potencialmente produtor de danos (e, de facto, a história e as estatísticas testemunham que o foi e - infelizmente - ainda o é).</p>
            <p>A lei foi chamada a regulamentá-la (<xref ref-type="bibr" rid="B01">Calabresi; Al Mureden, 2021</xref>). Foi ditada uma disciplina ad hoc. Hoje em dia, permanecendo no nosso direito nacional, a matéria é regulada por um conjunto de diferentes documentos normativos, gerais e especiais, nomeadamente o artigo 2054º do Código Civil, o Código da Estrada e o direito dos seguros. As aeronaves e os navios encontram a sua regulamentação no código do sector e num grande número de convenções internacionais (<xref ref-type="bibr" rid="B02">La Torre, 2019, pp. 487-518</xref>; <xref ref-type="bibr" rid="B03">La Torre, 2012, pp. 553-575</xref>).</p>
            <p>Trata-se de conjuntos de regras que, de uma forma mais ou menos eficaz, mais ou menos razoável, resistiram ao teste do tempo; de tal forma que, apesar de terem sido elaboradas há quase um século, ainda as encontramos presentes nos nossos códigos e, até há pouco tempo, nunca ninguém tinha pensado em questioná-las.</p>
            <p>Isto é, até hoje. Carro, avião, navio: meios de transporte que antes eram objeto de domínio humano, embora exercido de forma diferente, começaram, graças ao progresso técnico, a “autonomizar-se”, e parece que, uma vez aperfeiçoadas certas tecnologias, a intervenção humana pode vir a ser totalmente dispensada.</p>
            <p>Numa fórmula: é a inteligência artificial, e os juristas não podem fazer nada contra ela.O Direito, porém, tem como função paradigmática a de orientar a conduta humana. Confrontado com “coisas” que simulam, de alguma forma, as suas atividades mentais e os seus comportamentos, o legislador viu-se desprevenido, e os juristas, teóricos e práticos, com ele.</p>
            <p>As grandes empresas tecnológicas, que operam e dominam, à escala mundial, o sector digital, estão maioritariamente sediadas nos Estados Unidos (<xref ref-type="bibr" rid="B04">Wu, 2021</xref>). O contexto norte-americano, no qual, por complexas razões históricas e socioeconómicas, desde logo a de crescerem num ambiente permeado por um capitalismo “laissez-faire”, encontraram terreno fértil para nascerem e se desenvolverem, a ponto de “ditarem a lei” nos mais diversos sectores da moderna economia de mercado (<xref ref-type="bibr" rid="B05">Nivarra, 2010, p. 6 ss</xref>).</p>
            <p>Se olharmos para leste, a partir das margens do Atlântico, o cenário é diferente, mas apenas no que se refere a quem controla estas tecnologias. O desenvolvimento destas empresas, e das tecnologias inovadoras que concebem, está aqui sob o controlo estrito da política estatal, que o orienta para a maximização do bem-estar coletivo.</p>
            <p>Enquanto os Estados Unidos e a China iniciaram esta nova corrida ao desenvolvimento tecnológico, a Europa ficou a assistir. Pelo menos até os últimos anos, período em que as instituições supranacionais começaram a dar origem a iniciativas políticas que produziram documentos de <italic>soft law</italic> e, mais recentemente, regulamentos setoriais muito detalhados, destinados a regular vários aspectos do fenómeno digital. Basta pensar no RGPD, no que diz respeito à proteção dos dados pessoais, bem como na Diretiva 2019/770 relativa à prestação de serviços digitais, que aborda a questão das trocas entre bens/dados. Mas não faltaram outras intervenções: o tema dos contratos digitais <italic>peer-to-peer</italic> foi regulamentado, sob as duas formas de facilitação e direção pelo operador da plataforma.</p>
            <p>Outra medida importante é o Regulamento 2019/1150 sobre “Equidade e transparência para os utilizadores empresariais de serviços de corretagem em linha”, que visa regulamentar as plataformas digitais. Também. O Regulamento 2022/2065 (Lei dos Serviços Digitais), que visa regular o mercado único dos serviços digitais; o Regulamento 2022/1925 (Lei do Mercado Digital), que visa garantir a equidade e a disputabilidade desses mesmos mercados; o Regulamento 2022/868 (Lei dos Dados), que trata da governação europeia do mercado de dados.</p>
            <p>E, por último, a muito recente chamada AI Act, destinada a regulamentar a colocação no mercado de produtos que incorporam tecnologias de inteligência artificial (<xref ref-type="bibr" rid="B06">Quarta; Smorto, 2024</xref>; <xref ref-type="bibr" rid="B07">Gentili, 2024, p. 1043 ss.</xref>).</p>
            <p>No entanto, apesar desta torrente de regulamentações, ainda que animada pela intenção de colocar a União Europeia, pelo menos do ponto de vista regulamentar, na vanguarda no que respeita à emergência destes novos fenómenos, basta ao observador externo constatar que, sobretudo no que se refere à inteligência artificial, falta uma regulamentação global da matéria. Em particular, o legislador supranacional tem demonstrado, pelo menos até a data, um desinteresse pela regulação da responsabilidade que pode resultar da utilização de tais tecnologias (<xref ref-type="bibr" rid="B08">Smorto, 2024, p. 213</xref>). Esta situação tem tido como consequência, por um lado, inibir o investimento por parte das empresas do sector, que ficam impedidas de conhecer os efeitos das suas ações no caso de uma tecnologia de IA por elas comercializada vir a causar danos; por outro lado, tem como consequência inibir o investimento por parte dos particulares, cuja confiança na utilização de tais tecnologias dificilmente se desenvolverá, uma vez que não saberiam de que forma e contra quem dirigir eventuais pedidos de indemnização no caso de virem a sofrer danos.</p>
        </sec>
        <sec>
            <title>2. As propostas - “de jure condito” e “de jure condendo” - sobre a mesa</title>
            <p>O problema necessita de uma solução; uma solução que seja normativamente justificada. Uma primeira análise do material doutrinário escrutinado revela uma série de questões, que serão aqui resumidas.</p>
            <p>Ao fazê-lo, é necessário fazer uma “<italic>caveat</italic>”: os algoritmos estão hoje presentes em todos os sectores da nossa vida quotidiana. Falta-lhes uma regulamentação orgânica, não obstante as recentes intervenções comunitárias sobre o assunto (<xref ref-type="bibr" rid="B09">Albanese, 2023, p. 559 ss.</xref>).</p>
            <p>Uma disciplina para os definir, para regular as suas diversas aplicações e para fazer face às consequências do seu uso nocivo. Centrando-nos neste último perfil, procedemos à análise das posições que têm surgido na doutrina sobre o tema.</p>
            <p>Foram isoladas quatro, que, consoante a abordagem do problema da responsabilidade por danos algorítmicos, podem ser assim designadas</p>
            <list list-type="alpha-lower">
                <list-item>
                    <p>Tese conservadora: os danos algorítmicos representam um novo caso que pode ser regulado de acordo com o material normativo existente<xref ref-type="fn" rid="fn02">2</xref>;</p>
                </list-item>
                <list-item>
                    <p>Tese reformista radical: que defende uma regulação ampla e geral da responsabilidade por danos algorítmicos, de acordo com diferentes critérios de imputação, chegando mesmo a sancionar diretamente o algoritmo, após o reconhecimento da sua subjetividade/personalidade, num futuro indeterminado<xref ref-type="fn" rid="fn03">3</xref>;</p>
                </list-item>
                <list-item>
                    <p>tese reformista moderada: segundo a qual seria oportuna uma intervenção regulamentar, desejavelmente supranacional, destinada a predeterminar a parte responsável<xref ref-type="fn" rid="fn04">4</xref>;</p>
                    <p>e, finalmente,</p>
                </list-item>
                <list-item>
                    <p>tese intermédia: que, por um lado, afirma a necessidade de uma revisão radical da disciplina da responsabilidade pelo produto, a fim de a adaptar ao fenómeno algorítmico; e, por outro, propõe uma intervenção “mínima” - a implementar por diretiva - em relação aos danos algorítmicos “puros” - isto é, não necessariamente mediados pela presença de um dispositivo -, limitada ao perfil do ónus da prova do dano e do nexo de causalidade da culpa<xref ref-type="fn" rid="fn05">5</xref>.</p>
                </list-item>
            </list>
            <sec>
                <title>2.1. “Novos casos, não novas regras”: a abordagem conservadora</title>
                <p>Querendo entrar em mais pormenores, a primeira solução, bem como “de jure condito” a única, até à data, praticável, era a seguinte. Tem-se dito em muitos quadrantes que as hipóteses de danos algorítmicos, em particular os danos produzidos pelas tecnologias de “inteligência” artificial, não exigiriam a elaboração, porventura à escala supranacional, de uma disciplina ad hoc, constituindo simplesmente “casos novos”, que podem ser administrados segundo as regras em vigor, devidamente reajustadas por via interpretativa.</p>
                <p>Ou seja, quer inserindo as novas hipóteses de danos algorítmicos no âmbito dos casos codificados de responsabilidade especial, quer aplicando-lhes diretamente as regras concebidas para a responsabilidade decorrente dos produtos.</p>
                <p>Esta tese (ou melhor: este conjunto de teses) é, à partida, pouco convincente (<xref ref-type="bibr" rid="B19">Del Federico, 2023, p. 1041</xref>). Se se partir do pressuposto de que a inteligência artificial, independentemente das muitas e nem sempre claras e coerentes definições que dela constam na literatura especializada, não indica um novo “sujeito de direito” ao qual se possam imputar diretamente as consequências danosas da sua “ação”, mas antes uma nova ‘coisa’, pelo que deve continuar a ser responsabilizada por elas, poderá não haver razões normativas adequadas para lhe aplicar, bem como aos danos por ela causados, as regras “especiais” de responsabilidade do Código Civil Italiano. Por outro lado, se o sujeito humano é uma nova “coisa”, de modo que deve continuar a ser responsabilizado por eles, pode não haver razões normativas adequadas para aplicar a ele e aos danos por ele causados as regras “especiais” de responsabilidade do Código Civil. Não parece possível aplicar aos danos por ela causados, como propuseram vários autores, as regras previstas no artigo 2050º do Código Civil para as atividades perigosas: em primeiro lugar, porque é uma petição de princípio afirmar que qualquer utilização - mesmo que má - da inteligência artificial constitui uma atividade perigosa <italic>ex se</italic>; em segundo lugar, porque seria incoerente sustentar, por um lado, que a caraterística peculiar de tais tecnologias é a sua capacidade de realizar melhor do que o homem tarefas que outrora eram prerrogativa do ser humano e, ao mesmo tempo, qualificá-las como perigosas a priori. Por outro lado, sendo as tecnologias em causa intrinsecamente complexas, não corresponderia aos critérios comuns de justiça fazer recair o “custo” do dano sobre ‘quem’ se refere a disposição em apreço, uma vez que este último não poderia ser considerado como a melhor pessoa para adotar “todas as medidas adequadas para evitar o dano” (<xref ref-type="bibr" rid="B09">Albanese, 2023, pp. 565-566</xref>)<xref ref-type="fn" rid="fn06">6</xref>.</p>
                <p>Por razões não muito diferentes, as propostas que colocam o delito algorítmico no âmbito de aplicação dos artigos 2051º (responsabilidade por coisas sob custódia) e 2052º (responsabilidade por danos causados por animais) parecem também ser rejeitadas. Quanto à primeira (<xref ref-type="bibr" rid="B09">Albanese, 2023, p. 566 ss</xref>) - considerada diretamente aplicável - a inteligência artificial (mas, seria mais correto falar de “inteligências artificiais”) não pode ser considerada uma coisa no sentido tradicional.</p>
                <p>É certo que, como acima se referiu e mais adiante se esclarece, não identifica um “sujeito” de direito, pelo que, “<italic>tertium non datur</italic>”, só pode ser qualificada como “coisa”. No entanto, dadas as suas caraterísticas, tanto intrínsecas como extrínsecas, é de facto uma “coisa”, mas é-o de uma forma particular. Se incorporar mecanismos de aprendizagem automática e/ou profunda, consoante funcionem em modo “clean” ou “black box”. Se incorporar mecanismos de aprendizagem automática e/ou profunda, consoante funcionem em modo “clean” ou “black box”, é capaz de tomar decisões de forma, se não autónoma, pelo menos altamente automatizada, e mesmo de forma diferente - mas não ‘errada’ ou “ilícita” - em relação ao que o seu programador lhe indicou, e de produzir resultados que este último, bem como aqueles que o treinaram, não poderiam ter imaginado. Do ponto de vista da pessoa lesada, não seria tão eficaz como justo atribuir o ónus da responsabilidade ao mero “depositário”, que dificilmente estaria na melhor posição para “cuidar” - perguntar se é possível manter, e em caso afirmativo como, um "processo de decisão automatizado - uma “coisa” capaz de atuar de formas não previsíveis, mesmo para os seus programadores e formadores, e capaz de produzir resultados ex ante que não podem ser previstos. E o fortuito tornar-se-ia, em suma, uma “<italic>probatio diabolica</italic>” (<xref ref-type="bibr" rid="B07">Gentili, 2024, p. 1065</xref>).</p>
                <p>Se a proposta interpretativa que acabámos de analisar se afigura viciada por uma falácia ontológica (cujo raciocínio é o seguinte: o AI não é uma pessoa; logo, é uma coisa; podem ser-lhe aplicadas as regras do artigo 2051.º), a doutrina (<xref ref-type="bibr" rid="B20">Nichols, 2023, p. 189 ss</xref>) que propôs a aplicação (analógica) do artigo 2052.º do Código Civil cai no vício da falsa analogia. O procedimento analógico, para simplificar, assume a forma de um raciocínio que visa aplicar as consequências jurídicas concebidas para um caso existente a um caso não previsto, mas que apresenta uma identidade de “<italic>ratio</italic>” com o primeiro. A inteligência artificial é tratada como um (quase) sujeito, e não mais como uma mera coisa - especialmente se, como mencionado acima, equipada com tecnologias de “máquina” e/ou “aprendizagem profunda” - porque, assim como um animal, poderia, através de um comportamento incontrolável, produzir eventos danosos. E, mais uma vez por analogia com o que aconteceria em relação aos animais, o “proprietário”, ou “utilizador”, seria responsabilizado por esses danos, mediante prova de acidente. Esta tese tem, mesmo à primeira vista, dois pontos fracos: o primeiro é que se pode duvidar que a razão que está na base da previsão da responsabilidade por danos causados por animais seja a mesma que está, ou poderia estar, na base da intenção do legislador de penalizar os danos causados pela inteligência artificial. O legislador atribui a responsabilidade ao proprietário ou ao utilizador do animal, partindo do princípio de que estes são capazes de o controlar e de intervir quando o seu comportamento pode tornarse uma fonte de danos. No entanto, é de excluir que o proprietário e o utilizador de uma “máquina” equipada com tecnologia de IA tenham competência para exercer qualquer forma de controlo sobre ela e, por conseguinte, estejam em condições de interferir no seu “comportamento” nocivo. A segunda, implícita na primeira, é que se deveria pelo menos argumentar uma espécie de semelhança, de analogia precisamente, entre o modo de “raciocinar” dos animais e o das “máquinas” (mesmo que altamente sofisticadas) (<xref ref-type="bibr" rid="B21">Ferrari; Lusardi, 2019, p. 84</xref>). O que, até à data, nenhum dos defensores desta solução hermenêutica fez.</p>
                <p>Uma discussão não muito diferente pode ser feita relativamente ao caso do artigo 2047º do Código Civil (responsabilidade por danos causados por uma pessoa incapaz) (<xref ref-type="bibr" rid="B22">D’Aquino, 2024, p. 232</xref>; <xref ref-type="bibr" rid="B23">M. Costanza, 2019, pp. 1686-1687</xref>). Em primeiro lugar, por razões, digamos, de ordem “sistemática”: o art. 2047º cc segue o art. 2046º cc, que dispõe que não é devida qualquer indemnização por uma pessoa que, no momento do facto, era incapaz de entender. O objetivo do art. 2047º é, pois, remediar tal eventualidade, evitando que o custo do dano seja injustamente suportado pelo lesado, penalizando a pessoa sobre quem recaía o dever de vigilância do sujeito incapaz, a menos que se prove que não podia evitar a ocorrência do facto. A IA, por muito bem programada, treinada e tornada “autónoma”, não pode ser considerada - nem sequer parcialmente - um “sujeito”, pelo que a condição prévia que justificaria a aplicação analógica da disciplina em questão deixa de estar preenchida. Além disso, deixando de lado o perfil agora salientado, parece excessivamente pesado, por não responder a considerações de eficácia e justiça, atribuir a responsabilidade do facto da “máquina” ao supervisor - e partindo sempre do princípio de que uma “máquina inteligente” pode ser supervisionada - ou que, pelas razões acima indicadas, o supervisor é a pessoa mais bem colocada para “prevenir o facto”.</p>
                <p>De acordo com outra orientação, que mais ou menos explicitamente parece aceder ao “<italic>agency approach”</italic>, os danos causados pelos algoritmos de inteligência artificial poderiam ser reconduzidos, ainda que por analogia, ao quadro regulamentar do artigo 2049º do Código Civil, que regula a responsabilidade do comitente pelos danos causados pelo sujeito responsável (<xref ref-type="bibr" rid="B16">Monterossi, 2024, pp. 192-197</xref>). Mais uma vez, estamos perante uma falsa analogia: a máquina não é um “sujeito”, e o caso em apreço visa sancionar a má escolha feita pelo comitente em relação a esta. A má escolha de um sujeito humano, cujo comportamento é avaliável de acordo com normas concebidas para um sujeito humano. Mesmo ignorando a primeira objeção (a máquina não é um sujeito) e sem ter em conta que a responsabilidade do comitente só é desencadeada em caso de “ato ilícito” do comitente, e que, na prática, o ato ilícito exige o elemento de culpa ou dolo, e que não é pelo menos óbvio que uma “máquina” seja capaz de reproduzir tais estados psicológicos, duvidamos que um comitente não profissional (identificando, por esta expressão, o sujeito desprovido de elevadas competências no domínio informático) represente o melhor sujeito para imputar o dano. Por conseguinte, mesmo o artigo 2049º do Código Civil não parece oferecer uma base sólida para a elaboração de uma regra de responsabilidade que regule o caso dos danos causados pela inteligência artificial (<xref ref-type="bibr" rid="B07">Gentili, 2024, p. 1065</xref>).</p>
                <p>Também se tem defendido na doutrina que, em conjugação ou não com a aplicação das chamadas regras especiais de responsabilidade do código, os danos causados pela inteligência artificial poderiam encontrar regulação direta com base nas regras ditadas para a responsabilidade pelo produto (<xref ref-type="bibr" rid="B09">Albanese, 2023, p. 562-565</xref>). Esta tese, por um conjunto diferente de razões, não é, no entanto, convincente.</p>
                <p>De um ponto de vista empírico e conceitual, limita o discurso aos algoritmos de inteligência artificial incorporados em dispositivos que podem ser qualificados como “produtos” (sendo, entre outras coisas, duvidoso que um algoritmo ou um complexo de algoritmos integre a noção de “produto” tal como elaborada no âmbito da disciplina acima referida). Além disso, passando para a vertente económica, não produz uma repartição óptima do (custo do) dano: o produtor do bem (que incorpora a tecnologia de IA) pode, de facto, não ser a parte a quem a responsabilidade deve ser imputada. E mesmo que, em abstrato, o fosse, o produtor dificilmente seria suscetível de ser sancionado em concreto, uma vez que poderia sempre recorrer às isenções - a do risco de desenvolvimento e a do defeito superveniente - previstas pela disciplina em causa. O que, em suma, tornaria esta disciplina inaplicável, entre outras coisas, a todas as infracções causadas por dispositivos que utilizam algoritmos de “máquina” e de “aprendizagem profunda”.</p>
            </sec>
            <sec>
                <title>2.2. A “máquina-pessoa”: a abordagem revolucionária</title>
                <p>Mas - e aqui passamos para o lado da parte lesada - se nem o “guardião”, nem o supervisor, nem o produtor do artefato tecnológico identificam a parte contra a qual a ação de responsabilidade deve ser intentada, quem? Esta questão tentou ser respondida pela resolução do Parlamento Europeu de 2017 intitulada “Regras de direito civil para a robótica”.</p>
                <p>Este documento regulamentar, que não foi posteriormente implementado, estabeleceu um regulamento geral sobre a responsabilidade por danos algorítmicos (mesmo quando não incorporam tecnologias de IA), também válido para o sector dos transportes, indicando dois critérios diferentes para a imputação de responsabilidade, um objetivo (art. 54.º) e outro baseado na gestão do risco (art. 55.º). Esta legislação também discutiu a responsabilidade proporcional (artigo 56.º) ao nível efetivo de instrução dado à “máquina” e ao grau da sua autonomia, de modo que quanto mais autónomo for o chamado robô, quanto mais longa for a fase de formação, maior será a responsabilidade do seu formador (em comparação, por exemplo, com a responsabilidade da pessoa que escreveu o seu código, ou da pessoa que o colocou no mercado, sozinho ou incorporando-o num dispositivo). Em alternativa, sempre que o nível de autonomia fosse particularmente elevado, deveria ter sido seguida a via do seguro obrigatório (artigo 57.º) e, no caso de danos causados por robôs não segurados, deveria ter sido explorada a possibilidade de criar um fundo de indemnização (alínea b) do artigo 59.º), a fim de não transferir o custo dos danos para a vítima.</p>
                <p>Acrescente-se que a mesma resolução preconizava, mas a prazo, o reconhecimento de uma chamada personalidade eletrônica às máquinas altamente sofisticadas, de modo a que o pedido de indemnização pudesse ser dirigido diretamente contra elas (art. 59.º, alínea f). O ponto mais polémico da resolução é precisamente este último. É esta a tese teórica que lhe está subjacente. As tecnologias de inteligência artificial não são meras ferramentas que o homem utiliza para realizar os seus próprios interesses. Elas têm uma autonomia própria. Autonomia que pode levá-las a agir de acordo com estratégias que não são de modo algum atribuíveis à vontade do seu utilizador humano, à do seu programador, formador ou, ainda menos, à do sujeito que permitiu a sua colocação no mercado. Assim, quando o dano ocorre por seu intermédio, será necessário apurar (caso a caso? por classe de casos? ) qual o grau dessa autonomia, para se aferir se a responsabilidade deve ser imputada apenas ao sujeito humano (haverá então que verificar em concreto se se trata de um utilizador, programador, formador, produtor; ou se, como é mais provável dada a natureza do fenómeno em causa, se trata de uma responsabilidade com uma estrutura subjetivamente complexa), ao sujeito humano e à “máquina”, ou, e esta é a hipótese mais extrema, apenas à “máquina” (segundo alguma disciplina encontrada ou construída pelo intérprete).</p>
                <p>De acordo com a orientação em discussão, não haveria qualquer obstáculo jurídico-conceitual a tal conclusão: no nosso ordenamento jurídico já existem “entidades” não humanas às quais se atribui personalidade jurídica, património e responsabilidade. Sem falar na possibilidade, prevista e regulada em nosso ordenamento jurídico, de constituição de patrimónios separados.</p>
                <p>À luz destas considerações, deduz-se, portanto, que é possível a. atribuir uma personalidade jurídica ao algoritmo; o que permite b. prever a sua responsabilidade em caso de dano; e c. um património autónomo, para garantir os direitos dos lesadoscredores da indemnização.</p>
                <p>Esta tese não se afigura convincente, quer quanto ao método, quer quanto à substância. Método<xref ref-type="fn" rid="fn07">7</xref>. É verdade que, segundo a perspectiva de Turing, se não for possível distinguir o comportamento de uma “máquina” do de um ser humano, a primeira pode ser considerada “inteligente”. Mas que tal notação seja seguida da necessidade de o direito atribuir “subjetividade jurídica” a essa entidade não-humana parece um exagero, tanto no plano lógico como no plano jurídico. Muitas tecnologias com as quais cada um de nós interage na sua vida quotidiana produzem resultados comunicativos que simulam os humanos. Mas isto não significa que se possam (ou, mais ainda, que se devam) deduzir consequências normativas deste “facto da realidade”, sob pena de se cair na falácia naturalista, segundo a qual não se pode saltar do plano do facto para o do direito. Muitas tecnologias com as quais cada um de nós interage na sua vida quotidiana produzem resultados comunicativos que simulam os humanos. Mas isto não significa que se possam (ou, mais ainda, que se devam) deduzir consequências normativas desta “realidade dada”, sob pena de se cair na falácia naturalista, segundo a qual não se pode saltar do plano do facto para o plano do direito. Por outras palavras, o facto de uma coisa “ser” não implica que essa coisa “deva ser”. Os enunciados jurídicos não descrevem a realidade, não dizem como as coisas, de facto, são; mas são de natureza prescritiva: dizem-nos como podem, devem ou não devem ser. O processo de atribuição de personalidade jurídica inscreve-se nesta lógica. Este conceito indica a aptidão de um sujeito de direito para ser titular de situações jurídicas subjetivas, ativas (direitos, poderes) e passivas (obrigações, responsabilidades), com vista a satisfazer, de forma direta ou secundária, interesses próprios ou alheios. Um requisito prévio para a sua atribuição é a presença de um interesse. Um interesse que justifica a ação e, quando está se revela prejudicial, a sanção. Na ausência de um interesse próprio, o dispositivo automatizado não é, por enquanto, comparável a uma pessoa singular ou coletiva. Esta falta impede, já “<italic>in thesi</italic>”, a previsão da sua subjetividade/personalidade jurídica, ainda que parcial, e, portanto, da sua responsabilidade autónoma.</p>
                <p>Merito (<xref ref-type="bibr" rid="B09">Albanese, 2023, pp.562-565</xref>). O agente de software não é certamente comparável a uma pessoa física. Mas o agente de software não é comparável a uma entidade jurídica, por razões estruturais e funcionais. No último há uma identificação entre o corpo e seus órgãos, e o primeiro responde diretamente, e com seus próprios bens, pelos atos - mesmo ilícitos, cíveis ou criminais - realizados pelo segundo. Há a presença de sujeitos humanos que a instituição utiliza para a realização de um interesse (supraindividual) próprio. É precisamente o critério da utilidade - em relação a este interesse - que justifica a atribuição de direitos e deveres, poderes e responsabilidades. Onde este elemento material está ausente (como, de fato, é), a atribuição da personalidade jurídica (e, antes, da subjetividade) não poderia ocorrer. Situação diferente da inteligência artificial, e os danos produzidos por ela. Este último tem (e não pode, no momento) um interesse próprio; e, portanto, não pode agir a sua satisfação. Além disso, mesmo que se quisesse reduzir o peso de tal argumento, não poderia ignorar a falta de um patrimônio adequado, que ele atuava como uma garantia para terceiros e era - se necessário - <italic>aggredibile</italic> por eles no caso em que a 'máquina' deu origem a eventos prejudiciais. Esta conclusão também não seria contradita pela referência à disciplina de heranças separadas. A função desta instituição é, de facto, circunscrever a responsabilidade do devedor. Não oferece argumentos a favor da subjetividade, ou personalidade, total ou parcial, do agente de software. Se este último ponto for omitido - como as condições não estão presentes no momento para atribuir, ainda que apenas para efeitos do julgamento de responsabilidade, uma personalidade jurídica ao algoritmo, mesmo que incorporando uma tecnologia IA - Esta proposta parece ser um ponto de partida aceitável para a criação da discussão sobre o regime da responsabilidade por danos algorítmicos. Esta proposta teve, aliás, o mérito de ter sido concebida como geral em relação a todas as tecnologias de IA, válida para todos os sectores em que pudessem ser chamadas, apesar das suas peculiaridades, a operar, incluindo o dos transportes.</p>
                <p>Infelizmente, como veremos melhor nos §§ seguintes, o legislador europeu não pensou em segui-lo, preferindo trilhar outros caminhos.</p>
            </sec>
        </sec>
        <sec>
            <title>3. A Lei do AI e as implicações em matéria de responsabilidade: A abordagem reformista moderada. Duas teses.</title>
            <p>Se não consegue controlar um fenómeno, tente regulá-lo. Este parece ser o caminho que a União Europeia decidiu seguir em matéria de Inteligência Artificial. Percebendo que não está em condições de competir com as grandes empresas privadas americanas ou com as empresas públicas chinesas dominantes no sector, a estratégia europeia, como já foi referido acima, tem sido a de prosseguir a adopção de legislação de vanguarda na área, que possa servir de base para uma futura regulamentação à escala global. A lei da inteligência artificial – c d. Lei da IA – trata de regular a colocação no mercado de produtos que utilizam tecnologias de inteligência artificial, estabelecendo uma série de obrigações para determinadas categorias de sujeitos (fornecedor, ou sujeito que exerce atividades similares; utilizador primário), e distinguindo os produtos que a incorporam de acordo com diferentes níveis de risco (<xref ref-type="bibr" rid="B07">Gentili, 2024, pp. 1043-1051</xref>). A introdução de alguns produtos – aqueles c. e. em alto risco - é – salvo algumas exceções – proibido (art. 5º); a introdução de outros é permitida se tal risco for considerado, de acordo com determinados critérios estabelecidos pelo mesmo documento regulamentar, como «aceitável» (art. 6.º e seguintes); uma última categoria é representada por aqueles produtos cuja colocação no mercado não deve gerar problemas e, por isso, são classificados como ‘de baixo risco’ (art. 50.º e seguintes). Não sendo este o local para uma análise detalhada do quadro legislativo, para o que aqui interessa bastará observar o seguinte. Ou seja, a Lei da IA, bem como as demais disposições de carácter europeu-unitário mencionadas no primeiro §, enquadram-se perfeitamente na lógica — de natureza ordoliberal — da União Europeia, orientada para a construção, o reforço e a expansão do mercado único, sem nada prever em termos de proteção dos indivíduos e da comunidade contra o poder excessivo das grandes “corporações” digitais. Os remédios aí previstos, na verdade, prosseguem uma finalidade eminentemente reguladora de tais poderes privados, prevendo intervenções corretivas – de “imposição pública” – sobre os seus modos de utilização, quando esta seja considerada excessivamente danosa. A dimensão sancionatória surge, assim, apenas em relação àqueles comportamentos que possam dificultar o jogo concorrencial dos atores privados no contexto do mercado único. Nenhuma referência à possibilidade de um indivíduo, ou de uma comunidade, tomar medidas de responsabilidade perante os fornecedores (ou operadores) de tecnologias de IA cuja utilização causou danos.</p>
            <p>Os dois documentos normativos sobre responsabilidade civil por inteligência artificial inserem-se neste quadro regulatório e, embora não tenham sido aprovados em versão final, passaremos a analisá-los.</p>
            <p>O primeiro é o projeto de regulamento sobre responsabilidade civil presente na Resolução do Parlamento Europeu de 2020, e que, de acordo com a classificação que propusemos no primeiro §, podemos remontar à tese do reformismo moderado. Neste projeto, a categoria de dano algorítmico (regras de responsabilidade) está ancorada aos níveis de risco relacionados com a colocação no mercado de produtos que incorporam IA (regras de permissão), de acordo com dois critérios de atribuição diferentes: o objetivo, onde o dano foi causado por um sistema de alto risco; a falha se foi produzida por um sistema de baixo risco. A resolução – que antecede a Lei da IA – introduz então uma espécie de canalização da responsabilidade, identificando a figura do “implantador” – c. e. operador –, na dupla variante ‘<italic>front-end’</italic>, a pessoa que beneficia da utilização da IA; <italic>back-end</italic>, onde é responsável por controlar e monitorizar o mesmo (e a menos que se aplique a responsabilidade do fabricante) - o sujeito contra o qual podem ser exercidas quaisquer futuras reivindicações de indemnização. A resolução trata de regular, em caso de dano causado por múltiplos lesores, as relações internas entre estes últimos; estabelece limites para o montante da indemnização; regula os prazos de prescrição para o exercício da ação; prevê algumas isenções em caso de danos causados por um sistema de IA de baixo risco.</p>
            <p>A proposta apresentou certamente aspetos positivos: introdução de uma disciplina geral para a responsabilidade dos algoritmos gerais (incluindo a inteligência artificial); a canalização de responsabilidades, de forma a facilitar a posição do lesado; avançou numa perspectiva de coordenação com os restantes documentos normativos que regem o fenómeno, potenciando a função reguladora da instituição. Por outro lado, porém, limitou o exercício da ação de responsabilidade por danos patrimoniais à única lesão de bens específicos, e por danos não patrimoniais à única hipótese de a lesão ter resultado numa perda patrimonial significativa para a vítima. Assim, a referência à culpa em caso de dano causado por um sistema que não seja de alto risco é desconcertante. Num domínio como o das novas tecnologias, a referência à diligência normal como regra de conduta a que o operador deve aderir parece implicar uma redução da proteção do lesado. Na verdade, a parte lesiva apenas necessitaria de cumprir as regras estabelecidas na legislação europeia sobre a segurança dos produtos, bem como a – ainda em curso na altura, agora aprovada – da lei da IA (no caso da IA não de alto risco) para ficar isenta de responsabilidade.</p>
            <p>A esta Resolução seguiu-se a proposta relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial em 2022. Esta medida enquadra-se também nas diretrizes de "política" da União Europeia, nomeadamente a de reforço e expansão do mercado único. Só que, ao contrário das duas propostas acima analisadas, nesta última o caminho que se tentou foi o da harmonização mínima (e a escolha do instrumento da diretiva em vez do regulamento – como foi o caso, aliás, da Lei da IA – é um indício significativo disso). Ao contrário da resolução de 2017 e, em parte, da resolução de 2020, o legislador europeu não interveio na categoria da responsabilidade, nomeadamente redefinindo os seus elementos constitutivos, nem ditando regras analíticas relativas aos critérios de imputação, ao montante da indemnização, ao prazo de prescrição e a eventuais relações internas em caso de infração plurissubjetiva. Em estrita observância do princípio da subsidiariedade, que rege qualquer intervenção regulatória supranacional, a proposta de diretiva em causa tem por missão — com a reserva, porém, de ser integrada por intervenções mais amplas — facilitar a posição processual do lesado, estabelecendo, por um lado, algumas obrigações de transparência (divulgação e conservação) para determinadas categorias de sujeitos (fornecedor; sujeito similar; utilizador) que podem exercer alguma função de controlo relativamente ao sistema de inteligência artificial, diferenciando também aqui entre sistemas de alto e baixo risco, bem como as condições que regem a apresentação do pedido de indemnização (art. 5.º). E, em segundo lugar, estabelecendo algumas presunções «jure tantum», em caso de violação da referida obrigação (art. 3.º, n.º 5), e introduzindo outras presunções relativamente à prova da culpa (art. 4.º). Este último aplica-se quando: i) o autor demonstrou, ou o juiz presumiu, nos termos do art. 3, que o arguido, ou uma pessoa sob a sua responsabilidade, «não cumpriu um dever de cuidado previsto no direito da União ou no direito nacional e que visa diretamente proteger contra o dano ocorrido»; (ii) pode-se razoavelmente presumir, nas circunstâncias do caso, que a conduta negligente influenciou o resultado produzido pelo sistema de IA, ou a sua incapacidade de o produzir; e (iii) se o autor demonstrar que o dano foi causado pela produção ou pela omissão da sua produção. No que respeita aos sistemas de baixo risco, esta presunção aplica-se apenas quando o juiz tenha considerado que o ónus da prova de que o autor dispõe é excessivamente oneroso (art. 5.º, n.º 5). Em relação aos sistemas de alto risco, esta presunção não se aplica quando o réu demonstra que o autor tinha provas e conhecimentos suficientes para demonstrar a existência do elemento acima referido. No caso de uma queixa apresentada contra uma pessoa que utilizou o sistema de IA no decurso de uma atividade não profissional, a presunção aplica-se apenas quando o arguido interferiu nas condições de funcionamento do sistema, ou quando estava em condições de determinar as condições de funcionamento, e omitiu fazê-lo.</p>
            <p>É o propósito que inspira a proposta em discussão que suscita algumas dúvidas. A diretiva visa, de facto, regular dois aspectos, diríamos, marginais do fenómeno da "responsabilidade", sem ditar regras quanto aos aspectos que mais o caracterizam, presumivelmente para respeitar o princípio da subsidiariedade e não se colocar em conflito aberto com as tradições jurídicas dos Estados-membros individuais. Qualquer que seja a razão de ser de tal escolha, que não foi adoptada pelo legislador europeu, o que dela teria resultado seria ter vinte e sete — este é o número de Estados-Membros — regimes de responsabilidade diferentes em termos de pressupostos e disciplina, unidos pela simples referência a algumas obrigações que pesam sobre certos sujeitos (as mesmas indicadas pela Lei AI: eis o único, ínfimo, indício de alguma vontade de harmonização regulamentar), e a operação de algumas presunções, que podem, no entanto, ser refutadas pelo arguido, em relação à prova da culpa. Mesmo a opção por utilizar este elemento como critério de imputação da infração, em relação a tipos de danos causados por tecnologias altamente sofisticadas, de regras desenvolvidas em contextos empresariais complexos, não convence. Com efeito, dadas as constantes referências à regulamentação europeia e nacional pertinente nesta matéria, e mesmo tendo em conta a referida presunção, o sujeito a quem se dirige a ação de responsabilidade poderá ter facilidade em provar a sua própria diligência, bastando-lhe demonstrar que cumpriu as regras e os padrões de conduta constantes das disposições legislativas do setor. Esta «fraqueza» presente na proposta de diretiva também não parece poder ser reduzida simplesmente considerando que a mesma foi concebida para funcionar em conjunto com a nova diretiva relativa à responsabilidade do produtor, devidamente revista para se aplicar também a crimes causados pela inteligência artificial.</p>
            <p>Como tem sido sublinhado em muitos trabalhos sobre o assunto, esta última foi concebida para operar num sector específico (o dos bens de consumo), tarefa que desempenhou satisfatoriamente ao longo das décadas da sua existência, e a sua função seria desvirtuada se fosse transformada numa disciplina geral, com o risco de determinar – ainda que animada pelas melhores intenções – disfunções, tanto de ordem organizativa como “sistemática”, certamente não apreciáveis (<xref ref-type="bibr" rid="B14">Albanese, 2024, pp.15-17</xref>).</p>
            <p>O legislador europeu, contudo, considerou apropriado não implementar esta última iniciativa, deixando esta lacuna de responsabilidade em vigor no caso de o dano ter sido causado por um sistema que utiliza tecnologias de IA, deixando a sua possível sancionabilidade à implementação de recursos públicos. Quanto à proteção de situações individuais, a única solução praticável neste momento continua a ser recorrer às regras previstas nos vários sistemas jurídicos nacionais, com todas as questões críticas acima destacadas.</p>
        </sec>
        <sec>
            <title>4. A “codificação contextual” e a “personalização” da responsabilidade.</title>
            <p>Em conclusão – mas esta é obviamente uma conclusão interlocutória – pode dizer-se o seguinte: a questão da responsabilidade algorítmica tem sido objeto de atenção tanto da doutrina como do legislador (em particular, supranacional). Embora, numa perspectiva geral, a orientação doutrinal dominante tenha defendido a não necessidade de uma intervenção reguladora (perspectiva muito difundida entre os estudiosos do direito civil), considerações diferentes – e, a nosso ver, mais partilháveis – foram apresentadas por estudiosos que abordaram a questão de um ponto de vista mais especializado. Segundo estes últimos, aliás, e estas são opiniões partilhadas tanto pelos estudiosos do direito automóvel como pelos estudiosos do direito aeronáutico, precisamente pela particularidade da tecnologia em causa, seria oportuno que o legislador interviesse regulando a matéria com soluções "ad hoc". E isto para, por um lado, não desvirtuar as normas vigentes sobre a matéria e, por outro, evitar que a regulamentação do fenómeno fique a cargo das decisões dos juízes caso a caso. Esta última solução produziria incerteza quanto à regra a seguir e imprevisibilidade quanto à solução individual que poderia ser dada em cada caso concreto, com o consequente comprometimento da função tanto dissuasiva como sancionatória das regras de responsabilidade civil.</p>
            <p>Então, o que fazer? Na opinião do escritor, podem imaginar-se duas soluções, uma a ser seguida a curto prazo, outra a longo (demasiado longo?). A primeira é - pelo menos em teoria - muito simples. Enquanto se aguarda que as instituições supranacionais elaborem regulamentos específicos sobre a matéria, coerentes com outras disposições legislativas existentes e regulando aspetos diversos dos relativos ao dano, os legisladores nacionais individuais, especialmente o italiano, poderiam proceder da seguinte forma. Isto é, tendo em conta o conhecimento adquirido no domínio científico relevante, as propostas doutrinárias e a jurisprudência emergente sobre danos provenientes de dispositivos de inteligência artificial, elaborando, com base na legislação vigente, um regime que distinga a única regra de responsabilidade aplicável (por exemplo, a das atividades perigosas; a da responsabilidade subsidiária; ou da coisa em custódia) em função do tipo de tecnologia que, em termos concretos, causou o dano (se um sistema de alto ou baixo risco; se um agente de software cognitivo ou um robô que é uma mera ferramenta operacional – se se desejar, distinguindo também em função de o lesado ser um profissional ou um consumidor). Trata-se de uma solução mínima, que, evidentemente, não resolve o problema de uma vez por todas, mas que, no entanto, é candidata a desempenhar um papel diretivo na conduta dos indivíduos, tanto no que se refere à dos cidadãos-utilizadores não profissionais do direito, que estariam em condições de conhecer ex ante o tipo de sanção em que poderiam incorrer caso a utilização de determinado tipo de tecnologia acabasse por causar danos a terceiros. Talvez para os juízes, que seriam informados sobre qual a regra a aplicar consoante o caso prejudicial que fossem chamados a julgar.</p>
            <p>A segunda forma é um pouco mais complexa, mas, ainda assim, não é impossível (nem muito “ficção científica”) (<xref ref-type="bibr" rid="B24">Bem-Shahar; Porat, 2016, pp. 627-688</xref>; <xref ref-type="bibr" rid="B25">J. Mayer, 2022</xref>). Mas para o vislumbrar, é necessário alterar o ponto de observação, deixando de considerar os sistemas de IA como “mecanismos produtores de danos” e imaginandoos – também – como ferramentas para os prevenir, ou pelo menos para compreender a dinâmica da sua causalidade.</p>
            <p>A proposta seria a seguinte, a implementar em duas fases. Inicialmente, não se opondo às novas tecnologias, mas sim tornando-as funcionais para garantir os direitos e interesses das partes, utilizando algoritmos de IA e o Big Data que os alimenta, de forma a reconstruir a sequência causal que levou à ocorrência do evento lesivo. Posteriormente, ao utilizar estas tecnologias num contexto regulatório, implementando uma espécie de “codificação contextual” através da qual se constroem regras de responsabilidade “personalizadas”; regras, isto é, capazes de se adaptar ao evento danoso individual, orientando "<italic>ex ante</italic>" as ações dos indivíduos individualmente e, ao mesmo tempo, oferecendo ao juiz critérios para avaliar "<italic>ex post</italic>" a sua conformidade, ou não, com as mesmas. A ferramenta para implementar tais estratégias é a microdiretiva, ou seja, um tipo de regra gerada automaticamente por uma máquina inteligente e desenhada sobre o perfil comportamental do sujeito destinatário, que, ao combinar o complexo das suas interações na Internet com dados comportamentais recolhidos fora do universo digital, recolhidos através da utilização de dispositivos de monitorização contínua, é capaz de elaborar (e reelaborar) a regra perfeita em função da situação específica a regular (<xref ref-type="bibr" rid="B27">A. J. Casey e A. Niblett, 2017, pp. 1401-1448</xref>; <xref ref-type="bibr" rid="B28">A. J. Casey e A. Niblett, 2019, pp. 333-35</xref>).</p>
            <p>Enquanto se aguarda a criação de um código global de responsabilidade algorítmica – ainda que (parcialmente) algorítmico – onde se concorde que a ciência jurídica não é uma ciência neutra que exerce funções meramente cognitivas, mas uma ciência politicamente comprometida, cuja função é – também – elaborar modelos teóricos com função diretiva, cabe aos intérpretes a tarefa de preparar instrumentos e desenvolver categorias que permitam, por um lado, uma correta compreensão dos fenómenos observados e que, por outro, sejam de alguma utilidade tanto para os futuros legisladores como para os operadores práticos. Evitar a falácia da "familiaridade" que, ao levar-nos a recorrer a esquemas e categorias conhecidas para interpretar novos fenómenos, torna invisíveis para nós as suas novas características, impedindo assim, efetivamente, a sua correta compreensão.</p>
            <p>Lembrando que um dos propósitos que o direito é chamado a atingir – seja na forma de uma recodificação, ainda que parcial, seja na de uma reconceitualização de cunho sapiencial – é proteger os sujeitos mais fracos e vulneráveis, e não fortalecer a posição daqueles que já detêm o poder.</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other" id="fn02">
                <label>2</label>
                <p>É a tese mais comum na doutrina civil italiana: veja-se <xref ref-type="bibr" rid="B10">Ruffolo, 2017, pp.1-30</xref>; <xref ref-type="bibr" rid="B11">Ruffolo, 2019, pp. 1689-1704</xref>; no mesmo sentido, <xref ref-type="bibr" rid="B12">Amidei, 2019, pp. 1715-1726</xref>; <xref ref-type="bibr" rid="B13">Amidei, 2019b</xref>, pp. 63-106. Para uma análise crítica, <xref ref-type="bibr" rid="B14">Albanese, 2024, pp. 9-18</xref>;</p>
            </fn>
            <fn fn-type="other" id="fn03">
                <label>3</label>
                <p>A referência “para-regulamentar” encontra-se na Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, relativa às “Regras de direito civil para a robótica”. Na doutrina, veja, em geral: <xref ref-type="bibr" rid="B15">Teubner e Beckers, 2021, in part. p. 138 ss</xref>; na Italia, <xref ref-type="bibr" rid="B16">Monterossi, 2024, pp. 175-207</xref>, quem propõe aplicar o art. 2049 c. c. à responsabilidade por danos causados pela inteligência artificial.</p>
            </fn>
            <fn fn-type="other" id="fn04">
                <label>4</label>
                <p>A referência ‘para’normativa para a qual se encontra na Resolução do Parlamento Europeu de 20 de outubro de 2020, que contém recomendações à Comissão sobre um regime de responsabilidade civil para a inteligência artificial. Uma discussão crítica da proposta pode ser encontrada em <xref ref-type="bibr" rid="B17">D’Alfonso, 2022, pp. 179-182</xref>; <xref ref-type="bibr" rid="B18">D’Alfonso, 2022, pp. 48-51</xref>.</p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p>A referência ‘para’normativa para a qual se encontra na Proposta de Diretiva do Parlamento Europeu e do Conselho relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial (Diretiva relativa à responsabilidade pela inteligência artificial). Sobre este tema se pode ler <xref ref-type="bibr" rid="B09">Albanese, 2023</xref>, pp. 560-562.</p>
            </fn>
            <fn fn-type="other" id="fn06">
                <label>6</label>
                <p>Segundo o qual esta regra só se aplicará quando a atividade for em si mesma considerada perigosa, independentemente da utilização de inteligência artificial na sua execução. Outra situação concebível poderia, contudo, dizer respeito ao caso em que uma atividade, não perigosa em si mesma, se torna perigosa precisamente porque é realizada por meio de inteligência artificial.</p>
            </fn>
            <fn fn-type="other" id="fn07">
                <label>7</label>
                <p><xref ref-type="bibr" rid="B07">Gentili, <italic>2024</italic>, pp. 1055-1057</xref> (sobre o problema geral de atribuir uma subjectividade/personalidade jurídica a uma ''máquina''); pp. 1064-1065 (com especial atenção ao problema da atribuição de responsabilidade).</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>Referências Bibliográficas</title>
            <ref id="B01">
                <mixed-citation>CALABRESI, Guido; AL MUREDEN, Enrico. <bold>Driverless cars:</bold> intelligenza artificiale e futuro della mobilità. 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CALABRESI</surname>
                            <given-names>Guido</given-names>
                        </name>
                        <name>
                            <surname>AL MUREDEN</surname>
                            <given-names>Enrico</given-names>
                        </name>
                    </person-group>
                    <source><bold>Driverless cars:</bold> intelligenza artificiale e futuro della mobilità</source>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B02">
                <mixed-citation>LA TORRE, Umberto et al. Navi senza equipaggio e Shore Control Operator. <bold>Diritto Dei Trasporti</bold>, v. 2, n. 2, p. 487-518, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LA TORRE</surname>
                            <given-names>Umberto</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Navi senza equipaggio e Shore Control Operator</article-title>
                    <source>Diritto Dei Trasporti</source>
                    <volume>2</volume>
                    <issue>2</issue>
                    <fpage>487</fpage>
                    <lpage>518</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B03">
                <mixed-citation>LA TORRE, U. et al. La navigazione degli UAV: un’occasione di riflessione sull’art. 965 c. nav. in tema di danni a terzi sulla superficie. <bold>Rivista del diritto della navigazione</bold>, v. 2, n. II, p. 553-575, 2012.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>LA TORRE</surname>
                            <given-names>U.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>La navigazione degli UAV: un’occasione di riflessione sull’art. 965 c. nav. in tema di danni a terzi sulla superficie</article-title>
                    <source>Rivista del diritto della navigazione</source>
                    <volume>2</volume>
                    <issue>II</issue>
                    <fpage>553</fpage>
                    <lpage>575</lpage>
                    <year>2012</year>
                </element-citation>
            </ref>
            <ref id="B04">
                <mixed-citation>WU, Tim. <bold>La maledizione dei giganti</bold>: un manifesto per la concorrenza e la democrazia. Bologna: il Mulino, 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>WU</surname>
                            <given-names>Tim</given-names>
                        </name>
                    </person-group>
                    <source><bold>La maledizione dei giganti</bold>: un manifesto per la concorrenza e la democrazia</source>
                    <publisher-loc>Bologna</publisher-loc>
                    <publisher-name>il Mulino</publisher-name>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B05">
                <mixed-citation>NIVARRA, Luca et al. <bold>Diritto privato e capitalismo</bold>. Regole giuridiche e paradigmi di mercato. Napole: Editoriale scientifica srl, 2010.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>NIVARRA</surname>
                            <given-names>Luca</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <source>Diritto privato e capitalismo</source>
                    <chapter-title>Regole giuridiche e paradigmi di mercato</chapter-title>
                    <publisher-loc>Napole</publisher-loc>
                    <publisher-name>Editoriale scientifica srl</publisher-name>
                    <year>2010</year>
                </element-citation>
            </ref>
            <ref id="B06">
                <mixed-citation>QUARTA, Alessandra; SMORTO, Guido. <bold>Diritto privato dei mercati digitali</bold>. Seconda edizione. Milano: Le Monnier Universitá, 2024.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>QUARTA</surname>
                            <given-names>Alessandra</given-names>
                        </name>
                        <name>
                            <surname>SMORTO</surname>
                            <given-names>Guido</given-names>
                        </name>
                    </person-group>
                    <source>Diritto privato dei mercati digitali</source>
                    <edition>Seconda edizione</edition>
                    <publisher-loc>Milano</publisher-loc>
                    <publisher-name>Le Monnier Universitá</publisher-name>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B07">
                <mixed-citation>GENTILI, Aurelio. Regole per l’intelligenza artificiale. <bold>Contratto e Impresa</bold>, v. 40, n. 4, 2024, p. 1043-1069.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>GENTILI</surname>
                            <given-names>Aurelio</given-names>
                        </name>
                    </person-group>
                    <article-title>Regole per l’intelligenza artificiale</article-title>
                    <source>Contratto e Impresa</source>
                    <volume>40</volume>
                    <issue>4</issue>
                    <year>2024</year>
                    <fpage>1043</fpage>
                    <lpage>1069</lpage>
                </element-citation>
            </ref>
            <ref id="B08">
                <mixed-citation>SMORTO, Guido et al. Distribuzione del rischio e tutela dei diritti nel regolamento europeo sull’intelligenza artificiale: una riflessione critica. <bold>Il Foro Italiano</bold>, n. 5, p. 208-220, 2024.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>SMORTO</surname>
                            <given-names>Guido</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Distribuzione del rischio e tutela dei diritti nel regolamento europeo sull’intelligenza artificiale: una riflessione critica</article-title>
                    <source>Il Foro Italiano</source>
                    <issue>5</issue>
                    <fpage>208</fpage>
                    <lpage>220</lpage>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B09">
                <mixed-citation>ALBANESE, Antonio. La responsabilità civile per l’uso di sistemi di intelligenza artificiale. <italic>In:</italic> BOCCHINI, Roberto. (a cura di). <bold>Manuale di diritto privato dell’informatica</bold>. Napoli: Edizioni Scientifiche Italiane, 2023. p. 559 ss.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ALBANESE</surname>
                            <given-names>Antonio</given-names>
                        </name>
                    </person-group>
                    <chapter-title>La responsabilità civile per l’uso di sistemi di intelligenza artificiale</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>BOCCHINI</surname>
                            <given-names>Roberto</given-names>
                        </name>
                    </person-group>
                    <source>Manuale di diritto privato dell’informatica</source>
                    <publisher-loc>Napoli</publisher-loc>
                    <publisher-name>Edizioni Scientifiche Italiane</publisher-name>
                    <year>2023</year>
                    <fpage>559</fpage>
                    <lpage>559</lpage>
                </element-citation>
            </ref>
            <ref id="B10">
                <mixed-citation>RUFFOLO, Ugo. Per i fondamenti di un diritto della robotica self-learning: dalla machinery produttiva all’auto driverless. Verso una responsabilità da algoritmo? <italic>In:</italic> RUFFOLO, Ugo. (a cura di). <bold>Intelligenza artificiale e responsabilità</bold>, v. 27, 2017.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RUFFOLO</surname>
                            <given-names>Ugo</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Per i fondamenti di un diritto della robotica self-learning: dalla machinery produttiva all’auto driverless</chapter-title>
                    <comment>Verso una responsabilità da algoritmo?</comment>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>RUFFOLO</surname>
                            <given-names>Ugo</given-names>
                        </name>
                    </person-group>
                    <source>Intelligenza artificiale e responsabilità</source>
                    <volume>27</volume>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B11">
                <mixed-citation>RUFFOLO, Ugo. Intelligenza Artificiale, machine learning e responsabilità da algoritmo. <bold>Giurisprudenza Italiana</bold>, v. 7, p. 1657, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>RUFFOLO</surname>
                            <given-names>Ugo</given-names>
                        </name>
                    </person-group>
                    <article-title>Intelligenza Artificiale, machine learning e responsabilità da algoritmo</article-title>
                    <source>Giurisprudenza Italiana</source>
                    <volume>7</volume>
                    <fpage>1657</fpage>
                    <lpage>1657</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B12">
                <mixed-citation>AMIDEI, Andrea. Intelligenza artificiale e product liability: sviluppi del diritto dell’Unione Europea. <bold>Giurisprudenza Italiana</bold>, v. 1725, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>AMIDEI</surname>
                            <given-names>Andrea</given-names>
                        </name>
                    </person-group>
                    <article-title>Intelligenza artificiale e product liability: sviluppi del diritto dell’Unione Europea</article-title>
                    <source>Giurisprudenza Italiana</source>
                    <volume>1725</volume>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B13">
                <mixed-citation>AMIDEI, Andrea. Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo. In: RUFFOLO (a cura di). <bold>Intelligenza artificiale e responsabilità civile</bold>. Milano, 2017.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>AMIDEI</surname>
                            <given-names>Andrea</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>RUFFOLO</surname>
                        </name>
                    </person-group>
                    <source>Intelligenza artificiale e responsabilità civile</source>
                    <publisher-loc>Milano</publisher-loc>
                    <year>2017</year>
                </element-citation>
            </ref>
            <ref id="B14">
                <mixed-citation>ALBANESE, Antonio et al. Le categorie del diritto privato alla prova delle nuove tecnologie. Contratto e “torto” nell’economia digitale. <bold>Nuovo Diritto Civile</bold>, v. 2024, n. 3, p. 9-18, 2024.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>ALBANESE</surname>
                            <given-names>Antonio</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Le categorie del diritto privato alla prova delle nuove tecnologie. Contratto e “torto” nell’economia digitale</article-title>
                    <source>Nuovo Diritto Civile</source>
                    <volume>2024</volume>
                    <issue>3</issue>
                    <fpage>9</fpage>
                    <lpage>18</lpage>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B15">
                <mixed-citation>BECKERS, Anna; TEUBNER, Gunther. <bold>Three liability regimes for artificial intelligence:</bold> algorithmic actants, hybrids, crowds. Bloomsbury Publishing, 2021.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BECKERS</surname>
                            <given-names>Anna</given-names>
                        </name>
                        <name>
                            <surname>TEUBNER</surname>
                            <given-names>Gunther</given-names>
                        </name>
                    </person-group>
                    <source><bold>Three liability regimes for artificial intelligence:</bold> algorithmic actants, hybrids, crowds</source>
                    <publisher-name>Bloomsbury Publishing</publisher-name>
                    <year>2021</year>
                </element-citation>
            </ref>
            <ref id="B16">
                <mixed-citation>MONTEROSSI, Michael William. Il risarcimento del danno da intelligenza artificiale nella prospettiva della responsabilità vicaria. <bold>Jus Civile</bold>, n. 1, p. 175-207, 2024.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MONTEROSSI</surname>
                            <given-names>Michael William</given-names>
                        </name>
                    </person-group>
                    <article-title>Il risarcimento del danno da intelligenza artificiale nella prospettiva della responsabilità vicaria</article-title>
                    <source>Jus Civile</source>
                    <issue>1</issue>
                    <fpage>175</fpage>
                    <lpage>207</lpage>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B17">
                <mixed-citation>D’ALFONSO, Giovanna. Intelligenza artificiale e responsabilità civile. Prospettive europee. <bold>Revista de Estudios Jurídicos y Criminológicos</bold>, n. 6, Universidad de Cádiz, 2022, pp. 163195. DOI:https://doi.org/10.25267/REJUCRIM.2022.i6.06.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>D’ALFONSO</surname>
                            <given-names>Giovanna</given-names>
                        </name>
                    </person-group>
                    <conf-name>Intelligenza artificiale e responsabilità civile. Prospettive europee</conf-name>
                    <source>Revista de Estudios Jurídicos y Criminológicos</source>
                    <issue>6</issue>
                    <publisher-name>Universidad de Cádiz</publisher-name>
                    <year>2022</year>
                    <fpage>163195</fpage>
                    <lpage>163195</lpage>
                    <pub-id pub-id-type="doi">10.25267/REJUCRIM.2022.i6.06</pub-id>
                </element-citation>
            </ref>
            <ref id="B18">
                <mixed-citation>D'ALFONSO, Giovanna. Danni algoritmici e sviluppi normativi europei tra “liability” e “permittance" rules. <bold>European Journal of Privacy Law &amp; Technologies</bold>, v. 2022, n. 2, p. 18-66, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>D'ALFONSO</surname>
                            <given-names>Giovanna</given-names>
                        </name>
                    </person-group>
                    <article-title>Danni algoritmici e sviluppi normativi europei tra “liability” e “permittance" rules</article-title>
                    <source>European Journal of Privacy Law &amp; Technologies</source>
                    <volume>2022</volume>
                    <issue>2</issue>
                    <fpage>18</fpage>
                    <lpage>66</lpage>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B19">
                <mixed-citation>DEL FEDERICO, C. Intelligenza Artificiale e Responsabilità Civile. Alcune osservazioni sulle attuali proposte europee. <bold>Jus civile</bold>, v. 5, p. 1029-1046, 2023.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>DEL FEDERICO</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <article-title>Intelligenza Artificiale e Responsabilità Civile. Alcune osservazioni sulle attuali proposte europee</article-title>
                    <source>Jus civile</source>
                    <volume>5</volume>
                    <fpage>1029</fpage>
                    <lpage>1046</lpage>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B20">
                <mixed-citation>NICHOLAS, Hilyard. The First Byte Rule: A Proposal for Liability of Artificial Intelligences. <bold>Wm. &amp; Mary Bus. L. Rev</bold>., v. 15, p. 189, 2023.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>NICHOLAS</surname>
                            <given-names>Hilyard</given-names>
                        </name>
                    </person-group>
                    <article-title>The First Byte Rule: A Proposal for Liability of Artificial Intelligences</article-title>
                    <source>Wm. &amp; Mary Bus. L. Rev</source>
                    <volume>15</volume>
                    <fpage>189</fpage>
                    <lpage>189</lpage>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B21">
                <mixed-citation>FERRARI, Alessandro; LUSARDI, Giacomo. Che responsabilità possono derivare dal malfunzionamento dei sistemi di AI? <italic>In:</italic>
                    <bold>ome preparare la propria azienda alla digital revolution. Opportunità, obblighi e rischi dell’intelligenza artificiale</bold>. Padova: Wolters Kluwer Italia, 2019.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>FERRARI</surname>
                            <given-names>Alessandro</given-names>
                        </name>
                        <name>
                            <surname>LUSARDI</surname>
                            <given-names>Giacomo</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Che responsabilità possono derivare dal malfunzionamento dei sistemi di AI?</chapter-title>
                    <source>ome preparare la propria azienda alla digital revolution. Opportunità, obblighi e rischi dell’intelligenza artificiale</source>
                    <publisher-loc>Padova</publisher-loc>
                    <publisher-name>Wolters Kluwer Italia</publisher-name>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B22">
                <mixed-citation>D’AQUINO, Pasquale Serrao. Responsabilità civile e IA. La posizione dell’Unione Europea. <italic>In:</italic> Scuola Superiore della Magistratura (SSM). <bold>Rapporti patrimoniali e nuove tecnologie</bold>, v. 31. Roma, 2024.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>D’AQUINO</surname>
                            <given-names>Pasquale Serrao</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Responsabilità civile e IA. La posizione dell’Unione Europea</chapter-title>
                    <source>Scuola Superiore della Magistratura (SSM)</source>
                    <publisher-name>Rapporti patrimoniali e nuove tecnologie</publisher-name>
                    <volume>31</volume>
                    <publisher-loc>Roma</publisher-loc>
                    <year>2024</year>
                </element-citation>
            </ref>
            <ref id="B23">
                <mixed-citation>COSTANZA, Maria. L’intelligenza artificiale e gli stilemi della responsabilità civile. <bold>Giurisprudenza Italiana</bold>, v. 7, p. 1686, 2019.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>COSTANZA</surname>
                            <given-names>Maria</given-names>
                        </name>
                    </person-group>
                    <article-title>L’intelligenza artificiale e gli stilemi della responsabilità civile</article-title>
                    <source>Giurisprudenza Italiana</source>
                    <volume>7</volume>
                    <fpage>1686</fpage>
                    <lpage>1686</lpage>
                    <year>2019</year>
                </element-citation>
            </ref>
            <ref id="B24">
                <mixed-citation>BEN-SHAHAR, Omri; PORAT, Ariel. Personalizing negligence law. <bold>New York University Law Review</bold>, v. 91, n. 3, 2016, p. 627-688.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>BEN-SHAHAR</surname>
                            <given-names>Omri</given-names>
                        </name>
                        <name>
                            <surname>PORAT</surname>
                            <given-names>Ariel</given-names>
                        </name>
                    </person-group>
                    <article-title>Personalizing negligence law</article-title>
                    <source>New York University Law Review</source>
                    <volume>91</volume>
                    <issue>3</issue>
                    <year>2016</year>
                    <fpage>627</fpage>
                    <lpage>688</lpage>
                </element-citation>
            </ref>
            <ref id="B25">
                <mixed-citation>MAYER, Jared I. Implementing personalized negligence law? <bold>University of Chicago Law Review Online</bold>, 2022.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>MAYER</surname>
                            <given-names>Jared I.</given-names>
                        </name>
                    </person-group>
                    <article-title>Implementing personalized negligence law?</article-title>
                    <source>University of Chicago Law Review Online</source>
                    <year>2022</year>
                </element-citation>
            </ref>
            <ref id="B26">
                <mixed-citation>CASEY, Anthony J.; NIBLETT, Anthony. Self-driving laws. <bold>University of Toronto Law Journal</bold>, v. 66, n. 4, p. 429-442, 2016. Disponível em:https://ssrn.com/abstract=2804674.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CASEY</surname>
                            <given-names>Anthony J.</given-names>
                        </name>
                        <name>
                            <surname>NIBLETT</surname>
                            <given-names>Anthony</given-names>
                        </name>
                    </person-group>
                    <article-title>Self-driving laws</article-title>
                    <source>University of Toronto Law Journal</source>
                    <volume>66</volume>
                    <issue>4</issue>
                    <fpage>429</fpage>
                    <lpage>442</lpage>
                    <year>2016</year>
                    <comment>Disponível em:<ext-link ext-link-type="uri" xlink:href="https://ssrn.com/abstract=2804674">https://ssrn.com/abstract=2804674</ext-link></comment>
                </element-citation>
            </ref>
            <ref id="B27">
                <mixed-citation>CASEY, Anthony J.; NIBLETT, Anthony. The death of rules and standards. <bold>Indiana Law Journal</bold>, 2017, p. 1401-1448.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CASEY</surname>
                            <given-names>Anthony J.</given-names>
                        </name>
                        <name>
                            <surname>NIBLETT</surname>
                            <given-names>Anthony</given-names>
                        </name>
                    </person-group>
                    <article-title>The death of rules and standards</article-title>
                    <source>Indiana Law Journal</source>
                    <year>2017</year>
                    <fpage>1401</fpage>
                    <lpage>1448</lpage>
                </element-citation>
            </ref>
            <ref id="B28">
                <mixed-citation>CASEY, Anthony J.; NIBLETT, Anthony. A framework for the new personalization of law. <bold>University of Chicago Law Review</bold>, 2019, p. 333-358.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>CASEY</surname>
                            <given-names>Anthony J.</given-names>
                        </name>
                        <name>
                            <surname>NIBLETT</surname>
                            <given-names>Anthony</given-names>
                        </name>
                    </person-group>
                    <article-title>A framework for the new personalization of law</article-title>
                    <source>University of Chicago Law Review</source>
                    <year>2019</year>
                    <fpage>333</fpage>
                    <lpage>358</lpage>
                </element-citation>
            </ref>
        </ref-list>
    </back>
</article>
