Maria Cláudia Cachapuz**

I.

Há alguns dias, o fundador da plataforma de criptomoedas Tron adquiriu e ingeriu uma obra de arte avaliada em mais de seis milhões de dólares. Tratava-se da obra “Comedian”, de autoria de Maurizio Cattelan, representada por uma banana presa na parede por uma fita aderente. Antes da ingestão da fruta, o adquirente comprou os direitos de disposição sobre a obra, mediante emissão de NFTs (Non-fungible tokens), garantindo-lhe certificado de autenticidade sobre o bem e autorização para reprodução da instalação em qualquer outro sítio. Não foi a primeira vez que comeram a mesma banana – sempre reposta, por tratar-se de bem fungível, em razão de sua perecibilidade –, mas, sem dúvida, é a primeira ingestão da fruta com um significado de controle monetário externo sobre a própria arte: a obra é agora um selo de autenticidade, eternizada em meio digital.

O gesto de transformação da obra de arte física em digital, mediante sua destruição efetiva, não é novo e acompanha um movimento organizado e estimulado de (re)comercialização no mercado artístico, iniciado ainda no começo desta década. Em 2021, um coletivo de artistas, após aquisição de um rascunho de autoria de Picasso em leilão público, queimou a obra e perpetuou o ato – novamente por meio de NFTs – digitalmente. Conforme afirmação dos titulares dos direitos digitais da obra, o objetivo do ato era o de tornar a obra “eternizada”[1] no mundo digital. Depois da intervenção, apenas as cinzas de Fumeur V, de Picasso, conseguem ainda contar a história da perenidade da obra do artista no mundo físico.

Esse fenômeno destrutivo pela inovação[2] é a tônica, segundo Ferry[3], da lógica das sociedades modernas em todos os níveis. Há, num primeiro momento, uma intenção clara de progresso, que permite identificar o lado positivo de qualquer conquista tendente à qualificação do estado das coisas – no acesso à informação, no avanço da tecnologia de ponta, na cura de doenças, na promoção de conforto, na diminuição das distâncias, na aproximação de interesses. Mas, em seguida, surge a inevitável preocupação de como controlar os avanços pelo progresso da pesquisa e dos argumentos, evitando-se uma associação direta desse futuro à lógica de uma “inovação pela inovação”[4]. O problema é quando o intérprete, tardiamente, dá-se conta do avanço e, em tempos de novas tecnologias, apenas consegue lidar com as cinzas do atropelo.

II.

Quando a comunidade jurídica internacional alcançou um relativo consenso pelo Parlamento Europeu, por meio de resolução normativa[5], no sentido de que fossem estabelecidas disposições de Direito Civil sobre Robótica, por ser “necessário criar uma definição geralmente aceite de robô e de Inteligência Artificial (IA) que seja flexível e não crie obstáculos à inovação” (Resolução 2015/2013 – INL)[6], de certa forma, observou-se que, mais do que uma margem de decisão, encontrava-se adotada uma tomada clara de posição tendente ao estabelecimento de diretrizes gerais de cunho utilitarista no tema. Por essa lógica, ter-se-ía uma racionalidade voltada para fins específicos, no que se identificaria uma perigosa transigência sobre o estabelecimento de novas formas políticas de vida. Na medida em que não haveria como frear o avanço das novas tecnologias em razão dos desejos de progresso estabelecidos e impostos pelo próprio mercado, restaria apenas lidar com os prejuízos identificáveis para futuro, imaginando-se um ordenamento jurídico sustentado por um sistema de garantias[7].

Uma tentativa de correção de rumos veio com as edições posteriores das Resoluções nº 2020/2012[8], 2020/2014[9] e 2020/2015[10], em que o Parlamento Europeu, mesmo timidamente, resgatou o sentido de precaução frente aos avanço das técnicas de aplicação de produtos e serviços digitais nas relações entre os indivíduos. Nessa tarefa, buscou uma regulamentação estatal mais ampla, voltada a exigir alguns pressupostos de garantia, no âmbito das relações de comércio e de consumo, para a interferência na forma do desenvolvimento e de controle sobre produtos e serviços digitais que atuem inclusive por meio da aplicação de sistemas de IA – situação reafirmada pelo texto do Digital Services Act (DSA)[11]. Ainda assim, é nítida a preocupação da União Europeia de manter o desenvolvimento tecnológico com portas amplas[12], sob pena de atropelo econômico por outros grupos ou blocos de interesse. Mesmo receosos quanto ao descontrole humano sobre a autonomia dos processos digitais, há um medo ainda maior de um descontrole efetivo sobre o rumo de progresso a ser adotado, pela intervenção demasiada do Estado sobre a autonomia privada, da própria hegemonia comunitária na Europa e de sua possibilidade de concorrência efetiva no mercado internacional. Portanto, é também um problema de distribuição do controle tecnológico entre parceiros econômicos.

Seguindo essa mesma orientação de mercado, constata-se que, mesmo havendo uma preocupação de elucidar, do ponto de vista moral, os critérios adotados para analisar situações que possam enfrentar os temas (i) do igual interesse de cada um e (ii) do igualmente bom para todos em sociedade, parece não existir mais uma convicção segura do porquê se deva permanecer moral a partir de uma ética universalista a priori. Como acentua Ferry, a pergunta em aberto, na contemporaneidade digital, diz respeito a “como recuperar o controle do curso de um mundo que nos escapa e para fazer o quê?”[13].

Os reflexos dessa compreensão, no campo jurídico, em que existente uma preocupação concreta com o alcance do exercício de liberdades e de posições jurídicas de igualdade, a partida hermenêutica, quase de forma automática, acaba considerando a imposição necessária de uma realidade tecnológica de vida nova, aceita e compartilhada em sociedade. Não há uma defesa clara à adoção de restrições jurídicas que atinjam o avanço tecnológico de forma direta – isso resultaria em uma contrariedade atual aos próprios interesses de progresso[14] –, mas apenas considerações quanto (i) à necessidade de regulação voltada ao campo dos efeitos danosos, como é próprio ao instituto jurídico da responsabilidade civil; e (ii) à ampliação do ambiente em que reconhecidos os espaços de compartilhamento de liberdades (reais e virtuais) e os seres que os habitam (reais e virtuais). E é dessa condição fático-jurídica, a partir de um certo receio sobre o que se esperar dos novos processos tecnológicos, que se vê a disciplina contemporânea para o estabelecimento de novos freios normativos, ponderados e negociados com o próprio mercado.

Por isso mesmo, uma das questões centrais, pertinente aos conflitos de liberdade entre as pessoas nos espaços de convivência contemporâneos, diz respeito à problemática ausência de interpretação, a priori, quanto à necessidade de que sempre se teste, preliminarmente, a possibilidade de uma universalização do exercício de uma liberdade quando em colidência com a liberdade de outrem – situação clássica em termos de Direito Privado. Principalmente em ambientes virtuais, em que identificada uma tendência à fragmentação dos processos comunicativos[15], observa-se maior dificuldade de compartilhamento de experiências que partam da compreensão prévia de que se deva conviver em uma comunidade moral, definida como um agrupamento de indivíduos livres e iguais, em que as pessoas se sintam obrigadas a tratar uns aos outros como fins em si mesmos.

Isto se dá porque a edição de normas supranacionais voltadas à disciplina de uso de novas tecnologias tem, estrategicamente, partido de pressupostos finalísticos bastante definidos – por vezes, retoricamente, ocultados -, evidenciando um certo receio de como o indivíduo deve se comportar em face do cenário público (político, jurídico) existente e do ambiente (tecnológico) que está por vir. Como evidenciado nos preâmbulos das resoluções antes referidas, torna-se evidente que se estabelece, igualmente por estratégia de mercado, um consenso preliminar quanto (i) à possibilidade real de ultrapassagem da capacidade intelectual humana pelo desenvolvimento de uma racionalidade própria à robótica e quanto (ii) à necessidade de estabelecimento de garantias à (re)inserção do controle humano nos processos decisórios automatizados e definidos por operações algorítmicas. Um exercício jurídico, portanto, que não está mais centrado no teste da universalização das causas originárias desta necessidade de controle – o que se daria pela tônica normativa voltada à determinação de freios claros ao avanço dessa tecnologia –, mas que se traduz numa preocupação com o campo específico dos efeitos – e, portanto, voltada com maior ênfase à análise reservada aos prejuízos decorrentes da utilização dessa tecnologia.

III.

Não é difícil concluir, portanto, o porquê da aceleração legislativa sobre a inovação quanto à adoção de normas que regulem as atividades entre privados – no que se filia a corrente defensora de uma nova codificação civil que abranja, inclusive, um livro próprio de Direito Digital. A construção de uma disciplina normativa, em tempos de automação e de produção em massa de produtos e serviços digitais, tem seguido, mesmo com aparente tempo de maturação disponível, idêntica metodologia adaptativa de momentos de excepcionalidade de tomada de decisão por situações globais de emergência – como a recente experiência vivida em tempos de pandemia[16]. Ou seja, trata-se de uma pretensão normativa estabelecida por meio de discussões aceleradas e reativas ao desenvolvimento tecnológico do mercado, por vezes sem a possibilidade (ou interesse) de, mediante a reflexão universal necessária, ponderar a efetiva necessidade e adequação do ordenamento jurídico existente à alegada realidade nova. Há, seguindo a mesma tônica de inovação destruidora[17], preocupação única de responder, na média – portanto, de forma medíocre –, às exigências do mercado, como se a complexidade das discussões jurídicas propostas no meio digital pudessem ser atendidas, na mesma prerrogativa algorítmica[18], por meio de uma equação binária. Ou mesmo pior: como se não houvesse, na codificação contemporânea, ferramentas jurídicas suficientes à discussão do problema posto.

Nisso, provavelmente, resida a questão central: ferramentas jurídicas existem. A questão talvez seja identificar se o intérprete, frente às limitações ou interesses empíricos estabelecidos pelo mercado, consegue efetuar a descarga argumentativa necessária e adequada para a resolução de casos difíceis do meio digital. Sendo esse o problema, contudo, nem com a edição de um código novo se alcançarão respostas jurídicas suficientes.

Partindo-se do pressuposto de que não se pretende estimular o comportamento polarizado pela adoção de um pensamento pré-ético[19], dois caminhos se afigurariam possíveis na pretensão de normatização dos conflitos que envolvem informação e novas abordagens tecnológicas. O primeiro, mais estratégico – e, por isso mesmo, sempre arriscado em perspectiva futura –, tem em conta uma realidade fática admitida a partir de um consenso quanto a avanços tecnológicos, em que se evidencia um teste pela universalização condicionada de comportamentos e pela partilha de responsabilidade entre partícipes. Nesse caminho, há um movimento no sentido de efetuar-se um teste moral mínimo a priori, em que pressuposta a aceitação de manutenção de uma esfera pública politicamente estruturada – e distinta do âmbito social –, muito embora se identifique um universo interessado e mais restrito de atuação estatal para a busca de uma solução ao conflito individual. É, portanto, uma via que, juridicamente, permite alguns freios institucionais, mas mede riscos de controle à própria atuação de um poder institucional por interesses previamente definidos pelo mercado. Algo muito próximo dos ideais de quem defenda uma autonomia ao Direito Digital – como se houvesse estatuto próprio à personalidade em termos virtuais – e corra o risco de uma “inovação pela inovação”[20].

O segundo caminho pressupõe, de forma mais cautelosa, a restauração do estado das coisas com maior intervenção de um poder estatal, sendo central a preocupação de proteção à autodeterminação individual numa perspectiva comunitária e intersubjetiva, com tônica forte de interpretação pelo teste da universalização a partir de uma tomada de decisão desinteressada. É, por consequência, uma tendência de resgate a ideais de modernidade como contraponto à razão prática imposta pelo progresso tecnológico, justamente por reconhecer, de forma prévia, uma ameaça real às estruturas de um Estado de Direito que se pretenda estabelecido, não retoricamente, em bases democráticas. Esse caminho, de fato, exige um desafio argumentativo mais complexo ao indivíduo e às nações e, talvez por isso, apresente uma dificuldade de compreensão estrutural, quanto à sua manutenção, igualmente difícil, ainda que necessária. Parte, por consequência, da compreensão de que, mesmo imperfeita, a democracia representativa não deve ser abandonada como projeto de sociedade, mas aprimorada pelo debate público, o que demanda a realização de um teste permanente de universalização das condutas no âmbito público.

IV.

Quando se identifica a possibilidade de que a mesma situação de reconhecimento de ausência de controle de uma esfera pública por representação deliberativa possa conduzir à representação direta por meio de um movimento do controle da opinião pública forjado por um desenho algorítmico em plataformas digitais – como identificado por Da Empoli[21], no exemplo italiano do Movimento 5 Estrelas e nos atuais movimentos político-administrativos norte-americanos[22] –, há que se questionar, com urgência, em que medida é possível se depositar o controle de restrição a direitos subjetivos nas mãos do mercado. Reconhecer a possibilidade de existência de uma gestão estratégica dos fluxos de informação é situação suficiente para exigir-se do intérprete jurídico um teste de universalização amplo quando imposta a adoção de práticas novas em termos tecnológicos. Isso permite que se compreenda que a proteção da esfera privada do indivíduo, para assegurar efetividade de tutela, demanda mais do que uma simples substituição do direito geral de liberdade negativa por uma concepção concreta de liberdade. É necessário que a liberdade negativa seja uma condição necessária, mesmo que não suficiente[23], ao alcance de efetiva dignidade à pessoa humana.

Essa abertura predisposta ao intérprete jurídico só é possível se houver uma compreensão clara quanto ao sistema de restrições a direitos fundamentais e “uma associação autodeterminante de parceiros de direito livres, na condição de colegisladores democráticos, que devem em última instância conceder liberdade a si próprios pela distribuição igualitária dos direitos subjetivos segundo leis universais”[24] – o que exige pré-compreensão em termos de consistência e coerência argumentativa.

Imagine-se se, com o tempo, o próprio fumeur de Picasso, na realidade virtual, reste por queimar as últimas cinzas sobreviventes da obra de arte no meio físico. Com certeza, logo adiante, o intérprete normativo, obsoleto juridicamente, não terá mais condição ou tempo de freá-lo a contento.

** Professora da graduação e pós-graduação da Faculdade de Direito da UFRGS, Brasil. Professora do Mestrado em Direito e Segurança da Informação da Universidade Europeia, Portugal. Magistrada do TJRS, Brasil.

[1] Manifestação do Grupo Fractal Studios. The Burned Picasso lives Forever on the blockchain. YouTube, 15 de julho de 2021. Disponível em https://youtu.be/h2FmBHG7Gkk. Acesso em 13.12.2024.

[2] Construção teórica apresentada por Luc Ferry, inspirada em: SCHUMPETER, Joseph. Capitalismo, Socialismo e Democracia. São Paulo: Editora Unesp, 2017.

[3] FERRY, Luc. A Inovação Destruidora. Ensaio sobre a lógica das sociedades modernas. Rio de Janeiro: Editora Objetiva, 2015.

[4] FERRY, Luc. A Inovação Destruidora. Ensaio sobre a lógica das sociedades modernas. Rio de Janeiro: Editora Objetiva, 2015, p. 22.

[5] Resolução do Parlamento Europeu, de 16.02.2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (Resolução 2015/2013 – INL). Disponível em: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html. Acesso em 17.09.2024.

[6] Resolução do Parlamento Europeu, de 16.02.2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (Resolução 2015/2013 – INL), Introdução, alínea C. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html. Acesso em 17.09.2024.

[7] Resolução do Parlamento Europeu, de 16.02.2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (Resolução 2015/2013 – INL), Introdução, alínea M Disponível em: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html. Acesso em 17.09.2024.

[8] Resolução do Parlamento Europeu, de 20.10.2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas (Resolução 2020/2012 – INL). Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_PT.html. Acesso em 17.09.2024.

[9] Resolução do Parlamento Europeu, de 20.10.2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial (Resolução 2020/2014 – INL) Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_PT.html. Acesso em 17.09.2024.

[10] Resolução do Parlamento Europeu, de 20.10.2020, que contém recomendações à Comissão sobre os direitos de propriedade intelectual para o desenvolvimento de tecnologias ligadas à inteligência artificial (Resolução 2020/2015 – INL). Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0277_PT.html. Acesso em 17.09.2024.

[11] Regulamento (UE) 2022/2065 do Parlamento Europeu e do Conselho de 19 de outubro de 2022, relativo a um mercado único para os serviços digitais e que altera a Diretiva 2000/31/CE (Regulamento dos Serviços Digitais). Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=celex%3A32022R2065. Acesso em 09.02.2025.

[12] Resolução do Parlamento Europeu, de 20.10.2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas (Resolução 2020/2012 – INL), Introdução, alínea B. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_PT.html. Acesso em 17.09.2024.

[13] FERRY, Luc. A Inovação Destruidora. Ensaio sobre a lógica das sociedades modernas. Rio de Janeiro: Editora Objetiva, 2015, p. 61.

[14] RUSSEL, Stuart. Inteligência Artificial a Nosso Favor. Como manter o controle sobre a tecnologia. São Paulo: Companhia das Letras, 2021.

[15] HABERMAS, Jürgen. Uma Nova Mudança Estrutural da Esfera Pública e a Política Deliberativa. São Paulo: Editora Unesp, 2023, p. 62.

[16] HARARI, Yuval Noah et al. Pause Giant AI Experiments: an Open Letter. Future of Life Institute, Narberth/PA, mar./2023. Disponível em:  https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Acesso em 09.02.2025.

[17] FERRY, Luc. A Inovação Destruidora. Ensaio sobre a lógica das sociedades modernas. Rio de Janeiro: Editora Objetiva, 2015.

[18] WIENER, Norbert. Cibernética. Ou controle e comunicação no animal e na máquina. São Paulo: Editora Perspectiva, 2017.

[19] Do contrário, se estaria a concluir, como no receio de Habermas, que a “tecnicização da natureza humana” alteraria “a autocompreensão ética da espécie de tal modo que não possamos mais nos compreender como seres vivos eticamente livres e moralmente iguais” (HABERMAS, A ética da discussão e a questão da verdade. São Paulo: Martins Fontes, 2004, p. 57).

[20] FERRY, Luc. A Inovação Destruidora. Ensaio sobre a lógica das sociedades modernas. Rio de Janeiro: Editora Objetiva, 2015, p. 22.

[21] DA EMPOLI, Giuliano. Os Engenheiros do Caos. Como as fake news, as teorias da conspiração e os algoritmos estão sendo utilizados para disseminar ódio, medo e influenciar eleições. Belo Horizonte: Editora Vestígio, 2019, p. 65.

[22] No exemplo, Removing Barriers to american leadership in AI, editada em 23.01.2025. Disponível em: https://static.poder360.com.br/2025/01/decreto-trump-ia-ingles-23jan2024.pdf. Acesso em 09.02.2025.

[23] ALEXY, Robert. Teoría de los Derechos Fundamentales. Madri: CEPC, 2001, p. 348.

[24] HABERMAS, Jürgen. Uma Nova Mudança Estrutural da Esfera Pública e a Política Deliberativa. São Paulo, 2023, p. 37.