Apocalyptic AI: Religião e a Promessa da Inteligência Artificial

Um resumo do ensaio de Robert Geraci que caracteriza os escritos de certos futuristas como um discurso apocalíptico contemporâneo. Texto completo aqui.

Robert Geraci é professor de ciência da religião na Manhattan College e tem como principal área de interesse as intersecções entre ciência/tecnologia e religião. Ele é autor dos livros Apocalyptic AI: Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality (Oxford University Press, 2010), Virtually Sacred: Myth and Meaning in World of Warcraft and Second Life (Oxford University Press, 2014), e Temples of Modernity: Nationalism, Hinduism, and Transhumanism in South Indian Science (Lexington 2018).

Em Apocalyptic AI: Religion and the Promise of Artificial Intelligence, ensaio presente em seu livro de mesmo título, Geraci argumenta que o pensamento singularitário atrelado ao campo da Inteligência Artificial (IA), representado sobretudo por Ray Kurzweil, Hans Moravec, Hugo de Garis e Kevin Warwick. é o herdeiro natural da tradição apocalíptica judaico-cristã. Tanto que ele se refere a este movimento, esta “escola de pensamento”, como Apocalyptic AI.

A argumentação do ensaio gira em torno de quatro elementos que caracterizam o discurso apocalíptico segundo ele: Uma perspectiva dualista de universo que põe no centro de tudo oposições fundamentais — bem/mal, luz/trevas, conhecimento/ignorância, etc –, a vinda de um novo mundo perfeito que encerra as oposições e essencialmente põe fim a uma era — ou até mesmo à história –, a necessidade de a humanidade obter novos corpos purificados para existir nesse novo mundo, e a propensão a ser adotado por comunidades alienadas.

Além disso, os membros de movimentos apocalípticos tendem a acreditar que o apocalipse está logo ali, virando a esquina. Muitos judeus da antiguidade esperavam pelo Apocalipse para liberá-los da opressão romana, cristãos medievais de vários períodos acreditavam na proximidade da volta de Cristo — e certas vertentes evangélicas da atualidade pregam que o retorno do messias está próximo, vendo sinais das atribulações prévias em coisas em chips subdermais e na ONU –, e desde que Vernor Vinge cunhou o conceito de Singularidade (The Coming Technological Singularity: How to Survive in the Post-Human Era, 1993), as estimativas de seus adeptos de quanto tempo ela demorará a chegar raramente excedem umas poucas décadas. O próprio Vinge, em 1993, afirmava que até 2023 ela aconteceria.

Geraci desmonta o discurso de intelectuais como Moravec e Kurzweil para comprovar sua hipótese de que o pensamento/discurso singularitário da inteligência artificial é apocalíptico, e assim justificar a designação Apocalyptic AI:

Dualismo: As aposições fundamentais no cerne da Apocalyptic AI são ordem/desordem — entropia/negentropia –, eficiência/ineficiência, conhecimento/ignorância. As metades destas oposições consideradas virtuosas são, grosso modo, consideradas sinônimos de computação inteligente, o processamento de mais dados mais rápido. É o que Harari viria a chamar de Dataísmo em Homo Deus, anos mais tarde.

Alienação: A alienação presente no pensamento apocalíptico, diz Geraci, é uma característica do mesmo, não sua causa. No caso da Apocalyptic AI, a alienação deriva majoritariamente da insatisfação com o corpo humano e suas limitações inerentes, sobretudo o prazo de validade. Num segundo lugar muito próximo disto, vem a limitação intelectual.

“‘Formas de vida baseadas em proteínas’ dizem os proponentes da Apocalyptic AI, jamais serão capazes de pensar tão bem quanto as máquinas pensarão no futuro. (Moravec 1988: 55–56, 1999, 55; Kurzweil 1999: 4; Warwick [1997] 2004: 178; De Garis 2005: 103). As velocidades possíveis em cérebros humanos não podem se equiparar às de um computador, cujo substrato de silicone é muito mais eficiente na transmissão de informação. Memória limitada e precisão inadequada atrapalham mais ainda a mente humana.” (tradução minha, original na página 147)[i]

No pensamento da Apocalyptic AI, o valor de uma vida humana está no conhecimento que ela possui. Não é intrínseco a ela e não deriva de relações sociais. A parte relevante, a identidade, o potencial de qualquer humano, se resume à mente — aqui tratada como software. Nosso hardware biológico nos condena à perda de dados que é, para Moravec, “o pior aspecto da morte”. Os aspectos da existência divorciados da racionalidade e da otimização intelectual são algemas.

Isso vai contra muitos dos valores vigentes, o que reforça a alienação dos proponentes da Apocalyptic AI. O movimento vê o trabalho intelectual como a única fonte de significado para a existência, e teme que o mundo dê as costas à racionalidade e à ciência em favor de fés religiosas inúteis. “O mundo é ruim não porque é mau, mas porque é ignorante e inadequado”.

Apesar desse temor subjacente, a Apocalyptic AI é otimista à sua própria maneira. A evolução, para eles propriedade teleológica da existência, garante a vitória das “melhores ideias”, o que neste contexto leva ao o aumento da complexidade e ordem no mundo, e em última instância, à Singularidade. “O apocalipse necessariamente virá porque a história evolucionária se move inexoravelmente nesta direção.”

Um novo mundo perfeito e a transformação do ser humano: Eis que, em resposta à alienação e ao dualismo, vem o Reino de Deus, ou a Singularidade. As visões apocalípticas têm pouco espaço para mudança gradual, afirma Geraci, favorecendo viradas bruscas e revoluções num piscar de olhos. No caso da Apocalyptic AI, o momento preciso em que isto acontece é a Singularidade: Cria-se a primeira máquina de capacidades intelectuais sobre-humanas, ocorre uma explosão de inteligência em que a máquina expande seus poderes e seu domínio na velocidade alucinante dos elétrons percorrendo seus circuitos, e o que vem depois é o descarte de todas as regras que anteriormente usávamos para compreender o mundo e nosso papel nele. Começa a era pós-humana.

Enquanto Vernor Vinge encara a Singularidade com reserva, especulando sobre possíveis consequências que vão do paradisíaco ao infernal e ao inconceitualizável, a Apocalyptic AI restringe seu foco quase totalmente à parte paradisíaca. “Sim, a humanidade como a conhecemos vai acabar, e isso é ÓTIMO, porque a humanidade como a conhecemos morre e é vulnerável a desperdícios de tempo e poder de processamento como a fé no sobrenatural” é uma fala fictícia que inventei agora e exemplifica bem esta mentalidade.

O endgame, emprestando termos de Moravec, é a ponto em que consciências humanas serão “uploadeadas” nas máquinas e todos seremos imortais no cyberespaço, com tempo livre de sobra para perseguir nossos objetivos intelectuais enquanto os robôs nos sustentam. Ao longo do caminho até lá seremos ciborgues. Faremos upgrades em nosso hardware biológico com adições mecânicas, tornando-nos cada vez menos limitados, mas isto não passa de um trecho na viagem rumo ao que Geraci chama de “Jerusalem virtual”.

“No cyberespaço encontraremos a boa vida: uma sociedade igualitária (Stone, 1991), o fim das necessidades (Kurzweil 1999: 248; Moravec, 1999: 137), felicidade (Kurzweil 1999: 236), até vidas sexuais melhores (ibid.: 148, 206).” (tradução minha, original na página 149)[ii]

A exceção a este pensamento entre o que Geraci considera os principais intelectuais da Apocalyptic AI é Kevin Warwick.

Warwick acredita que suplementar as as capacidade intelectuais do corpo humano com hardware mecânico tornará humanos capazes de competir com a Inteligência Artificial.[iii] Memória aprimorada, novos sentidos, acesso direto à internet — sem interfaces intermediando a relação — entre outros upgrades trarão um mundo em que “ciborgues rapidamente passarão a ignorar os triviais enunciados dos humanos ordinários”. Lembra bastante o futuro vislumbrado por Ted Chiang em Catching Crumbs from the Table em um momento prévio à adoção universal das tecnologias ciborgues. Apesar de também conter uma narrativa transcendental de superação das nossas limitações, Warwick tem aspirações um tanto mais modestas que as de Kurzweil e companhia.

As principais diferenças entre o pensamento/discurso apocalíptico da Apocalyptic AI e da tradição judaico-cristã são o que se considera o motor da mudança e as oposições morais por trás dela:

“Nos textos e movimentos da tradição apocalíptica ancestral, um deus trabalha para garantir a vitória do bem sobre as forças do mal. Na Apocalyptic AI, a evolução trabalha para garantir a vitória da computação inteligente sobre as forças da ignorância e ineficiência. Tanto Deus quanto a evolução oferecem garantias transcendentais para a futuro, mas seus respectivos status morais afetam seus objetivos históricos. A morte de Deus afeta o teatro moral apocalíptico mudando as oposições que são fundamentais para o mundo.” (tradução minha, original na página 159) [iv]

Wayne Meeks (Apocalypic Discourse and Strategies of Goodness), considera três elementos suficientes — não necessários — para classificar um discurso como apocalíptico: Ser um discurso revelatório, interpretativo e dualista. O único destes elementos ausente na Apocalyptic AI é a “revelação”. Isto porque tradicionalmente a revelação apocalíptica é um conhecimento inacessível recebido de instâncias superiores (deus). Os proponentes da Apocalyptic AI não veem suas conclusões desta maneira. Elas são frutos de forças plenamente compreensíveis — evolução (que eles veem como teleológica), lei de Moore (que na época em que o ensaio foi escrito, ainda era uma realidade palpável), competição entre grupos humanos, etc — e podem ser previstas por qualquer um que estudar os sinais.

Enfim chegamos aos riscos e às partes menos aprazíveis deste apocalipse. Não raro em situações de disrupção tecnológica, as grandes recompensas previstas vem na esteira de riscos tão grandes quanto. Autores dentro e fora da Apocalyptic AI acreditam que a criação de máquinas realmente inteligentes segue ou pressagia conflitos violentos, seja entre as máquinas ou entre nós mesmos. A extinção humana como consequência da Singularidade é uma possibilidade levada a sério por Vinge, Bostrom, Warwick, De Garis, Musk e até o finado Stephen Hawking.

Até Moravec admite que conflitos de interesses continuarão presentes na cyberutopia que ele antecipa como endgame da Singularidade. E onde há “indivíduos tentando subverter outros aos seus propósitos”, há violência, mesmo que neste novo mundo ela não envolva projéteis estourando crânios, soco na cara ou bombas atômicas.

Daniel Crevier, autor de uma influente história da inteligência artificial, considera o futuro imortal descrito por Moravec convincente, mas destaca que as máquinas inteligentes não surgiriam imediatamente prontas para realizar esta visão. Na verdade, Crevier antecipa que as primeiras gerações de inteligências artificiais equivalentes a humanos serão psicóticas e paranoicas. Warwick ecoa estes receios (1997: 179). Segundo ele, as máquinas não precisarão de valores e habilidades sociais tipicamente humanas, e talvez se importem cada vez menos conosco a medida que suas inteligências crescem. Máquinas assim terão interesse em dominar a humanidade para realizar tarefas consideradas abaixo delas.

cool guys don’t look at explosions

No entanto, Warwick aponta uma saída clara: Tornando-nos ciborgues, poderemos não apenas competir intelectualmente, como nos tornaremos mais parecidos com as máquinas em nossos valores, desejos e necessidades. Os interesses, assim, se alinham, enquanto a distinção humano/máquina fica borrada. Já dizia Vinge em 1993: A humanidade como a conhecemos desaparece a partir da Singularidade.

As próprias circunstâncias da criação da primeira inteligência artificial equivalente à humana (que se tornará sobre-humana num piscar de olhos por meio de auto-upgrades extremamente rápidos) podem ser de conflito. É de se esperar que alguns humanos se oponham a este empreendimento. Talvez isso leve à criação de grupos terroristas ou a guerras entre nações e conglomerados. Hugo De Garis acredita que a aproximação da Singularidade trará uma guerra moralmente benéfica entre os que se opõe a Inteligência Artificial sobre-humana (Terrans) e aqueles que lhe são favoráveis (Cosmists). De Garis diz perder sono pensando na morte da humanidade, mas acredita que mesmo que isso ocorra ainda estará tudo ok, porque restarão inteligências artificiais equivalentes a deuses. Seguindo a tradição ancestral, de Garis vê o apocalipse em si como um valor final, e chega a afirmar que a construção de tais inteligências artificiais será um ato de veneração religiosa.

NOTAS
  • Para ver as referências que reproduzi (autor, ano: página), consulte o index do ensaio.

i “”Protein-based life forms,” say Apocalyptic AI advocates, will never think as well as machines will in the future (Moravec 1988: 55–56, 1999, 55; Kurzweil 1999: 4; Warwick [1997] 2004: 178; De Garis 2005: 103). The speeds possible in human brains cannot equal those of a computer, whose silicon substrate is far more efficient in the transmission of information. Limited memory and inadequate accuracy further trouble human minds”

ii “In cyberspace, we will find the good life: an egalitarian society (see Stone 1991), vanquishment of need (Kurzweil 1999: 248; Moravec 1999: 137), happiness (Kurzweil 1999: 236), even better sex lives (ibid.: 148, 206).”

iii O que talvez indique certa influência warwickiana por trás da Neuralink de Elon Musk.

iv “In ancient apocalyptic texts and movements, a god operates to guarantee the victory of good over the forces of evil. In Apocalyptic AI, evolution operates to guarantee the victory of intelligent computation over the forces of ignorance and inefficiency. Both God and evolution offer transcendent guarantees for the future, but their respective moral statuses affect their historical goals. The death of God alters the apocalyptic morality play by changing the oppositions that are fundamental to the world.”