O cérebro vazio

O seu cérebro não processa dados, recupera conhecimento ou armazena memórias. Resumindo: seu cérebro não é um computador.

por Robert Epstein*

(Tradução minha. Original disponível aqui.)

Por mais que tentem, neurocientistas e psicólogos cognitivistas nunca encontrarão uma cópia da 5ª sinfonia de Beethoven no cérebro — ou cópias de palavras, imagens, regras gramaticais ou de qualquer outro tipo de estímulo ambiental. O cérebro humano não é vazio, de verdade, é claro. Mas ele não contém a maioria das coisas que as pessoas acham que contém — nem mesmo coisas tão simples quanto “memórias”.

Nossos pensamentos limitados sobre o cérebro têm profundas raízes históricas, mas a invenção dos computadores nos anos 1940 nos deixou especialmente confusos. Por mais de meio século, psicólogos, linguistas, neurocientistas e outros especialistas no comportamento humano vêm dizendo que o cérebro humano funciona como um computador.

Para ver o quão vazia essa ideia é, considere o cérebro de bebês. Graças à evolução, os recém-nascidos, assim como os filhotes de outros mamíferos, chegam ao mundo preparados para interagir com ele efetivamente. A visão de um bebê é borrada, mas ela presta atenção especial em rostos, e é capaz de identificar rapidamente o da sua mãe. Ele prefere o som de vozes a sons que não sejam de fala e pode distinguir os sons básicos de fala de outros. Nós somos, sem dúvidas, feitos para criar conexões sociais.

Um recém-nascido saudável é também equipado com mais de uma dúzia de reflexos — reações pré-preparadas para certos estímulos que são importantes para a sua sobrevivência. Ele vira a cabeça na direção de algo que roce a sua bochecha e suga qualquer coisa que entre em sua boca. Ele segura o fôlego quando submerso em água. Ele agarra coisas colocadas na sua mão forte o suficiente para quase suportar seu próprio peso. Talvez o mais importante seja que recém-nascidos vêm equipados com mecanismos de aprendizagem tão poderosos que permitem que eles rapidamente melhorem a sua interação com o mundo, mesmo que esse mundo seja muito diferente daquele que seus ancestrais enfrentaram.

Sentidos, reflexos e mecanismos de aprendizagem — é com isso que começamos, e é bastante coisa quando se pensa a respeito. Se nós não tivéssemos essas habilidades ao nascer, provavelmente teríamos problemas para sobreviver.

Mas aqui temos coisas com as quais não nascemos: informações, dados, regras, aplicativos, conhecimento, léxico, representações, algoritmos, programas, modelos, memórias, imagens, processadores, sub-rotinas, codificadores, decodificadores, símbolos ou buffers — elementos que permitem que computadores digitais se comportem de uma maneira meio inteligente. Nós não apenas não nascemos com essas coisas, mas nós não as desenvolvemos — nunca.

Nós não armazenamos palavras ou regras que nos dizem como manipulá-las. Nós não criamos representações de estímulos visuais, os armazenamos em um buffer de memória de curto prazo e então transferimos essas representações para a memória de longo prazo. Nós não recuperamos informações ou imagens ou palavras de registros de memória. Computadores fazem todas essas coisas, mas organismos não.

Computadores, bem literalmente, processam dados — números, letras, palavras, fórmulas, imagens. A informação tem que, primeiro, ser codificada em um formato que computadores possam usar, o que significa padrões de zeros e uns (“bits”), organizados em pedacinhos (“bytes”). No meu computador, cada byte contém 8 bits, e um certo padrão desses bits corresponde à letra ‘g’, outro à letra “a”, outro à letra “t” e outro ainda à letra “o”. Lado a lado, esses 4 bytes formam a palavra “gato”. Uma simples imagem, como a foto do meu gato Henry no papel de parede, é representada por um padrão muito específico de milhões desses bytes (um “megabyte”), rodeado de alguns caracteres que digam ao computador para que espere por uma imagem, e não por uma palavra.

Computadores, ainda bem literalmente, mudam esses padrões de lugar em diferentes áreas físicas de armazenamento gravados em componentes eletrônicos. Algumas vezes eles também copiam esses padrões, e algumas vezes os transformam de várias maneiras — por exemplo, quando estamos corrigindo erros em um rascunho ou estamos retocando uma fotografia. As regras que os computadores seguem para mover, copiar e operar esses arranjos de dados são também armazenadas dentro do computador. Junto, um conjunto de regras é chamado de “programa” ou “algoritmo”. Um grupo de algoritmos que trabalham juntos para nos ajudar a fazer alguma coisa (como comprar ações ou arrumar um encontro online) é chamado de “aplicativo” — o que hoje a maioria das pessoas chama de “app”.

Me perdoe por essa introdução à computação, mas eu preciso ser claro: computadores realmente operam com representações simbólicas do mundo. Eles realmente armazenam e recuperam. Eles realmente processam. Eles realmente têm memórias físicas. Eles realmente são guiados em tudo o que fazem, sem exceções, por algoritmos.

Humanos, por outro lado, não — nunca fizeram isso, nunca farão. Dada essa realidade, porque tantos cientistas falam da nossa vida mental como se fôssemos computadores?

E m seu livro “In Our Own Image” (2015), o especialista em inteligência artificial George Zarkadakis descreve seis diferentes metáforas que as pessoas empregaram nos últimos 2 mil anos para tentar explicar a inteligência humana.

Na mais antiga, ainda preservada na Bíblia, humanos foram formados da terra ou de argila, e um deus inteligente nos infundiu com seu espírito. Esse espírito “explica” a nossa inteligência — gramatical, pelo menos.

A invenção da engenharia hidráulica no século 3 d.C. levou à popularização de uma representação hidráulica da inteligência humana, pela ideia que o fluxo de diferentes fluidos no corpo — os “humores” — dava conta de nosso funcionamento físico e mental. A metáfora hidráulica persistiu por mais de 1.600 anos, fragilizando a prática médica por todo esse tempo.

Por volta de 1.500, autômatos que funcionavam por molas e engrenagens foram desenvolvidos, eventualmente inspirando grandes pensadores como René Descartes a afirmar que humanos eram máquinas complexas. Em 1.600, o filósofo britânico Thomas Hobbes sugeriu que o pensamento emergia de pequenos movimentos mecânicos dentro do cérebro. Por volta de 1.700, descobertas sobre eletricidade e química levaram a novas teorias sobre a inteligência humana — de novo, grandemente metafóricas. Em meados do século 19, inspirado pelos avanços recentes nas telecomunicações, o físico e médico alemão Hermann von Helmholtz comparou o cérebro a um telégrafo.

Cada metáfora reflete o pensamento mais avançado da era que o gerou. Previsivelmente, poucos anos depois do surgimento da tecnologia computacional, nos anos 1940, foi dito que o cérebro operava como um computador, com o papel do hardware sendo desempenhado pelo próprio cérebro e os pensamentos funcionando como os softwares. O evento que marcou o lançamento do que hoje é chamado de “ciência cognitiva” foi a publicação de “Language and Communication” (1951) pelo psicólogo George Miller. Miller propôs que o mundo mental poderia ser estudado rigorosamente usando conceitos da teoria da informação, computação e linguística.

Esse tipo de pensamento foi levado à expressão máxima no livro “The Computer and the Brain” (1958), em que o matemático John von Neumann assumiu, rasteiramente, que a função do sistema nervoso humano é “prima facie digital”. Embora ele tenha admitido que muito pouco era conhecido sobre o papel que o cérebro desempenhava no raciocínio e memória humanos, ele traçou paralelos entre os componentes de computadores da época e os componentes do cérebro humano.

Impulsionado pelos avanços subsequentes tanto na tecnologia da computação quanto nas pesquisas sobre o cérebro, um esforço multidisciplinar ambicioso para entender a inteligência humana gradualmente se desenvolveu, firmemente apoiado na ideia que os humanos são, assim como computadores, processadores de informação. Esse esforço reúne agora milhares de pesquisadores, consumindo bilhões de dólares em financiamentos, e tem gerado uma vasta literatura, tanto técnica quanto de divulgação, em artigos e livros. O livro de Ray Kurzwiel, “How to Create a Mind: the Secret of Human Thougth Revealed” (2013), exemplifica essa perspectiva, especulando sobre os “algoritmos” do cérebro, como ele “processa dados”, e até como a sua estrutura se assemelha superficialmente a circuitos integrados.

A metáfora do processamento de informação (PI) para a inteligência humana agora domina o discurso, tanto nas ruas quanto na ciência. Virtualmente não existe forma de discurso sobre a inteligência humana que siga sem o emprego desta metáfora, assim como nenhuma forma de discurso sobre o comportamento humano inteligente poderia proceder em outras eras e culturas sem se referir a um espírito ou deidade. A validade da metáfora PI no mundo cotidiano é assumida sem questionamento.

Mas a metáfora PI é, no fim das contas, só outra metáfora — uma história que contamos para que alguma coisa que não entendemos faça sentido. E, como todas as outras metáforas que a precederam, ela certamente será deixada de lado em algum ponto — substituída por outra metáfora ou, no final, por entendimento real.

Apenas há um ano atrás, numa visita a um dos institutos de pesquisa mais prestigiados do mundo, eu desafiei os pesquisadores de lá a tratarem da inteligência humana sem fazerem referência a nenhum aspecto da metáfora do processamento de informação. Não conseguiram e, então, quando eu educadamente toquei no assunto em comunicações via e-mail que se sucederam, meses depois, eles ainda não tinham nada. Eles viram o problema. Não rejeitaram o desafio como sendo trivial. Mas não conseguiram oferecer alternativas. Em outras palavras, a metáfora PI é “grudenta”. Ela sobrecarrega nosso pensamento com linguagens e ideias que são tão poderosas que temos dificuldade em pensar para fora delas.

A lógica defeituosa da metáfora do processamento de informação é bastante fácil para ser exposta. É baseada em um silogismo falso — com duas premissas razoáveis e uma conclusão falsa. Premissa razoável 1: todos os computadores são capazes de funcionar de maneira inteligente. Premissa razoável 2: todos os computadores são processadores de informação. Conclusão falsa: todas as entidades que são capazes de se comportar de maneira inteligente são processadores de informação.

Deixando de lado a linguagem formal, a ideia de que humanos precisam ser processadores de dados apenas porque computadores são é bastante boba e, quando, um dia, a metáfora PI for finalmente abandonada, ela certamente será vista assim pelos historiadores, da mesma maneira que agora nós achamos bobas as metáforas hidráulica e mecânica.

Mas se a metáfora PI é tão boba, porque é tão grudenta? O que está nos impedindo de afastá-la para o lado, assim como afastaríamos um galho que está bloqueando nosso caminho? Existe uma maneira de entender a inteligência humana sem nos apoiarmos em uma muleta intelectual frágil? E que preço temos pagado por nos apoiarmos nessa muleta, em particular, por tanto tempo? A metáfora PI, afinal de contas, tem guiado a escrita e o pensamento de um grande número de pesquisadores, em muitas áreas, por décadas. A que custo?

Em um exercício em sala de aula que eu conduzi, muitas vezes, ao longo dos anos, eu começava recrutando um aluno para desenhar uma imagem detalhada de uma nota de um dólar — “tão detalhista quanto possível”, eu dizia — no quadro negro em frente à turma. Quando o aluno terminava, eu cobria o desenho com uma folha de papel, retirava uma nota de dólar da minha carteira, colava-a no quadro, e então pedia que ele repetisse a tarefa. Quando terminava, eu removia a cobertura do primeiro desenho e pedia à turma que comentasse as diferenças.

Como talvez você nunca tenha visto uma demonstração assim, ou porque talvez você possa ter dificuldades para imaginar o resultado, eu pedi a Jinny Hyun, uma das estagiárias do instituto onde pesquisava, para fazer os dois desenhos. Aqui está o primeiro desenho dela “de memória” (note a metáfora):

E aqui está o desenho que ela fez em seguida, vendo a nota de dólar:

Jinny ficou tão surpresa com o resultado quanto você provavelmente ficou, mas é assim mesmo. Como você pode ver, o desenho feito na ausência da nota é horrível comparado ao feito a partir um exemplar, mesmo que ela tenha visto uma nota de um dólar milhares de vezes.

Qual é o problema? Nós não temos uma “representação” da nota de dólar “armazenada” em um “registro de memória” em nossos cérebros? Nós não podemos simplesmente “recuperá-la” e usá-la para fazer nosso desenho?

Obviamente não, e nem mil anos de neurociência irão localizar uma representação de uma nota de um dólar armazenada dentro do cérebro humano pela simples razão que não há nada para ser encontrado.

A riqueza de estudos do cérebro nos diz, na verdade, que múltiplas e, às vezes, grandes, áreas do cérebro estão frequentemente envolvidas na mais trivial das tarefas de memória. Quando emoções fortes estão envolvidas, milhões de neurônios podem ficar mais ativos. Em um estudo de 2016 com sobreviventes de uma queda de avião, feito pelo neuropsicólogo Brian Levine e outros, na Universidade de Toronto, notou-se que a ativação da memória do acidente aumentou a atividade neural na amígdala, no lobo médio-temporal, linha média anterior e posterior e no córtex visual desses passageiros.

A ideia, defendida por vários cientistas, de que memórias específicas estão, de alguma maneira, armazenadas em neurônios individuais é ridícula. Caso contrário, essa afirmação apenas empurra o problema da memória para um nível ainda mais desafiador: como e onde, afinal, a memória é armazenada na célula?

Então o que acontecia quando a Jinny desenhava a nota de dólar na sua ausência? Se a Jinny nunca tivesse visto uma nota de dólar antes, seu primeiro desenho provavelmente não teria nenhuma semelhança com o segundo. Tendo visto notas de dólar antes, ela foi modificada de alguma maneira. Especificamente, o cérebro dela foi mudado de uma forma que a permitisse visualizar uma cédula — isto é, a re-experienciar a visão de uma cédula, pelo menos até certo ponto.

A diferença entre os dois desenhos nos lembra que visualizar alguma coisa (isto é, ver algo que não está presente) é muito menos preciso do que ver algo que está presente. É por isso que nós somos muito melhores em reconhecer do que em lembrar. Quando nós relembramos alguma coisa, nós temos que tentar retomar uma experiência; mas quando nós reconhecemos algo, nós precisamos meramente estar conscientes do fato que nós já tivemos essa experiência perceptual antes.

Talvez você conteste essa demonstração. A Jinny tinha visto notas de dólar antes, mas ela não tinha feito um esforço deliberado para memorizar os detalhes. Se ela tivesse feito isso, você poderia argumentar, ela teria presumivelmente desenhado a segunda imagem sem ver a nota. Mesmo nesse caso, nenhuma imagem da cédula de dólar teria sido, em nenhum sentido, “armazenada” no cérebro da Jinny. Ela simplesmente teria se preparado para desenhar de modo mais preciso, assim como, através da prática, um pianista se torna mais habilidoso em tocar um concerto sem de alguma maneira inalar a cópia da partitura.

A partir desse exercício simples, podemos começar a construir a moldura de uma teoria do comportamento inteligente humano sem metáforas — uma em que o cérebro não seja completamente vazio, mas pelo menos livre da bagagem da metáfora do processamento de informações.

Enquanto navegamos pelo mundo, nós somos modificados por uma variedade de experiências. Especialmente notáveis, existem experiências de três tipos: (1) nós observamos o que acontece ao nosso redor (o comportamento de outras pessoas, sons musicais, instruções dirigidas a nós, palavras em páginas, imagens em telas); (2) nós somos motivados a parear estímulos irrelevantes (como sons de sirene) a estímulos relevantes (como a aproximação de carros de polícia); (3) nós somos punidos ou recompensados por nos comportarmos de determinadas maneiras.

Nós nos tornamos mais eficientes em nossas vidas se mudamos para maneiras que são consistentes com essas experiências — se agora somos capazes de recitar um poema ou cantar uma música, se somos capazes de seguir instruções que nos deram, se respondemos a estímulos desimportantes menos do que o fazemos a estímulos importantes, se nos contemos de nos comportarmos de maneiras pelas quais já nos puniram, se nos comportamos mais frequentemente de maneiras pelas quais nos recompensaram.

Exceto por manchetes enganosas, ninguém realmente tem a mais remota ideia de como o cérebro muda depois de ter aprendido a cantar uma música ou a recitar um poema. Mas nem a música nem o poema ficou “armazenado” lá dentro. O cérebro simplesmente mudou de uma maneira ordenada que agora nos permite cantar a música ou recitar o poema em determinadas condições. Quando nos pedem para apresentar, nem a música nem o poema é de nenhuma forma “recuperado” de algum lugar do cérebro, não mais do que os movimentos dos meus dedos são “recuperados” quando eu os tamborilo sobre a mesa. Nós simplesmente cantamos ou recitamos: nenhuma busca foi feita.

Poucos anos atrás, eu perguntei a Eric Kandel, neurocientista da Universidade de Columbia — vencedor de um Prêmio Nobel por ter identificado algumas das mudanças químicas que acontecem nas sinapses neuronais da Aplysia (um caracol marinho) depois que ela aprende alguma coisa — quanto tempo ele achava que levaria para que entendêssemos como a memória humana funciona. Ele rapidamente respondeu: “Cem anos.” Eu não pensei em perguntar a ele como a metáfora do processamento estava atrasando a neurociência, mas alguns neurocientistas estão começando a pensar o impensável — que a metáfora não é indispensável.

Poucos cientistas da cognição — notadamente Anthony Chemero, da Universidade de Cincinnati, o autor de “Radical Embodied Cognitive Science” (2009), rejeitam, atualmente, completamente a visão de que o cérebro humano trabalha como um computador. A visão mais geral é que, nós, como computadores, atribuímos sentido ao mundo realizando cálculos em representações mentais dele, mas Chemero e outros descrevem outra maneira de entender o comportamento inteligente: como uma interação direta dos organismos e do mundo.

Meu exemplo favorito da diferença dramática entre a perspectiva do processamento de informação e o que atualmente alguns chamam de visão “anti representacional” do funcionamento humano envolve duas formas diferentes para explicar como um jogador de baseball consegue pegar uma bola no ar — belamente explicado por Michael McBeath, atualmente na Universidade Estadual do Arizona, e seus colegas, em 1995, em um artigo publicado na Science. A perspectiva do processamento de informação requer que o jogador formule uma estimativa de várias condições iniciais do voo da bola — a força do impacto, o ângulo da trajetória, esse tipo de coisa — e então crie e analise um modelo interno do caminho pelo qual a bola provavelmente irá se mover, então use esse modelo para guiar e ajustar movimentos motores continuamente no tempo de maneira a interceptar a bola.

Tudo muito bom e muito bem se nós funcionássemos como computadores, mas McBeath e seus colegas deram uma explicação mais simples: para pegar a bola, o jogador apenas precisa continuar se movendo de maneira a manter a bola num relacionamento visual constante entre o home plate e o cenário ao redor (tecnicamente, em uma “trajetória linear óptica”). Isso pode soar complicado, mas é, na verdade, incrivelmente simples, e completamente livre de computação, representações e algoritmos.

Dois professores de psicologia determinados da Universidade Leeds Beckett no Reino Unido — Andrew Wilson e Sabrina Golonka — incluíram o exemplo do baseball entre muitos outros que podem ser observados simples e sensivelmente fora da moldura do processamento de informações. Há anos eles vem blogando sobre o que eles chamam de “um tratamento mais coerente e naturalizado ao estudo científico do comportamento humano (…) que contrasta com o tratamento dominante da neurociência cognitiva”. Isso está longe de ser um movimento, no entanto; a ciência cognitiva mais disseminada continua a chafurdar sem críticas à metáfora do processamento de informações, e alguns dos pensadores mundiais mais influentes fizeram grandes previsões sobre o futuro da humanidade que dependem da validade desta metáfora.

Uma previsão — feita pelo estudioso do futuro Kurzweil, pelo físico Stephen Hawking e o neurocientista Randal Koene, entre outros — é que, porque a consciência humana é supostamente parecida com softwares de computador, será possível, em breve, fazer o “download” de mentes humanas para computadores, em circuitos, com o que nós nos tornaremos imensamente poderosos intelectualmente e, muito possivelmente, imortais. Esse conceito guiou o enredo do filme distópico Transcendence (2014), estrelando Johnny Deep como o cientista kurzweiliano cuja mente foi transferida para a internet — com resultados desastrosos para a humanidade.

Felizmente, porque a metáfora do processamento de informações não é nem remotamente válida, nós nunca teremos que nos preocupar com uma mente humana indo parar no cyberespaço; além disso, nós nunca alcançaremos a imortalidade por meio do download. Isso não é apenas pela ausência do software da consciência no cérebro; existe um problema mais profundo aqui: vamos chamá-lo de problema da unicidade — que é tanto inspirador quanto deprimente.

Porque nem “bancos de memória” nem “representações” de estímulos existem no cérebro, e porque tudo o que é necessário para nós funcionarmos no mundo é que o cérebro mude em uma forma ordenada como resultado de nossas experiências, não existe razão para acreditar que quaisquer dois de nós fomos modificados da mesma maneira pela mesma experiência. Se nós dois assistimos ao mesmo concerto, as mudanças que acontecem no meu cérebro quando eu ouço a 5ª sinfonia de Beethoven serão, certamente, completamente diferentes das que ocorrem no seu cérebro. Essas mudanças, quaisquer que sejam elas, são construídas na rede neuronal particular que já existe, sendo que cada estrutura se desenvolveu sobre uma vida de experiências particulares.

Essa é a razão pela qual, como demonstrou Sir Frederic Barlett em seu livro “Remembering” (1932), duas pessoas não vão repetir da mesma maneira uma história que elas ouviram da mesma maneira e pela qual, com o passar do tempo, as suas versões da história irão divergir mais e mais. Nenhuma “cópia” da história jamais foi feita; ao invés disso, cada indivíduo, ouvindo a história, muda em algum sentido — o suficiente para que, quando perguntado sobre ela mais tarde (em alguns casos, dias, meses ou mesmo anos depois que Barlett tenha lido a história pela primeira vez), pudesse re-experienciar a leitura da história em alguns trechos, embora não muito bem (veja o primeiro desenho da nota de dólar, acima).

Isto é inspirador, eu imagino, porque significa que cada um de nós é verdadeiramente único, não apenas na nossa forma genética, mas também na maneira em que nosso cérebro muda com o passar do tempo. Isso também é deprimente, porque torna o trabalho dos neurocientistas assustador além da imaginação. Para cada experiência dada, a mudança ordenada pode envolver milhares ou milhões de neurônios ou, ainda, o cérebro inteiro, sendo que o padrão de mudança é diferente para cada cérebro.

Ainda pior: mesmo que nós tivéssemos a habilidade de tirar uma foto de todos os 86 bilhões de neurônios cerebrais e então estimulássemos os estados desses neurônios em um computador, o vasto padrão poderia não significar nada fora do corpo em que o cérebro o produziu. Essa é talvez a forma mais escandalosa pela qual a metáfora do processamento cerebral distorceu nosso pensamento sobre o funcionamento humano. Enquanto computadores armazenam cópias exatas de dados — cópias que podem persistir sem alterações por grandes períodos de tempo, mesmo se a energia tiver sido desligada — o cérebro mantém nosso intelecto apenas enquanto ele se mantém vivo. Não tem botão de liga e desliga. Ou o cérebro continua funcionando ou ele desaparece. Além disso, assim como o neurobiólogo Steven Rose apontou em “The Future of Brain” (2005), uma fotografia do estado atual do cérebro poderia ser também sem sentido a não ser que conhecêssemos a história de vida inteira do dono daquele cérebro — talvez até o contexto social em que ele ou ela foi criado.

Pense no quão difícil o problema é. Para entender mesmo o básico de como o cérebro mantém o intelecto humano, nós precisaríamos conhecer não apenas o estado atual de 86 bilhões de neurônios e de suas 100 trilhões de interconexões, não apenas a variação das forças pelas quais eles estão conectados, e não apenas os estados de mais de mil proteínas que existem em cada ponto de conexão, mas como a atividade momento a momento do cérebro contribui para a integridade do sistema. Adicione a isso as particularidades de cada cérebro, trazidas em parte por conta das particularidades da história de vida de cada pessoa, e a previsão de Kandel começa a soar extremamente otimista. (Em um editorial aberto recente no New York Times, o neurocientista Kenneth Miller sugeriu que levará “séculos” apenas para descobrirmos a conectividade neuronal básica).

Enquanto isso, grandes quantias de dinheiro estão sendo levantadas para pesquisas cerebrais, baseadas, em alguns casos, em ideias com problemas e promessas que não podem ser mantidas. A instância mais ruidosa da neurociência enviesada, conforme documentado recentemente em uma reportagem na Scientific American, diz respeito ao Projeto Cérebro Humano, de 1.3 bilhões de dólares, lançado pela União Europeia em 2013. Convencidos pelo carismático Henry Markram de que ele poderia criar uma simulação completa do cérebro humano em um computador até o ano de 2023, e de que este modelo revolucionaria o tratamento do Mal de Alzheimer e de outras doenças, os oficiais da EU financiaram seu projeto sem, virtualmente, qualquer restrição. Menos de dois anos depois, o projeto se tornou um “quebra-cabeças” e Markram foi convidado a se retirar.

Nós somos organismos, não computadores. Supere. Vamos começar com o negócio de tentar entender a nós mesmos, mas sem sermos sobrecarregados com bagagem intelectual desnecessária. A metáfora do processamento de informações já teve seu meio século, produzindo poucos insights pelo caminho, se é que os produziu. Chegou a hora de apertar DELETE.

(* Pesquisador sênior de psicologia no Instituto Americano de Pesquisa e Tecnologia do Comportamento na Califórnia. Autor de 15 livros e ex-editor chefe da Psychology Today.)