Limitações tolas da IA ​​para carregar o cérebro

Jonathan Tennenbaum- 22 de junho de 2020

É absurdo pensar no cérebro e seus neurônios em termos de computação e processamento de informações

Esta é a quinta parte de uma série. Leia as Parte 1, Parte 2, Parte 3 e Parte 4.

No partes anteriores desta série, apresentei argumentos e evidências para refutar a noção de que o cérebro humano funciona como um computador digital. Entre outras coisas, está claro que os neurônios nada têm a ver com os elementos de comutação de um chip de computador.

Diante dessa situação, algumas pessoas podem responder: “Claro, você está certo. Os neurônios são sistemas analógico-digitais muito complicados. Mas, dado poder de processamento de dados suficiente, não haverá problema em imitá-los. É apenas uma questão de tempo até que possamos carregar um cérebro inteiro.”

Nesse contexto, a pesquisa do cérebro hoje se encontra em uma situação paradoxal.

Um exemplo: cientistas do “Neural Computation Lab” do University College, em Londres, fizeram estudos experimentais sofisticados sobre as funções dos dendritos no sistema nervoso. Os dendritos são estruturas elaboradas semelhantes a árvores que se estendem do corpo de um neurônio, onde está localizada a maioria das sinapses, através das quais o neurônio recebe impulsos de outros neurônios. Normalmente de milhares deles.

Embora fossem anteriormente considerados como coletores de sinais passivos, as investigações modernas revelam que os dendritos são estruturas altamente dinâmicas que transformam ativamente os impulsos recebidos e também podem mudar sua própria estrutura no decorrer de minutos. O comportamento dos dendritos exemplifica a extraordinária plasticidade característica de todos os processos vivos.

Esquema de um neurônio com conexões axônicas e dendríticas. Modificado do Wiki Commons.

Por um lado, o trabalho experimental no Laboratório de Computação Neural e em outros lugares mostra com clareza cada vez maior como é absurdo comparar o cérebro, ou um único neurônio, a sistemas de processamento de dados feitos pelo homem. Ao mesmo tempo, porém, os cientistas continuam a enquadrar seus resultados na linguagem e nos conceitos da ciência da computação.

Considere a introdução de um artigo fascinante, “Dendritic Computation,” co-autoria do pesquisador principal do Neural Computation Lab, Professor Michael Häusser:

“Cérebros computam. Isso significa que eles processam informações, criando representações abstratas de entidades físicas e realizando operações sobre essas informações para executar tarefas. Um dos principais objetivos da neurociência computacional é descrever essas transformações como uma sequência de passos elementares simples organizados de forma algorítmica.”

Eu questiono essas expressões. É realmente apropriado aplicar o termo “computação” ao que o cérebro e suas células estão fazendo? O termo normalmente significa cálculo matemático com números ou símbolos algébricos.

Isso é o que os computadores digitais fazem. Os seres humanos, como engenheiros ou físicos ou crianças em idade escolar aprendendo aritmética, também podem fazer cálculos se forem treinados para isso. Mas no resto do tempo sua atividade mental não tem nada a ver com computação.

É apropriado, como fazem os autores, falar do cérebro “realizando operações sobre a informação” e esperar poder reduzi-lo a uma sucessão de “passos elementares simples”?

Pode-se ter a impressão de que a neurociência computacional, como caracterizada pelos autores citados, está mais preocupada em implementar um esquema conceitual pré-existente – propício à modelagem computacional do cérebro – do que em descobrir a verdade sobre como o cérebro realmente funciona. Injusto, talvez, mas acho que levantar a questão é justificado.

Na verdade, modelos de computador, particularmente quando aplicados a porções muito pequenas de tecido nervoso, podem ser extremamente úteis para fins científicos. Um bom exemplo é o trabalho de Eva Marder e seus colaboradores no gânglio estomatogástrico de 30 neurônios da lagosta. (Ver discussão mais detalhada abaixo.) Mas a imagem que emerge de seu trabalho é bem diferente daquela de um computador executando uma sucessão de operações algorítmicas.

Häusser e seu co-autor argumentam de forma convincente sobre a necessidade de levar em conta melhor a biofísica real da função do neurônio, dispensando a comparação simplista dos neurônios com os componentes de um computador digital. Eles escrevem:

“Tradicionalmente, propriedades computacionais relativamente simples têm sido atribuídas ao neurônio individual, com as computações complexas que são a marca dos cérebros sendo realizadas pela rede desses elementos simples… de neurônios reais e as computações que eles realizam.”

“Em vez disso, é provável que mecanismos lineares e não lineares adicionais na árvore dendrítica sirvam como blocos de construção computacionais, que, combinados, desempenham um papel fundamental na computação geral realizada pelo neurônio… Modelos neuronais padrão não incorporam muitos cálculos não lineares que são feitos em processamento paralelo e localmente em cada dendrito e suas ramificações… Essa nova variedade de cálculos dendríticos leva a modelar um neurônio de forma semelhante a uma rede de duas camadas com unidades ocultas não lineares.”

A última frase é formulada na linguagem técnica das redes neurais artificiais. Por que? Os autores propõem, com efeito, que cada neurônio do cérebro seja tratado como uma pequena rede neural por si só. Agora, não apenas o cérebro como um todo, mas os neurônios individuais e partes deles devem estar fazendo cálculos!

De qualquer forma, descer ao nível subcelular para incluir “mecanismos de computação” na árvore dendrítica adiciona complexidade aos modelos do cérebro. Nos últimos 15 anos, a “computação dendrítica” floresceu em um amplo e rico campo de pesquisa.

Enquanto isso, os modelos de neurônios individuais tornaram-se ainda mais complicados. Recentemente, por exemplo, apareceu um papel com o título “Single Cortical Neurons as Deep Artificial Neural Networks”, proclamando:

“Introduzimos uma nova abordagem para estudar os neurônios como unidades sofisticadas de processamento de informações de E/S [entrada-saída], utilizando avanços recentes no campo do aprendizado de máquina. Treinamos redes neurais profundas (DNNs) para imitar o comportamento de I/O de um modelo não linear detalhado de uma célula piramidal cortical da camada 5, recebendo ricos padrões espaço-temporais de ativações de sinapses de entrada”.

Tudo isso é muito interessante. Mas estamos chegando mais perto de entender os princípios de como o cérebro realmente funciona? Eu sugeriria que é estúpido continuar pensando no cérebro e seus neurônios em termos de computação e processamento de informações quando a realidade exige algo muito diferente.

Imagem microscópica de neurônios de ratos e células gliais cultivadas em cultura e coradas com anticorpos fluorescentes para uma proteína associada a microtúbulos (verde, refletindo axônios), uma proteína glial fibrilar (vermelho mostrando “pés” de astrócitos) e DNA nos núcleos celulares (azul). Fonte: Wikimedia Commons

Entram nos supercomputadores

Comparado com os supercomputadores que estão online hoje em dia, pode-se inicialmente ter a impressão de que nossos cérebros são apenas tecnologia antiquada de cavalos e charretes.

Os últimos anos testemunharam uma intensa competição entre os EUA e a China para construir os maiores e mais rápidos supercomputadores. O Sunway TaihuLight da China, descrito pelo Departamento de Energia dos EUA em 2018 como o computador mais rápido do mundo, tem desempenho de computação de pico de 125 petaflops (1 petaflop = um bilhão de milhões de operações de ponto flutuante por segundo) e mais de 1.310.000 GB de memória primária.

Nesse ínterim, os EUA correram de volta à liderança com dois novos supercomputadores, o computador SUMMIT no Oak Ridge National Laboratory e o pouco mais lento Sequoia, uma máquina IBM Blue Gene de terceira geração no Lawrence Livermore Laboratory.

O SUMMIT tem uma velocidade máxima de processamento de 200 petaflops e 250.000.000 GB de capacidade de armazenamento.

Essas máquinas requerem grandes quantidades de energia elétrica, tornando a energia uma parte importante de seus custos operacionais. O SUMMIT tem um consumo de energia de 13 megawatts, o suficiente para abastecer cerca de 10.000 residências.

Em contraste, o consumo de energia do cérebro humano é de apenas cerca de 25 watts – meio milhão de vezes menos. Isso por si só deveria sugerir que o cérebro funciona com um princípio completamente diferente.

Apesar de sua velocidade e grande número de elementos de computação, os supercomputadores de hoje são sistemas extremamente simples em comparação com o cérebro humano ou mesmo com o minúsculo cérebro de um inseto. Na verdade, um único neurônio já é muito mais complicado, em termos de processos físicos envolvidos em sua atividade, do que o maior supercomputador.

A razão pela qual os computadores são relativamente tão simples é direta. Para fazer com que um sistema físico se comporte de maneira estritamente repetível e previsível, você deve reduzir drasticamente seus graus efetivos de liberdade. Você deve “escravizar” a natureza, por assim dizer.

Naturalmente, no nível atômico e subatômico, os transistores em um microchip também são sistemas físicos imensamente complexos, possuindo inúmeros tipos de flutuações e variações além do nosso controle. Portanto, projetamos e produzimos esses sistemas de forma que a maior parte da variabilidade seja “irrelevante” do ponto de vista do comportamento mecanicista de que precisamos.

À medida que o estudo do sistema nervoso humano progride, os cientistas estão descobrindo que as funções cognitivas humanas dependem de formas cada vez mais complexas de variabilidade e plasticidade – do cérebro como um todo até os níveis celulares individuais e até mesmo moleculares. Como sempre na biologia, quanto mais você procura, mais encontra.

Os organismos vivos exibem um tipo de complexidade irredutível que desafia as táticas de simplificação grosseira e eliminação de todas, exceto um pequeno número de “variáveis ​​relevantes”, sem as quais os sistemas de computador modernos não poderiam emular nem mesmo uma única molécula de água.

Embora os modelos simplificados sejam úteis e indispensáveis, nunca se deve confundir modelos com realidade.

A neurobióloga experimental Eve Marder passou toda a sua carreira científica de 40 anos estudando a rede de 30 neurônios que constituem o gânglio estomatogástrico no sistema nervoso de uma lagosta. Este sistema supostamente “simples” exibe um comportamento oscilatório extraordinariamente complexo.

O grupo de Marder na Brandeis University e grupos colaboradores em todo o mundo usam as técnicas de microeletrodos para medir diretamente a atividade elétrica de neurônios individuais e investigar o papel de dezenas de peptídeos neuromoduladores, que são secretados por neurônios e atuam sobre as características elétricas das membranas celulares.

O trabalho de Marder gerou muito conhecimento útil, em parte usando modelos de computador para testar hipóteses sobre os processos biológicos envolvidos. Ao mesmo tempo, tais modelos estão muito longe de serem capazes de prever com precisão a atividade real dos 30 neurônios em um gânglio vivo. Essa também não é a reivindicação ou o propósito de sua pesquisa.

Carregando o cérebro

Com base nisso, pode-se apreciar o grau de exagero envolvido nas sugestões de que será possível, em um futuro previsível, simular todo o cérebro humano usando um supercomputador.

Uma figura proeminente nessa área é o pesquisador israelense do cérebro Henry Markram. Em 2005, ele iniciou o Blue Brain Project2, destinado a construir simulações numéricas “de baixo para cima” em grande escala de um grupo de cerca de 100.000 neurônios da coluna neocortical de um rato.

Um projeto interessante, embora alguém possa duvidar de quão precisa essa simulação poderia ser, dada a dificuldade de simular ainda 30 neurônios.

Em um artigo de 2006 intitulado “The Blue Brain Project”, Markram escreveu:

“Alan Turing (1912-1954) começou querendo ‘construir o cérebro’ e acabou com um computador. Nos 60 anos que se seguiram, a velocidade de computação passou de 1 operação de ponto flutuante por segundo (FLOPS) para mais de 250 trilhões – de longe a maior taxa de crescimento criada pelo homem de qualquer tipo nos 10.000 anos de civilização humana…”.

“À medida que as velocidades de cálculo se aproximam e vão além da faixa dos petaFLOPS, torna-se possível fazer a próxima série de saltos quânticos para simular redes de neurônios, regiões do cérebro e, eventualmente, todo o cérebro. Turing pode, afinal, ter fornecido os meios para construir o cérebro…”

“Um modelo de todo o cérebro no nível celular provavelmente levará a próxima década. Um modelo de nível molecular de uma [coluna neocortical do cérebro] provavelmente será viável dentro de cinco anos, e a ligação de vias bioquímicas a modelos do genoma provavelmente será alcançada em 10 anos. Não há nenhum obstáculo fundamental para modelar o cérebro e, portanto, é provável que tenhamos modelos detalhados de cérebros de mamíferos, incluindo o do homem, em um futuro próximo”.

Estimativas de vários autores sobre o desempenho do computador necessário para imitar o cérebro humano “em vários níveis de detalhe”, em comparação com o aumento da velocidade de processamento dos computadores em flops por segundo (linha vermelha). Fonte: Wikimedia Commons.

Markram reafirmou seu otimismo em nota da Palestra Global TED em Oxford em 2009:

“Temos a matemática para fazer os neurônios ganharem vida… Há literalmente apenas um punhado de equações que você precisa para simular a atividade do neocórtex. Mas o que você precisa é de um computador muito grande… Então agora temos esse supercomputador Blue Gene. Podemos carregar todos os neurônios, cada um em seu processador, ligá-lo e ver o que acontece… Espero que você esteja pelo menos parcialmente convencido de que não é impossível construir um cérebro. Podemos fazer isso em 10 anos.”

Posteriormente, Markham obteve uma doação de US$ 1 bilhão da Comissão Europeia para seu grandioso “Projeto Cérebro Humano”. O HBP foi lançado em outubro de 2013 como um dos dois projetos “carro-chefe” do programa Future and Emerging Technologies da CE. Logo teve problemas, no entanto.

Em setembro de 2014 a revista NATURE publicou um comentário por dois neurocientistas seniores, Yves Frégnac e Gilles Laurent, intitulado “Neuroscience: Where is the brain in the Human Brain Project?”

Os autores, ambos inicialmente envolvidos no projeto, descrevem-no como um “desastre cerebral”. Eles chamaram a atenção para uma carta aberta enviada à Comissão Europeia em 7 de julho de 2014, na qual neurocientistas de toda a Europa, assim como de Israel, declaravam que iriam boicotar uma chamada para os chamados “projetos de parceria” que deveriam levantar cerca de metade do financiamento total do HBP.

Nesse ínterim, a carta reuniu mais de 750 assinaturas.

Os autores observam: “Ao contrário das suposições públicas de que o HBP geraria conhecimento sobre como o cérebro funciona, o projeto está se transformando em um projeto caro de gerenciamento de banco de dados com uma busca por novas arquiteturas de computação. Nos últimos meses, o conselho executivo do HBP revelou planos para reduzir drasticamente seu braço de neurociência experimental e cognitiva, provocando a ira da comunidade européia de neurociência”.

Em 2015, o Projeto Cérebro Humano passou por uma revisão. O comitê executivo, liderado por Markram, foi dissolvido e substituído por um órgão mais representativo. O projeto continua hoje, com uma orientação mais ampla e menos hype.

Como um estranho, não posso deixar de suspeitar que o lobby das empresas de informática e TI de alguma forma desempenhou um papel na “destruição cerebral” mencionada acima.

Desnecessário dizer que a simulação de processos vivos significa um mercado gigantesco para supercomputadores e produtos de TI relacionados nas áreas de pesquisa científica, indústria farmacêutica, psicologia e medicina clínica. O financiamento em grande escala dos governos e do setor privado certamente continuará.

Mas quanto do dinheiro será gasto em propósitos realmente úteis – e quanto para promover a estupidez – ainda não se sabe.

Parte 6: A vida não é digital


Jonathan Tennenbaum recebeu seu PhD em matemática pela Universidade da Califórnia em 1973 aos 22 anos. Também físico, linguista e pianista, ele foi editor da revista FUSION. Ele mora em Berlim e viaja frequentemente para a Ásia e outros lugares, prestando consultoria em economia, ciência e tecnologia.

Fonte: https://asiatimes.com/2020/06/ais-dumb-limits-to-uploading-the-brain/

Be First to Comment

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.