O futuro da IA ​​está em seu passado verdadeiramente humano

Jonathan Tennenbaum – 9 de junho de 2020

Muitos veem o futuro da IA ​​no renascimento de uma abordagem lógica "simbólica" anterior que visava igualar a inteligência humana,

Esta é a terceira parte de uma série. Leia a parte 1 aqui e a parte 2 aqui.

Após um período de euforia, as críticas à abordagem centrada no aprendizado profundo da inteligência artificial vêm crescendo. Parece que estamos entrando em um novo episódio dos ciclos maníaco-depressivos que afligiram a IA desde o início, correlacionados a fluxos e refluxos de financiamento de agências governamentais e investidores.

Muitos hoje veem o futuro da inteligência artificial em um renascimento da chamada IA ​​simbólica – a abordagem inicial da IA ​​que visava atingir um nível verdadeiramente “humano” de inteligência usando métodos de lógica simbólica (matemática).

A ideia inicial é programar o sistema com um conjunto de axiomas (regras), um array de predicados (símbolos que representam objetos, relações, atributos, campos, propriedades, funções e conceitos) e regras de inferência, para que o sistema possa realizar raciocínio lógico do tipo que os humanos fazem.

As primeiras tentativas de desenvolver IA nessa direção foram trabalhosas e alcançaram resultados úteis principalmente na área dos chamados sistemas especialistas. Em 1983, o pioneiro da IA, John McCarthy, observou que “o desempenho dos sistemas especialistas em seus domínios especializados costuma ser muito impressionante”.

No entanto, dificilmente algum deles tem certo conhecimento de bom senso e habilidade possuída por qualquer humano não débil mental. Essa falta os torna ‘frágeis’. Fatos e métodos de senso comum são apenas parcialmente compreendidos hoje, e estender esse entendimento é o principal problema enfrentado pela IA.

De longe, a tentativa mais ambiciosa de resolver esse problema é o projeto “Cyc” lançado pelo especialista em IA Douglas Bruce Lenat por volta de 1984. Aos poucos, Lenat e sua equipe construíram um gigantesco sistema de IA, que em 2017 tinha 1.500.000 termos (416.000 categorias de objetos , mais de 1 milhão de objetos individuais), 42.500 predicados (relações, atributos, campos, propriedades, funções), 2.093.000 fatos e 24 milhões de regras e afirmações de senso comum.

Muitas das regras foram escritas individualmente por membros do grupo de Lenat, tomando mais de 1.000 anos de trabalho.

O coração do Cyc é um “mecanismo de inferência” que deriva conclusões de declarações construídas a partir dos termos e predicados de acordo com as regras. Para este propósito, Cyc emprega ferramentas de lógica matemática como o cálculo de predicados de segunda ordem, lógica modal e lógica de contexto.

Isso tudo é muito impressionante. Deixando de lado a questão do desempenho do Cyc na prática, que não estou em condições de julgar, algumas questões importantes se colocam:

A estrutura do Cyc corresponde a como o senso comum é adquirido e utilizado pelos seres humanos? Ou é mais como uma forma muito sofisticada de ajuste de curva, como tentar a quadratura do círculo?

No esforço de aproximar um círculo por polígonos, somos obrigados a adicionar cada vez mais lados. Mas os lados do polígono ainda são segmentos de linha reta; nunca obtemos nada curvo. Os estúpidos polígonos têm cada vez mais cantos, enquanto o círculo não tem nenhum. Nesse aspecto, eles se tornam cada vez mais diferentes do círculo.

Por analogia, a complexidade e o volume do banco de dados dos sistemas de IA podem crescer indefinidamente no futuro, sem nunca chegar à Terra Prometida da “inteligência semelhante à humana”. Isso, no entanto, não impediria que a IA se tornasse um instrumento cada vez mais valioso para os seres humanos, desde que [os humanos] permaneçam inteligentes o suficiente para utilizá-la adequadamente.

Estupidez dos pioneiros da IA

À medida que esta série continua, pretendo abordar, com algum detalhe, a segunda dimensão do problema da estupidez da IA, que remonta aos pioneiros da IA ​​e permeia o campo ainda hoje.

Aqui estão algumas dicas para aguçar o apetite do leitor e completar alguns pontos levantados anteriormente nesta série.

Conforme enfatizado no início, não pretendo sugerir que os pioneiros da IA ​​eram pessoas estúpidas. Isso seria bobagem. Von Neumann e Alan Turing, por exemplo, foram indivíduos excepcionalmente brilhantes, e isso vale para muitos outros na área até hoje.

Em vez disso, o que tenho em mente é a estupidez de afirmar ou acreditar que a cognição humana é essencialmente algorítmica por natureza e/ou é baseada em processos neurais elementares de tipo digital, cujos resultados poderiam ser reproduzidos com exatidão por um computador suficientemente grande. Mais concisamente, que o cérebro é uma versão biológica de um computador digital.

Por que foi estúpido fazer esse tipo de afirmação? Por que é estúpido continuar fazendo isso hoje?

Nos próximos capítulos, focarei em dois motivos principais.

Neurobiologia:

Os neurônios vivos reais se comportam de maneira completamente diferente dos elementos de comutação que compõem um computador digital. Entre muitas, muitas outras coisas, os neurônios vivos – como todas as outras células vivas – têm sua própria atividade espontânea. Como pássaros cantando nas árvores, os neurônios frequentemente emitem pulsos e rajadas rítmicas de pulsos na ausência de quaisquer sinais de neurônios conectados a eles.

Redes reais de neurônios nos cérebros de humanos e animais não exibem nada do comportamento rigidamente algorítmico implícito nos primeiros modelos matemáticos de redes neurais. Tampouco se comportam como as redes neurais artificiais nas quais se baseiam os atuais sistemas de IA de “aprendizagem profunda”.

À medida que continuamos esta série, apresentarei descobertas fascinantes em neurobiologia nas últimas décadas, descobertas que destroem os restos do conceito de “computador biológico” do cérebro.

É claro que os dados modernos não estavam disponíveis para pioneiros da IA ​​como John von Neumann e Alan Turing, nem para McCullock e Pitts – autores dos primeiros modelos matemáticos de redes neurais. A base conceitual para IA foi lançada nas décadas de 1940 e 1950.

Mas havia muitas evidências do comportamento espontâneo dos neurônios, suas explosões pulsáteis, a chamada codificação de frequência no controle neuromotor, a existência de formas químicas de comunicação dentro do sistema nervoso, a presença de oscilações de membrana etc.

Por mais interessante e frutífero que tenha sido para o desenvolvimento inicial da IA, do ponto de vista biológico, o modelo de rede neural era um absurdo desde o início. No entanto, os pioneiros da IA ​​continuaram com a noção estúpida (S 1; veja a primeira parte para a lista completa) que o cérebro é essencialmente um sistema de computação digital.

Acreditando que estavam prestes a resolver os mistérios do cérebro e da mente, eles superestimaram grosseiramente o poder de seus próprios métodos matemáticos e modos de pensar (S 3) – métodos que, é verdade, tiveram sucesso na construção da primeira bomba atômica, máquinas eletrônicas de computação e decifração de código, radar, sistemas de orientação automática e assim por diante durante a Segunda Guerra Mundial e o período pós-guerra imediato.

A natureza do significado

Os significados de conceitos essenciais, como eles realmente ocorrem na atividade cognitiva humana, não podem ser adequadamente definidos ou representados em termos combinatórios formais. Eles não podem ser armazenados em uma base de computador ou incorporados a uma arquitetura de software.

[O tradutor – físico e pesquisador em computação numérica de alto desempenho — acrescenta a este argumento o fato de que o ser humano, como todos os animais, é essencialmente criativo. Assim não existe um momento no tempo no qual todos os significados atribuíveis possam ser coletados e usados para teinar um sistema hipotético, mas necessariamente capaz, de IA de modo a predizer todas a formas possiveis que a mente humana pode remapear os significados existentes, ou mesmo inventar significados. Novamente, a capacidade de apreciar e entender a ironia e o humor – principalemente o satírico- permanecem como critérios infalíveis para reconhecer a inteligencia.]

Os pioneiros da inteligência artificial deveriam ter reconhecido esse fato, mesmo sem os resultados da década de 1930 de Kurt Gödel em lógica matemática, com os quais von Neumann, Turing e outros estavam totalmente familiarizados. Mas os argumentos de Gödel não deixam dúvidas razoáveis ​​sobre a inesgotabilidade do significado, mesmo para conceitos matemáticos supostamente simples como o de um “conjunto finito” ou “verdade” conforme se aplica a proposições matemáticas.

A julgar por seus escritos, fica-se com a impressão de que os pioneiros da IA ​​não entenderam (S 4) o significado do trabalho de Gödel.

Não é necessário, entretanto, estudar lógica matemática para reconhecer que o “significado” está fora do universo das relações combinatórias. Ninguém precisa ser um “sapo no fundo do poço”.

Próximo: Descobertas neurobiológicas destroem os restos do conceito de “computador biológico” do cérebro.


Jonathan Tennenbaum recebeu seu PhD em matemática pela Universidade da Califórnia em 1973 aos 22 anos. Também físico, linguista e pianista, ele foi editor da revista FUSION. Ele mora em Berlim e viaja frequentemente para a Ásia e outros lugares, prestando consultoria em economia, ciência e tecnologia.

Fonte: https://asiatimes.com/2020/06/ais-future-lies-in-its-truly-human-past/

Be First to Comment

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.