Nova arquitetura de computação chinesa ‘inspirada no cérebro humano’ pode levar à IAG, dizem cientistas
Cientistas em China criaram uma nova arquitetura de computação que pode treinar avançados inteligência artificial (IA) consomem menos recursos de computação — e eles esperam que um dia isso leve à inteligência artificial geral (AGI).
Os modelos de IA mais avançados hoje — predominantemente modelos de grandes linguagens (LLMs) como Bate-papoGPT ou Cláudio 3 — usar redes neurais. Essas são coleções de algoritmos de aprendizado de máquina dispostos em camadas para processar dados de uma forma semelhante ao cérebro humano e pesar diferentes opções para chegar a conclusões.
Os LLMs são atualmente limitados porque não conseguem executar além dos limites de seus dados de treinamento e não conseguem raciocinar bem como humanos. No entanto, a AGI é um sistema hipotético que pode raciocinar, contextualizar, editar seu próprio código e entender ou aprender qualquer tarefa intelectual que um humano possa.
Hoje, a criação de sistemas de IA mais inteligentes depende da construção de redes neurais ainda maiores. Alguns cientistas acreditam redes neurais podem levar à AGI se for dimensionado o suficiente. Mas isso pode ser impraticável, dado que o consumo de energia e a demanda por recursos de computação também aumentarão com isso.
Outros pesquisadores sugerem que novas arquiteturas ou uma combinação de diferentes arquiteturas de computação são necessárias para alcançar um futuro sistema AGI. Nesse sentido, um novo estudo publicado em 16 de agosto na revista Ciência Computacional da Natureza propõe uma nova arquitetura de computação inspirada no cérebro humano que deverá eliminar os problemas práticos de expansão de redes neurais.
Relacionado: 22 empregos que a inteligência artificial geral (AGI) pode substituir — e 10 empregos que ela pode criar
“Pesquisadores de inteligência artificial (IA) atualmente acreditam que a principal abordagem para construir problemas de modelos mais gerais é o grande modelo de IA, onde as redes neurais existentes estão se tornando mais profundas, maiores e mais amplas. Nós chamamos isso de grande modelo com abordagem de complexidade externa”, disseram os cientistas no estudo. “Neste trabalho, argumentamos que há outra abordagem chamada pequeno modelo com complexidade interna, que pode ser usada para encontrar um caminho adequado de incorporar propriedades ricas em neurônios para construir modelos de IA maiores e mais eficientes.”
O cérebro humano tem 100 bilhões de neurônios e quase 1.000 trilhões de conexões sinápticas — com cada neurônio se beneficiando de uma estrutura interna rica e diversa, disseram os cientistas em um declaração. No entanto, seu consumo de energia é de apenas 20 watts.
Com o objetivo de imitar essas propriedades, os pesquisadores usaram uma abordagem focada na “complexidade interna” em vez da “complexidade externa” de escalonamento de arquiteturas de IA — a ideia é que focar em tornar os neurônios artificiais individuais mais complexos levará a um sistema mais eficiente e poderoso.
Eles construíram uma rede Hodgkin-Huxley (HH) com rica complexidade interna, onde cada neurônio artificial era um modelo HH que poderia ser dimensionado em complexidade interna.
Hodgkin-Huxley é um modelo computacional que simula a atividade neural e mostra a mais alta precisão na captura de picos neuronais — um pulso que os neurônios usam para se comunicar entre si — de acordo com um estudo de 2022. Ele tem alta plausibilidade para representar o padrão de disparo de neurônios reais, um Estudo de 2021 mostra e, portanto, é adequado para modelar uma arquitetura de rede neural profunda que visa replicar processos cognitivos humanos.
No estudo, os cientistas demonstraram que este modelo pode lidar com tarefas complexas de forma eficiente e confiável. Eles também mostraram que um pequeno modelo baseado nesta arquitetura pode ter um desempenho tão bom quanto um modelo convencional muito maior de neurônios artificiais.
Embora a AGI seja um marco que ainda escapa à ciência, alguns pesquisadores dizem que é apenas uma questão de anos até que a humanidade construa o primeiro modelo desse tipo — embora existam visões concorrentes sobre como chegar lá. A SingularityNET, por exemplo, tem propôs a construção de uma rede de supercomputação que depende de uma rede distribuída de diferentes arquiteturas para treinar um futuro modelo AGI.