OpenAI e rivais buscam um novo caminho para uma IA mais inteligente à medida que os métodos atuais atingem limitações
Empresas de inteligência artificial como a OpenAI estão buscando superar atrasos e desafios inesperados na busca por modelos de linguagem cada vez maiores, desenvolvendo técnicas de treinamento que usam formas mais humanas para os algoritmos “pensarem”.
Uma dúzia de cientistas, pesquisadores e investidores de IA disseram à Reuters que acreditam que essas técnicas, que estão por trás do modelo o1 recentemente lançado da OpenAI, poderiam remodelar a corrida armamentista de IA e ter implicações para os tipos de recursos que as empresas de IA têm uma demanda insaciável, desde energia para tipos de chips.
OpenAI se recusou a comentar esta história. Após o lançamento do chatbot viral ChatGPT há dois anos, as empresas tecnológicas, cujas avaliações beneficiaram enormemente do boom da IA, defenderam publicamente que a “ampliação” dos modelos actuais através da adição de mais dados e poder computacional conduzirá consistentemente a modelos de IA melhorados.
Mas agora, alguns dos mais proeminentes cientistas de IA estão a falar sobre as limitações desta filosofia “quanto maior, melhor”.
Ilya Sutskever, cofundador dos laboratórios de IA Safe Superintelligence (SSI) e OpenAI, disse recentemente à Reuters que isso resulta da ampliação do pré-treinamento – a fase de treinamento de um modelo de IA que usa uma grande quantidade de dados não rotulados para compreender padrões e estruturas de linguagem – estabilizaram.
Sutskever é amplamente creditado como um dos primeiros defensores da obtenção de grandes saltos no avanço da IA generativa por meio do uso de mais dados e poder de computação no pré-treinamento, o que acabou criando o ChatGPT. Sutskever deixou a OpenAI no início deste ano para fundar a SSI.
“A década de 2010 foi a era da expansão, agora estamos de volta à era da maravilha e da descoberta mais uma vez. Todo mundo está procurando o próximo passo”, disse Sutskever. “Escalar a coisa certa é mais importante agora do que nunca.”
Sutskever recusou-se a partilhar mais detalhes sobre como a sua equipa está a abordar a questão, além de dizer que a SSI está a trabalhar numa abordagem alternativa para ampliar o pré-treinamento.
Nos bastidores, pesquisadores dos principais laboratórios de IA têm enfrentado atrasos e resultados decepcionantes na corrida para lançar um grande modelo de linguagem que supere o modelo GPT-4 da OpenAI, que tem quase dois anos, de acordo com três fontes familiarizadas com assuntos privados.
As chamadas “execuções de treinamento” para modelos grandes podem custar dezenas de milhões de dólares pela execução simultânea de centenas de chips. É mais provável que tenham falhas induzidas por hardware, dada a complexidade do sistema; os pesquisadores podem não saber o eventual desempenho dos modelos até o final da execução, o que pode levar meses.
Outro problema é que os grandes modelos de linguagem devoram enormes quantidades de dados, e os modelos de IA esgotaram todos os dados facilmente acessíveis do mundo. A escassez de energia também prejudicou os treinamentos, pois o processo requer grandes quantidades de energia.
Para superar estes desafios, os investigadores estão a explorar a “computação em tempo de teste”, uma técnica que melhora os modelos de IA existentes durante a chamada fase de “inferência”, ou quando o modelo está a ser utilizado. Por exemplo, em vez de escolher imediatamente uma única resposta, um modelo poderia gerar e avaliar múltiplas possibilidades em tempo real, escolhendo, em última análise, o melhor caminho a seguir.
Este método permite que os modelos dediquem mais poder de processamento a tarefas desafiadoras, como problemas matemáticos ou de codificação ou operações complexas que exigem raciocínio e tomada de decisão semelhantes aos humanos.
“Descobriu-se que ter um bot pensando por apenas 20 segundos em uma mão de pôquer obteve o mesmo aumento de desempenho que aumentar o modelo em 100.000 vezes e treiná-lo por 100.000 vezes mais”, disse Noam Brown, pesquisador da OpenAI que trabalhou em o1, na conferência TED AI em São Francisco no mês passado.
A OpenAI adotou essa técnica em seu modelo recém-lançado conhecido como “o1”, anteriormente conhecido como Q* e Strawberry, que a Reuters relatou pela primeira vez em julho. O modelo O1 pode “pensar” nos problemas em várias etapas, semelhante ao humano. raciocínio Também envolve o uso de dados e feedback selecionados por PhDs e especialistas do setor. O molho secreto da série o1 é outro conjunto de treinamento realizado com base em modelos “básicos” como o GPT-4, e a empresa afirma que planeja aplicar. esta técnica com modelos básicos cada vez maiores.
Ao mesmo tempo, pesquisadores de outros laboratórios importantes de IA, como Anthropic, xAI e Google DeepMind, também têm trabalhado para desenvolver suas próprias versões da técnica, de acordo com cinco pessoas familiarizadas com os esforços.
“Vemos muitos frutos ao alcance da mão que podemos colher para melhorar esses modelos muito rapidamente”, disse Kevin Weil, diretor de produtos da OpenAI, em uma conferência de tecnologia em outubro. “Quando as pessoas se atualizarem, tentaremos estar mais três passos à frente.”
Google e xAI não responderam aos pedidos de comentários e a Anthropic não fez comentários imediatos.
As implicações podem alterar o cenário competitivo do hardware de IA, até agora dominado pela demanda insaciável pelos chips de IA da Nvidia. Investidores proeminentes de capital de risco, desde a Sequoia até Andreessen Horowitz, que investiram milhares de milhões para financiar o desenvolvimento dispendioso de modelos de IA em vários laboratórios de IA, incluindo OpenAI e xAI, estão a tomar conhecimento da transição e a avaliar o impacto nas suas apostas dispendiosas.
“Essa mudança nos levará de um mundo de enormes clusters de pré-treinamento para nuvens de inferência, que são servidores distribuídos e baseados em nuvem para inferência”, disse Sonya Huang, sócia da Sequoia Capital, à Reuters.
A demanda pelos chips de IA da Nvidia, que são os mais avançados, impulsionou sua ascensão para se tornar a empresa mais valiosa do mundo, ultrapassando a Apple em outubro. Ao contrário dos chips de treinamento, onde a Nvidia domina, a gigante dos chips poderá enfrentar mais concorrência no mercado de inferência.
Questionada sobre o possível impacto na demanda por seus produtos, a Nvidia apontou apresentações recentes da empresa sobre a importância da técnica por trás do modelo o1. Seu CEO, Jensen Huang, falou sobre o aumento da demanda pelo uso de seus chips para inferência.
“Descobrimos agora uma segunda lei de escala, e esta é a lei de escala em um momento de inferência… Todos esses fatores levaram a que a demanda por Blackwell fosse incrivelmente alta”, disse Huang no mês passado em uma conferência na Índia. , referindo-se ao mais recente chip de IA da empresa.