「Comprar quanta capacidade de computação? Tudo」: Co-fundador da OpenAI afirma que os 110 mil milhões de dólares ainda não atendem à procura, o pré-treinamento já mudou para otimização conjunta de custos

BlockBeatNews

De acordo com o monitorização de 1M AI News, o cofundador da OpenAI Greg Brockman, numa entrevista, recordou o salto significativo nas capacidades de programação por IA em Dezembro de 2025. Ele usou um teste prompt que guardou durante anos para medir o progresso: fazer com que a IA construísse um website que, na altura em que ele aprendeu a programar, lhe tinha levado meses a concluir. Ao longo de 2025, esta tarefa exigia várias rondas de prompts e cerca de quatro horas para ficar bem; em Dezembro, com um único prompt ficou feito e com qualidade muito boa. Ele afirmou que o novo modelo fez com que a IA passasse de «conseguir concluir cerca de 20% das tarefas» para «cerca de 80%», e que esta mudança obrigou todos a «terem de reorganizar os fluxos de trabalho em torno da IA».

Quanto ao destino dos 1100 mil milhões de dólares de financiamento, Brockman comparou o poder de computação a «contratar vendedores»: desde que o produto tenha canais de vendas escaláveis, quanto mais vendedores contratar, mais receita gera. O poder de computação não é um centro de custos, mas um centro de receitas. Ele recordou uma conversa com a equipa na véspera do lançamento do ChatGPT: «Eles perguntaram ‘quanto poder de computação devemos comprar?’ Eu disse ‘todo’. Eles disseram ‘não, não, a sério, afinal de contas, quanto devemos comprar?’ Eu disse ‘o que quer que construamos, não vai conseguir acompanhar a procura.’» Este juízo continua válido até hoje, e a compra de poder de computação precisa de ser assegurada com antecedência de 18 a 24 meses.

Sobre como usar este poder de computação, Brockman revelou que a OpenAI já não procura apenas a maior escala de treino prévio, mas sim otimizar em conjunto a capacidade de treino prévio e o custo de inferência: «Não é necessariamente preciso fazê-lo o mais grande possível, porque também há que ter em conta os muitos cenários de uso de inferência downstream; aquilo que verdadeiramente pretende é a melhor solução de inteligência multiplicada pelo custo.» Mas ele opôs-se claramente à ideia de que «o treino prévio já não importa», argumentando que quanto mais inteligente for o modelo base, maior será a eficiência nas fases subsequentes de aprendizagem por reforço e de inferência; ainda assim, é «absolutamente necessário» recorrer a GPUs Nvidia para suportar treino centralizado em grande escala.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários