Huang Renxun: A super Moore's Law for Nvidia, chip performance increases 1000 times in 10 years.

金色财经_

Fonte: AI Faner

O CEO da Nvidia, Huang Renxun, afirmou que o progresso do desempenho dos chips de IA da empresa ultrapassou a Lei de Moore, que costumava dominar o desenvolvimento da tecnologia de computação por décadas.

No segundo dia de manhã após dar um discurso principal para 10.000 espectadores na CES em Las Vegas, Huang Renxun disse em uma entrevista: “A velocidade de desenvolvimento do nosso sistema supera em muito a Lei de Moore.”

A Lei de Moore foi proposta por Gordon Moore, co-fundador da Intel, em 1965, prevendo que o número de transistores em um chip dobraria a cada ano, resultando em um aumento no desempenho do chip. Essa previsão foi basicamente realizada nas décadas seguintes, impulsionando o rápido aumento da capacidade de processamento e a queda significativa nos custos.

Embora o ímpeto do desenvolvimento da Lei de Moore tenha desacelerado nos últimos anos, Huang Renxun disse que os chips de IA da Nvidia estão se desenvolvendo mais rapidamente. A empresa afirma que seu mais recente chip supercomputador para data center melhorou em mais de 30 vezes o desempenho de inferência de IA em comparação com a geração anterior.

Huang Renxun explained that by innovating at various levels such as architecture, chips, systems, libraries, and algorithms, it is possible to break through the limitations of Moore’s Law.

Quando muitas pessoas questionam se o desenvolvimento da IA está estagnado, o CEO da Nvidia fez essa afirmação audaciosa. Os principais laboratórios de IA, como o Google, OpenAI e Anthropic, estão usando os chips de IA da Nvidia para treinar e executar seus modelos, e o aumento no desempenho dos chips provavelmente trará avanços adicionais na capacidade da IA.

Esta não é a primeira vez que Huang Renxun expressa a ideia de que a Nvidia está além da Lei de Moore. Ele mencionou em um podcast em novembro que o campo da IA está passando por um desenvolvimento estilo “Lei de Moore superpotente”.

Ele refutou a alegação de que o avanço da IA está desacelerando e apontou que atualmente existem três leis de desenvolvimento da IA: pré-treino (aprendizado de padrões a partir de dados em massa), pós-treino (ajuste fino por meio de feedback humano, entre outros) e cálculo durante o teste (dando mais tempo de ‘pensar’ para a IA).

Huang Renxun afirmou que, tal como a Lei de Moore impulsionou o desenvolvimento da tecnologia de computação ao reduzir os custos de computação, melhorar o desempenho do raciocínio de IA também reduzirá o seu custo de utilização.

Embora o H100 da Nvidia tenha sido a escolha principal das empresas de tecnologia para treinar modelos de IA, à medida que essas empresas se voltam para a fase de inferência, algumas pessoas começaram a questionar se os chips caros da Nvidia podem continuar a manter a vantagem.

Atualmente, o custo de execução do modelo de IA calculado durante o teste é muito alto. Tomando o modelo o3 da OpenAI como exemplo, ele atinge o desempenho humano em testes de inteligência geral, mas custa quase 20 dólares por tarefa, enquanto a assinatura do ChatGPT Plus custa 20 dólares por mês.

Na palestra principal de segunda-feira, Huang Renxun apresentou o mais recente superchip de centro de dados GB200 NVL72. Este chip tem um desempenho de inferência de IA 30-40 vezes maior do que o H100 mais vendido anteriormente. Ele afirmou que esse salto de desempenho reduzirá o custo de uso de modelos que exigem um grande número de cálculos de inferência, como o OpenAI o3.

Huang Renxun enfatiza que seu foco é melhorar o desempenho do chip, porque a longo prazo, maior desempenho significa preços mais baixos.

Ele afirmou que aumentar a capacidade de cálculo é a solução direta para resolver os problemas de desempenho e custo nos testes. A longo prazo, os modelos de inferência de IA também podem fornecer melhores dados para as fases de pré-treinamento e pós-treinamento.

No último ano, o preço dos modelos de IA realmente diminuiu significativamente, graças aos avanços computacionais de empresas de hardware como a Nvidia. Embora o novo modelo de inferência lançado pela OpenAI tenha um preço alto, Hwang In-hyun espera que essa tendência de queda de preços continue.

Ele também afirmou que o desempenho dos chips de IA da Nvidia aumentou mil vezes em comparação com 10 anos atrás, superando em muito a velocidade de desenvolvimento da Lei de Moore, e esse impulso de rápido desenvolvimento não mostra sinais de desaceleração.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário