Ark Invest: O estado atual e o futuro da infraestrutura de IA

Fonte: Frank Downing, Ark Invest; Tradução: Golden Finance Claw

Gastos com infraestrutura de IA crescem de forma explosiva

Nos três anos desde o lançamento do ChatGPT, a demanda por computação acelerada cresceu de forma exponencial. A receita anual da Nvidia disparou quase 8 vezes, passando de 27 bilhões de dólares em 2022 para 216 bilhões em 2025, com expectativas de um crescimento adicional de 62% em 2026, atingindo 350 bilhões de dólares. O investimento em sistemas de data centers globais (incluindo hardware de computação, rede e armazenamento) acelerou de uma média anual de 5% até 2022 para mais de 30% nos últimos três anos, com previsão de mais de 30% de crescimento em 2026, chegando a 653 bilhões de dólares.

Pesquisas da ARK indicam que a computação acelerada, impulsionada por GPUs e circuitos integrados específicos para IA (ASICs), agora domina os investimentos em servidores, representando 86% das vendas de servidores de computação.

Queda de custos impulsiona adoção de aceleradores

O aumento contínuo nos gastos com infraestrutura de computação acelerada para treinar modelos de IA é impulsionado pela expansão de cenários de uso de IA generativa tanto no consumo quanto nas empresas, além da necessidade de treinar modelos mais inteligentes na busca por “superinteligência”.

A rápida redução de custos está acelerando ainda mais essa demanda. Segundo nossas pesquisas, o custo de treinamento de IA cai 75% ao ano. Os custos de inferência caem ainda mais rápido — em testes de referência acompanhados pela Artificial Analysis, mais de 50% dos modelos tiveram uma redução anual de custos de até 95%.

Dois fatores principais impulsionam essa queda de custos: primeiro, líderes do setor como a Nvidia lançam novos produtos anualmente, trazendo melhorias de desempenho em hardware; segundo, melhorias nos algoritmos de software aumentam a eficiência do treinamento e inferência na mesma infraestrutura de hardware.

Sinal forte de demanda de consumidores e empresas

A adoção de IA pelos consumidores está ocorrendo a uma velocidade claramente superior àquela da adoção da internet na época. A taxa de penetração da IA expandiu-se para cerca de 20% em três anos, mais do que o dobro da velocidade de adoção da internet pelos consumidores.

A demanda empresarial também cresce de forma surpreendente. Segundo dados da OpenRouter, desde dezembro de 2024, a demanda por tokens aumentou 28 vezes.

Nos últimos dois anos, o laboratório de IA Anthropic, altamente valorizado por clientes corporativos, cresceu cerca de 100 vezes em receita — de 1 milhão de dólares de receita operacional anualizada no final de 2023 para uma estimativa de 8 a 10 bilhões de dólares no final de 2025. A tendência de crescimento da Anthropic continua em 2026, com anúncio de receita anualizada de 14 bilhões de dólares em fevereiro e uma rodada de financiamento de 30 bilhões, elevando sua avaliação para 380 bilhões de dólares.

Na corrida simultânea entre consumidores e empresas, a OpenAI também registra forte crescimento entre clientes corporativos, atingindo 1 milhão de clientes empresariais até novembro de 2025. Segundo a CFO Sarah Friar, a receita de negócios corporativos da OpenAI cresce mais rápido que a de consumidores, devendo representar 50% do total em 2026. Em um blog de janeiro de 2026, Friar também explicou os motivos para continuar investindo em infraestrutura: nos últimos três anos, a receita da OpenAI cresceu proporcionalmente à sua capacidade de computação.

Mercado de private equity financia construção de IA

Para atender a essa forte demanda, investimentos em infraestrutura em larga escala tornaram-se essenciais. Segundo dados do Crunchbase, em 2025, o financiamento de laboratórios privados de IA ultrapassou 200 bilhões de dólares, dos quais cerca de 80 bilhões foram destinados a desenvolvedores de modelos fundamentais como OpenAI, Anthropic e xAI. No mercado público, grandes empresas de computação em nuvem estão usando suas reservas de caixa e buscando outras formas de financiamento para sustentar seus planos de gastos em IA — estimados em até 700 bilhões de dólares em 2026.

Relatos indicam que a transação de 30 bilhões de dólares entre Meta e Blue Owl é a maior operação de capital privado já realizada. A transação foi estruturada como uma joint venture, principalmente com financiamento por dívida, usando uma estrutura de veículo de propósito específico (SPV) que isenta a dívida do balanço da Meta, gerando bastante controvérsia.

AMD e outros concorrentes representam forte desafio à Nvidia

Fora dos data centers físicos, os chips de computação continuam sendo o núcleo dos investimentos em IA. A Nvidia lidera a era da computação acelerada, mas os maiores compradores de chips de IA estão agora buscando maximizar o poder de processamento por dólar investido. Desde a aquisição da ATI Technologies em 2006, a AMD tem competido lado a lado com a Nvidia na venda de GPUs para o mercado de consumo, e agora também emerge como concorrente no mercado empresarial. Desde o lançamento da série de processadores EPYC em 2017, a participação da AMD no mercado de CPUs para servidores cresceu de quase zero em 2017 para cerca de 40% em 2025.

No que diz respeito à inferência de modelos menores, as GPUs da AMD já oferecem um custo total de propriedade (TCO) relativamente competitivo em relação ao desempenho da Nvidia. TCO considera tanto o custo inicial de aquisição (capex) quanto os custos operacionais ao longo da vida útil do chip (opex). Os benchmarks usam o índice InferenceMax da SemiAnalysis, que mede a quantidade de tokens processados por GPU por segundo, otimizado para throughput, enquanto o custo é estimado com base na análise de capex e opex por hora.

Embora a AMD esteja “alcançando” a Nvidia em desempenho de modelos menores, a Nvidia ainda mantém uma vantagem significativa em desempenho de modelos maiores, como mostra o gráfico abaixo.

A solução Grace Blackwell da Nvidia conecta 72 GPUs Grace Blackwell (GB200) em rede, fazendo-as funcionar como uma GPU de memória compartilhada de grande escala. Essa interconexão estreita entre chips reforça a capacidade de inferência de modelos grandes — que precisam distribuir os pesos do modelo por várias GPUs, exigindo maior largura de banda de comunicação. Para reduzir a diferença antes do lançamento do Vera Rubin, a AMD planeja lançar sua solução de rack no segundo semestre de 2026. Até agora, a AMD já conquistou pedidos de clientes como Microsoft, Meta, OpenAI, xAI e Oracle.

Gigantes de nuvem lideram revolução de chips customizados

Além dos fornecedores de GPUs comerciais, gigantes de nuvem e laboratórios de IA também buscam desenvolver seus próprios chips para reduzir a dependência da Nvidia e diminuir custos de computação de IA. Há mais de uma década, a Google projeta seus próprios circuitos especializados — os TPUs (Tensor Processing Units) — usados para rodar modelos de recomendação em seus serviços de busca, com otimizações de desempenho na última geração TPU v7 para IA generativa. Segundo a SemiAnalysis, a Google consegue reduzir em 62% o custo por cálculo ao usar seus TPUs internos, em comparação com a Nvidia. A Anthropic e a Meta usam os TPUs da Google para ampliar sua capacidade de computação, o que sugere que a estimativa de 62% de redução de custos não está longe da realidade.

A Amazon, com seu chip Trainium, parece oferecer uma solução de tecnologia um pouco mais avançada. Após adquirir a Annapurna Labs em 2015, a Amazon foi pioneira no desenvolvimento de chips customizados para sua nuvem, expandindo seus processadores ARM-based Graviton e unidades de processamento de dados Nitro, que sustentam a infraestrutura de computação da AWS. Recentemente, a Amazon anunciou que, em 2025, o Graviton forneceu mais da metade da nova capacidade de CPU da AWS pelo terceiro ano consecutivo. Além do uso de TPUs, a Anthropic também escolheu a AWS e o Trainium como plataformas preferenciais de treinamento.

A Microsoft entrou na corrida de chips customizados apenas em 2023, lançando o acelerador de IA Maia 100, inicialmente sem foco em IA generativa. Agora, com a segunda geração, a Microsoft direciona seus esforços para inferência de IA.

Liderança de Broadcom no mercado de chips customizados

A Google e a Amazon concentram-se no design de chips de front-end (arquitetura e funcionalidades), enquanto parceiros de design de back-end são responsáveis por transformar essa lógica em chips de silício, gerenciar embalagens avançadas e coordenar a produção com fabricantes como a TSMC. Com os desafios enfrentados pela Intel na fabricação de chips, a TSMC tornou-se o principal parceiro de fabricação para a maioria dos projetos de chips de IA, enquanto a Broadcom se destaca como principal parceira de design de back-end para os chips personalizados da Google TPU, Meta MTIA e os próximos chips da OpenAI previstos para 2026. A Apple, tradicionalmente, realiza todo o design de seus chips de telefone e PC internamente, mas há rumores de que também possa estar colaborando com a Broadcom no desenvolvimento de chips de IA. O Citibank projeta que a receita de IA da Broadcom pode crescer cinco vezes nos próximos dois anos, passando de 20 bilhões de dólares em 2025 para 100 bilhões em 2027.

O caminho de pesquisa e desenvolvimento do Trainium da Amazon é bastante singular — segundo relatos, o Trainium 2 foi desenvolvido em parceria com a Marvell, mas, devido a problemas de execução da Marvell, o Trainium 3 e o Trainium 4 passaram a colaborar com a Alchip. A capacidade de trocar de parceiro de back-end demonstra que a integração vertical apresenta riscos para empresas como a Broadcom. Vale notar que a Apple e a Tesla também trabalham diretamente com fabricantes de chips. A Google, por sua vez, pode estar desenvolvendo seu TPU v8 de forma semelhante — com dois SKUs, um projetado em parceria com a Broadcom e outro desenvolvido e controlado internamente, com suporte da MediaTek.

Startups de chips em ascensão

Nossa pesquisa indica que uma série de startups que tentam novas arquiteturas podem desafiar ainda mais a posição dos fabricantes atuais. A Cerebras, famosa pelo seu motor de wafer (um enorme chip feito de uma única lâmina de silício do tamanho de uma pizza), promete lançar-se este ano, oferecendo a maior velocidade de processamento de tokens do mercado. Recentemente, anunciou uma parceria com a OpenAI para lançar o modelo de programação de alta velocidade Codex Spark, após uma colaboração anterior em janeiro deste ano. A Groq, também reconhecida pela sua velocidade de processamento, assinou recentemente um acordo de licença de propriedade intelectual no valor de 20 bilhões de dólares com a Nvidia, incluindo 90% de seus funcionários e o CEO e cofundador do TPU, Jonathan Ross. Essa operação é, na prática, uma aquisição da equipe e tecnologia da Groq, uma estratégia cada vez mais comum no mercado de fusões e aquisições, onde gigantes tecnológicos buscam evitar atrasos regulatórios. Em outras movimentações, a Intel, após uma tentativa de aquisição fracassada, passou a colaborar com a SambaNova. Desde 2014, a Intel realizou quatro aquisições no setor de IA, sem ainda lançar um produto amplamente reconhecido, o que é bastante frustrante.

Perspectivas para 2030: mercado de 1,4 trilhão de dólares

Segundo nossas análises, o crescimento contínuo da demanda e o aprimoramento de desempenho nos próximos cinco anos impulsionarão o desenvolvimento de softwares e serviços de nuvem de IA, com gastos em infraestrutura de IA triplicando de 2025 a 2030 — de 500 bilhões para quase 1,5 trilhão de dólares.

Nossa previsão baseia-se na observação histórica do investimento em sistemas de data center em relação à receita de software. No início dos anos 2010, com o crescimento da computação em nuvem, os investimentos em sistemas representavam cerca de 50% dos gastos globais com software. Em 2021, após o boom de investimentos durante a pandemia, essa proporção caiu para pouco mais de 20%. Nossa previsão de 1,5 trilhão de dólares assume que, em 2030, o investimento será cerca de 20% do cenário de previsão neutra de gastos globais com software (que é de 7 trilhões de dólares em 2030), uma estimativa detalhada em um blog publicado no ano passado. Acreditamos que esse nível de 20% já considera os riscos de superinvestimento antes de 2030 e a possibilidade de crescimento mais lento do que a previsão neutra — neste caso, o investimento em infraestrutura continuará crescendo rapidamente, como na década de 2010.

À medida que a demanda por poder de processamento impulsionada por IA continua a crescer, prevemos que a participação de chips customizados no gasto de computação aumentará, pois o tempo e o capital necessários para projetar chips específicos para cargas de trabalho se tornarão cada vez mais vantajosos em escala. Acreditamos que, até 2030, os ASICs customizados podem representar mais de um terço do mercado de computação.

De modo geral, nossa análise indica que a atual construção de infraestrutura não é uma bolha prestes a estourar, mas uma transformação de plataforma sem precedentes. AARK projeta que, até 2030, os gastos anuais com infraestrutura de IA chegarão a quase 1,5 trilhão de dólares, impulsionados por uma demanda real e contínua de consumidores e empresas, enquanto a redução de custos valida e libera novas aplicações. Acreditamos que, nos próximos cinco anos, as empresas que se destacarem serão aquelas capazes de projetar chips mais eficientes, construir modelos mais poderosos e implantá-los em larga escala.

Como afirmou o CEO da Nvidia, Jensen Huang, na teleconferência de resultados do quarto trimestre fiscal de 2026, os agentes de IA realmente úteis começaram a se popularizar nos últimos meses. Eles consomem uma quantidade enorme de tokens, mas possuem capacidades muito superiores à maioria dos produtos de IA que os usuários estavam acostumados. Expandir esses agentes para milhões de empresas será uma tarefa altamente intensiva em computação, mas, na nossa visão, o aumento de produtividade resultante valerá totalmente esses investimentos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar