O sucesso alimentado pela eletricidade industrial: como a China está a alcançar a sua independência em inteligência artificial

Há oito anos, a história da ZTE foi uma lição amarga sobre depender de tecnologia estrangeira. Em 16 de abril de 2018, a proibição americana impôs uma paralisação imediata às operações da empresa, deixando uma companhia com 80 mil funcionários e receitas anuais superiores a um trilhão de yuans completamente paralisada. Hoje, após oito anos, a indústria conta uma história totalmente diferente. Em fevereiro de 2026, a DeepSeek anunciou um modelo multimodal totalmente baseado em chips chineses locais, alcançando pela primeira vez uma solução integrada independente da NVIDIA. Essa mudança não foi por acaso, mas resultado de uma estratégia abrangente que combina inovações em algoritmos, chips e, principalmente, na abundância de energia industrial.

Superando o bloqueio: de monopólio CUDA à construção própria

O verdadeiro problema enfrentado pelas empresas chinesas de IA não eram apenas os chips, mas a plataforma CUDA da NVIDIA. Lançada em 2006, essa plataforma tornou-se a espinha dorsal de toda a indústria de IA global. Até 2025, tinha 4,5 milhões de desenvolvedores ligados a ela, com mais de 90% dos desenvolvedores de IA no mundo operando nesse ambiente.

O núcleo do problema é que o CUDA funciona como uma roda autoalimentada: quanto mais usuários, mais ferramentas e bibliotecas prosperam, atraindo ainda mais desenvolvedores. Com o tempo, migrar de CUDA tornou-se uma tarefa que exigia reescrever décadas de experiência e códigos acumulados.

Porém, as restrições americanas — três ondas de restrições entre 2022 e 2024 — forçaram as empresas chinesas a escolherem um caminho mais difícil. Optaram por uma via indireta, que começou pelas algoritmos, não pelos chips.

A nova equação: aprimoramento de algoritmos e eficiência econômica

De final de 2024 a 2025, as empresas chinesas de IA adotaram massivamente modelos de especialistas mistos (MoE). Em vez de ativar um modelo gigante completo, dividem a tarefa entre vários pequenos especialistas, reduzindo drasticamente o consumo de recursos.

O DeepSeek V3 foi um exemplo perfeito dessa abordagem: 671 bilhões de parâmetros, mas ativados apenas 37 bilhões (5,5%) durante a inferência. O custo de treinamento foi de 5,576 milhões de dólares usando 2048 unidades de processamento H800 por 58 dias, contra 78 milhões de dólares do GPT-4.

Porém, a verdadeira revolução foi nos preços. A API do DeepSeek custa 0,028 dólares por milhão de tokens de entrada, enquanto o GPT-4 custa 5 dólares e o Claude Opus, 15 dólares. Uma diferença de 25 a 75 vezes.

Essa disparidade na eficiência econômica não era apenas números; representava uma mudança na estrutura do mercado. Quando aplicações de IA passaram de conversas simples para agentes inteligentes (que consomem de 10 a 100 vezes mais tokens), o preço tornou-se um fator estratégico decisivo. Em fevereiro de 2026, o uso de modelos chineses na OpenRouter aumentou 127% em três semanas.

Chips locais: do raciocínio ao treinamento

Reduzir apenas o custo de inferência não basta. O verdadeiro desafio é a capacidade de treinar continuamente com novos dados. E aqui entram os chips locais.

Em 2025, uma empresa chinesa inaugurou uma linha de produção de servidores de 148 metros na cidade de uma pequena cidade, usando o processador Loongson 3C6000 e a placa Taichu Yuanqi totalmente chinesas. A produção prevista é de 100 mil unidades por ano, com um investimento de 1,1 bilhão de yuans.

O passo mais importante: esses chips evoluíram de “capacidade de inferência” para “capacidade de treinamento”. Em janeiro de 2026, a Zhipu AI lançou o modelo GLM-Image, o primeiro avançado de geração de imagens totalmente treinado em chips chineses. Em fevereiro, treinou-se um grande modelo de comunicação chinês, baseado em uma infraestrutura de computação composta por dezenas de milhares de unidades de processamento.

Essa mudança é de natureza: treinamento exige processamento de enormes volumes de dados e cálculos complexos de gradiente, elevando as demandas de potência computacional, largura de banda e ambiente de software em dez vezes em relação à inferência sozinha.

O processador Huawei Ascend tornou-se a espinha dorsal desse sistema. Até o final de 2025, mais de 4 milhões de desenvolvedores estavam na plataforma Ascend, com mais de 3.000 parceiros e 43 modelos principais treinados.

A base real: energia industrial e estabilidade geopolítica

Se algoritmos representam a inteligência e chips a força física, a energia industrial é o sangue que alimenta toda a operação. Aqui reside a maior vantagem estratégica da China.

Em 2024, os data centers americanos consumiram 183 TWh de energia — 4% do consumo nacional. Espera-se que esse número dobre até 2030, atingindo 426 TWh, quase 12% do total. O CEO da ARM prevê que os centros de dados de IA consumirã entre 20% e 25% da eletricidade dos EUA até 2030.

O problema é que a rede elétrica americana já está sobrecarregada. A região PJM, no leste, enfrenta uma deficiência de capacidade de 6 GW. Os EUA preveem uma lacuna de 175 GW até 2033, suficiente para abastecer 130 milhões de residências. Os custos de energia elétrica no atacado nas áreas de centros de dados aumentaram 267% em cinco anos.

Por outro lado, a China possui uma capacidade de geração de energia 2,5 vezes maior que os EUA: 10,4 trilhões de kWh anuais contra 4,2 trilhões. Mais importante, o consumo residencial na China representa apenas 15% do total, enquanto nos EUA chega a 36%. Isso significa uma enorme disponibilidade de energia industrial.

Em termos de custo, a energia nas regiões de concentração de IA nos EUA varia entre 0,12 e 0,15 dólares por kWh. Na China ocidental, a energia industrial custa cerca de 0,03 dólares — um quarto a um quinto do custo americano.

Essa diferença colossal permite à China construir infraestrutura computacional a um custo drasticamente menor. ByteDance, Tencent e Baidu planejam dobrar a importação de servidores locais em 2026. O volume de computação inteligente na China já atingiu 1590 EFLOPS.

Expansão global: de manufatura a exportação de tokens

Enquanto os EUA enfrentam uma crise energética, a IA chinesa expande-se silenciosamente globalmente. Mas, desta vez, o que se exporta não é o produto ou a fábrica, mas os tokens — unidades de dados processadas pelos modelos de IA.

A DeepSeek conta essa história: 30,7% de seus usuários são chineses, 13,6% indianos, 6,9% indonésios e 4,3% americanos. Suporta 37 idiomas e domina mercados emergentes como o Brasil. Possui 26 mil empresas globais com contas, e 3.200 instituições com versões corporativas.

Na própria China, a DeepSeek detém 89% do mercado. Em países sob sanções, sua participação varia entre 40% e 60%. Em 2025, 58% das startups de IA globais integraram a DeepSeek em suas plataformas tecnológicas.

Os mercados emergentes, movidos pela necessidade de eficiência econômica, estão migrando para os modelos chineses. Essa é uma lacuna estrutural rara: um mercado que precisa de uma alternativa à NVIDIA devido às pressões geopolíticas.

Lições do Japão e o caminho diferente da China

Em 1986, o Japão assinou um acordo de semicondutores com os EUA. O resultado foi desastroso: a participação do Japão no mercado de DRAM caiu de 80% para 10%. Em 2017, sua fatia no mercado de circuitos integrados era de apenas 7%.

A diferença crucial é que o Japão limitou-se a ser o melhor produto em um ecossistema dominado por forças externas. Nunca construiu um ecossistema próprio e independente.

A China adotou um caminho mais difícil, porém mais sustentável: desde melhorias extremas em algoritmos, passando pela ascensão de chips locais de inferência a treinamento, acumulando 4 milhões de desenvolvedores na plataforma Ascend, até a disseminação global de tokens em mercados emergentes e internacionais. Cada passo construiu um sistema industrial independente que o Japão nunca conseguiu.

O preço e a verdadeira guerra

Em 27 de fevereiro de 2026, três empresas chinesas de chips divulgaram relatórios de desempenho no mesmo dia:

  • Kimotech: receita +453%, lucro anual pela primeira vez
  • Moistech: receita +243%, prejuízo de 1 bilhão
  • Moxtech: receita +121%, prejuízo de 800 milhões

Meio fogo, meio água. O fogo é a voracidade do mercado. O vazio de 95% deixado pela NVIDIA está sendo preenchido gradualmente por números locais.

Já a água é o custo enorme de construir o ecossistema — cada prejuízo é dinheiro real que precisa ser investido: pesquisa e desenvolvimento, suporte de software, horas de engenheiros enviados para resolver problemas de compatibilidade, uma atrás da outra. Não são perdas por má gestão, mas a “taxa de guerra” necessária para construir um sistema independente.

Esses três relatórios financeiros representam a imagem mais real da guerra pelo poder computacional — não uma vitória inspiradora, mas uma batalha feroz, sangrenta, travada na linha de frente.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar