¡La guerra de chips se intensifica! El dominio de las GPU de NVIDIA enfrenta la presión de Google y Amazon

NVIDIA GPU el año pasado alcanzó un volumen de envío de 6 millones de unidades, con un precio de venta de hasta 3 millones de dólares para un solo servidor Blackwell y envíos semanales de 1000 unidades, dominando el mercado de chips de IA. Pero esta guerra de chips está cambiando de rumbo, con la aparición de chips personalizados como Google TPU, AWS Tranium, y ASIC de Broadcom, que los analistas estiman que podrían alcanzar una cuota de mercado del 70-80% en el mercado de ASIC personalizados.

GPU, la década dorada de la evolución de los core de IA desde las tarjetas de juego

晶片戰爭白熱化

La evolución de las GPU de NVIDIA desde tarjetas gráficas hasta convertirse en los principales chips de IA se remonta a 2012 con AlexNet. El equipo de investigación fue la primera en aplicar la capacidad de cálculo paralelo de las GPU de NVIDIA al entrenamiento de redes neuronales, logrando una ventaja significativa en competiciones de reconocimiento de imágenes y marcando el inicio de la era del aprendizaje profundo. La ventaja principal de los chips GPU proviene de sus miles de núcleos de procesamiento paralelo, que permiten ejecutar de manera eficiente operaciones de tensores como multiplicaciones matriciales, ideales para entrenamiento e inferencia en IA.

En racks de servidores grandes, 72 chips GPU pueden consolidarse mediante la tecnología NVLink en una unidad de cálculo similar a una GPU gigante. NVIDIA no solo suministra chips GPU a OpenAI, gobiernos y empresas en todo el mundo, sino que también desarrolla sistemas completos de servidores. Sus competidores como AMD, por su parte, aceleran su avance con chips Instinct y un ecosistema de software de código abierto, habiendo recibido recientemente apoyo de OpenAI y Oracle. Los chips GPU de AMD utilizan principalmente software de código abierto, mientras que los de NVIDIA están optimizados en torno a CUDA.

Los ASIC personalizados, la clave para que las gigantes del cloud rompan el mercado

Desde Google, Amazon, Meta, Microsoft hasta OpenAI, los principales gigantes del cloud están invirtiendo en el desarrollo de ASIC (Circuitos Integrados de Aplicación Específica). Estos chips diseñados para funciones específicas se espera que sean las categorías de chips de IA de mayor crecimiento en los próximos años. A medida que los grandes modelos de lenguaje maduran, la demanda de inferencia supera rápidamente la de entrenamiento, con costos, consumo energético y estabilidad como puntos críticos para las plataformas en la nube, siendo estos los principales campos de batalla de los ASIC.

A diferencia de las GPU universales, los ASIC son como herramientas “súper precisas y dedicadas”, optimizadas en hardware para cargas de trabajo específicas de IA, lo que los hace más rápidos y con menor consumo. Sin embargo, su flexibilidad es limitada y el desarrollo es extremadamente costoso, con costos de diseño que pueden alcanzar cientos de millones de dólares, por lo que solo las grandes nubes pueden permitírselo. Los ASIC personalizados para IA son sumamente caros, requiriendo al menos cientos de millones de dólares, pero para los proveedores de servicios en la nube, ofrecen mayor eficiencia energética y menor dependencia de NVIDIA.

Google fue el primer gran jugador en los ASIC, creando un chip personalizado para aceleración de inteligencia artificial, y en 2015 acuñó el término Tensor Processing Unit (TPU). Los chips TPU facilitaron que Google inventara la arquitectura Transformer en 2017, base común para IA como ChatGPT y Claude. Actualmente, Google ha llegado a la séptima generación de TPU, el TPU Ironwood, y ayuda a Anthropic a entrenar modelos Claude con millones de TPU.

AWS, tras adquirir Annapurna Labs, ha invertido fuertemente en el desarrollo de sus propios chips de IA. Los chips Tranium e Inferentia se han convertido en pilares clave para plataformas de entrenamiento e inferencia en AWS. En 2024, Anthropic entrenó su modelo en el centro de datos de AWS en Indiana con 500,000 chips Tranium 2, sin utilizar GPU de NVIDIA, demostrando el creciente protagonismo de los ASIC.

Tendencias de diversificación de chips y balance entre coste y beneficio

Broadcom y Marvell, fabricantes de chips por contrato, son socios estratégicos clave para las grandes empresas de la nube. Los ASIC de Google TPU, los aceleradores propios de Meta y los ASIC que pronto lanzará OpenAI cuentan con la participación profunda de Broadcom. Broadcom ha contribuido a construir los TPU de Google y los chips de inferencia de Meta, y se estima que su cuota en el mercado de ASIC personalizados puede alcanzar entre el 70% y el 80%.

Los chips de IA en el edge también se extienden a dispositivos personales. NPU (Neural Processing Units) son chips diseñados específicamente para correr IA en dispositivos, y ya están integrados en SoCs como Qualcomm Snapdragon, AMD, Intel y Apple M series, utilizados en teléfonos, portátiles, hogares inteligentes, automóviles e incluso robots. La IA en los dispositivos ofrecerá mayor privacidad, menor latencia y mayor control.

Comparativa entre los tres principales tipos de chips

Chips GPU: Muy versátiles, aptos para múltiples cargas de trabajo, pero con alto consumo energético y costos elevados, alcanzando 3 millones de dólares en un solo rack.

Chips ASIC: Altamente especializados, con mayor velocidad, menor consumo y costos de desarrollo de cientos de millones de dólares, con una relación coste-beneficio a largo plazo del 30-40%.

Chips FPGA/NPU: Reconfigurables, con una posición intermedia, adecuados para edge y fases de prueba.

TSMC controla la cadena de suministro de chips

Ya sea el chip Blackwell de NVIDIA, el chip TPU de Google o el Tranium de AWS, la mayoría de los chips de IA son fabricados por TSMC. Esto vincula estrechamente la oferta de capacidad de cálculo para IA con la geopolítica global. Estados Unidos intenta, mediante la planta de TSMC en Arizona y el proceso de 18A de Intel, traer parte de la producción de chips de vuelta al país. Sin embargo, empresas chinas como Huawei y Alibaba también están desarrollando activamente sus propios ASIC, buscando soluciones nacionales ante las restricciones de exportación.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)