El próximo terremoto de la IA: ¿Por qué el peligro real no es el asesino de SaaS, sino la revolución del poder de cálculo?

robot
Generación de resúmenes en curso

Escrito por: Bruce

Recientemente, todo el mundo en el sector tecnológico y de inversiones está atento a lo mismo: cómo las aplicaciones de IA están «matando» al SaaS tradicional. Desde que @AnthropicAI mostró cómo Claude Cowork puede ayudarte fácilmente a escribir correos, hacer presentaciones o analizar hojas de Excel, una ola de pánico sobre «el software ha muerto» comenzó a extenderse. Es realmente impactante, pero si solo miras aquí, podrías estar perdiéndote del verdadero gran terremoto.

Es como si todos levantáramos la vista para observar los drones en combate en el cielo, sin darnos cuenta de que en la misma tierra bajo nuestros pies, la placa continental se está moviendo silenciosamente. La verdadera tormenta está oculta bajo la superficie, en un rincón que la mayoría no ve: la base de poder computacional que sostiene todo el mundo de la IA, está viviendo una «revolución silenciosa».

Y esta revolución podría hacer que los vendedores de IA: Nvidia @nvidia, terminen su gran fiesta mucho antes de lo que todos imaginan.

Dos caminos revolucionarios que convergen

Esta revolución no es un evento único, sino que está formada por dos rutas tecnológicas aparentemente independientes que se entrelazan. Como dos fuerzas que rodean y presionan, están poniendo en jaque el dominio de las GPU de Nvidia.

El primero es la revolución en la optimización de algoritmos.

¿Alguna vez pensaste que un supercerebro, al pensar, realmente necesita activar todas sus neuronas? Claramente no. DeepSeek entendió esto y desarrolló la arquitectura MoE (modelo de expertos híbridos).

Puedes imaginarlo como una empresa que tiene cientos de expertos en diferentes áreas. Pero en cada reunión para resolver un problema, solo necesitas llamar a los dos o tres más relevantes, en lugar de que todos participen en una tormenta de ideas. Esa es la inteligencia del MoE: permite que un modelo enorme, en cada cálculo, active solo una pequeña parte de sus «expertos», ahorrando así una cantidad enorme de potencia de cálculo.

¿Y qué resultados obtiene? El modelo DeepSeek-V2, que en teoría tiene 236 mil millones de «expertos» (parámetros), solo activa 21 mil millones en cada tarea, menos del 10% del total. Y su rendimiento puede igualar al de GPT-4, que requiere operar al 100%. ¿Qué significa esto? La capacidad de la IA y el consumo de potencia de cálculo se han desacoplado.

Antes, todos asumíamos que cuanto más potente fuera la IA, más tarjetas gráficas quemaríamos. Ahora, DeepSeek nos muestra que, con algoritmos inteligentes, podemos lograr el mismo resultado con una décima parte del costo. Esto pone en duda la necesidad imperante de las GPU de Nvidia.

El segundo camino es la revolución en hardware, en «cambiar de carril».

El trabajo de la IA se divide en dos fases: entrenamiento y inferencia. El entrenamiento es como ir a la escuela, donde hay que leer miles de libros; en ese momento, las GPU, con su capacidad de cálculo paralelo, son ideales. Pero la inferencia, que es el uso cotidiano de la IA, requiere rapidez en la respuesta.

Las GPU tienen una limitación natural en la inferencia: su memoria (HBM) es externa, lo que genera latencia en el intercambio de datos. Es como un chef que tiene los ingredientes en la nevera del cuarto de al lado; cada vez que cocina, tiene que ir a buscar, y aunque sea rápido, nunca será instantáneo. Empresas como Cerebras y Groq han reinventado esto, diseñando chips especializados para inferencia, con memoria SRAM integrada en el chip, lo que permite un acceso «sin latencia».

El mercado ya ha apostado en serio. OpenAI, que se queja de que las GPU de Nvidia no son ideales para inferencia, ha firmado un contrato de 10 mil millones de dólares con Cerebras para usar sus servicios. Nvidia también se ha preocupado y ha comprado Groq por 20 mil millones de dólares, para no quedarse atrás en esta nueva carrera.

Cuando estas dos rutas convergen: una reducción drástica en costos

Ahora, combinemos ambas cosas: un modelo DeepSeek «más delgado» que corre en un chip Cerebras «sin latencia».

¿Qué pasará?

Una avalancha en costos.

Primero, el modelo optimizado es tan pequeño que puede caber entero en la memoria del chip. Segundo, sin la limitación de memoria externa, la velocidad de respuesta será sorprendente. El resultado final: los costos de entrenamiento, gracias a la arquitectura MoE, bajaron un 90%, y los de inferencia, con hardware especializado y cálculo disperso, bajaron aún más, en un orden de magnitud. En total, el costo de crear y operar una IA de nivel mundial podría ser solo entre el 10% y el 15% de lo que cuesta con las soluciones tradicionales de GPU.

Esto no es una simple mejora, sino una verdadera transferencia de paradigma.

La posición de Nvidia, que parecía inamovible, está siendo desplazada silenciosamente

Ahora entiendes por qué esto es más peligroso que la «pánico de coworking».

El valor de mercado de Nvidia, que hoy alcanza varios billones, se basa en una historia sencilla: la IA es el futuro, y ese futuro depende de sus GPU. Pero ahora, los cimientos de esa historia están tambaleándose.

En el mercado de entrenamiento, aunque Nvidia siga siendo dominante, si los clientes pueden hacer el trabajo con una décima parte de las tarjetas, el tamaño total del mercado podría reducirse drásticamente.

En el mercado de inferencia, que es diez veces más grande, Nvidia no solo carece de ventaja absoluta, sino que enfrenta una ofensiva de empresas como Google, Cerebras y otras. Incluso su mayor cliente, OpenAI, está desertando.

Una vez que Wall Street se dé cuenta de que las «picas» de Nvidia ya no son las únicas ni las mejores opciones, ¿qué pasará con las valoraciones basadas en la expectativa de monopolio «perpetuo»? Todos sabemos la respuesta.

Por eso, en los próximos seis meses, la mayor ave de rapiña podría no ser otra IA que elimine a otra, sino una noticia técnica aparentemente menor: un nuevo artículo sobre la eficiencia del algoritmo MoE, o un informe que muestre un aumento en la cuota de mercado de chips especializados para inferencia, anunciando silenciosamente una nueva etapa en la guerra por el poder computacional.

Cuando las «picas» de los vendedores de picos ya no sean las únicas opciones, su era dorada podría estar llegando a su fin.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)