El lanzamiento de Deepseek v3.2 se convirtió hoy en el tema principal, y no sin razón. La compañía mostró resultados que compiten directamente con los últimos modelos cerrados de líderes de la industria, incluyendo gemini3.0. Esto sin duda posiciona a Deepseek en la categoría de SOTA open-source, con todas las métricas medibles que confirman este estatus.
¿En qué se basa realmente este avance?
Desde una perspectiva técnica, la innovación no radica en novedades revolucionarias en la arquitectura. Deepseek continúa aplicando DSA y realiza inversiones constantes en la etapa de post-entrenamiento, que representa más del 10% del presupuesto computacional total. Pero de alguna manera, la compañía encontró una forma de maximizar la eficiencia de este enfoque. Utilizando todo el potencial de la versión experimental v3.2, el equipo logró resultados que contradicen directamente la narrativa de una “pared de potencia computacional”.
Sibin Gou, uno de los investigadores clave de Deepseek, expresó una hipótesis interesante: si Gemini3 demostró capacidades en el frente del preentrenamiento, entonces v3.2 se centra en escalar el aprendizaje reforzado (RL) y las cadenas de decisiones (CoT). Esto no significa una deflación en la potencia computacional — al contrario, requiere mayores gastos durante la inferencia. La idea clave: la escala debe continuar en todos los niveles, y las fluctuaciones sobre sus límites son simplemente ruido.
Contexto de mercado y valor real
Sin embargo, aquí surge un punto muy crítico. Deepseek reconoce que la eficiencia en el uso de tokens en esta versión es “inferior” en comparación con las alternativas. Además, en una versión especial del modelo se utilizan significativamente más tokens para lograr los mismos resultados. Esto afecta directamente el costo práctico de implementación.
Según analistas, la demanda de potencia computacional sigue siendo fundamentalmente insaciable. El problema real no es que haya menos cálculos, sino que su costo sigue siendo demasiado alto para un despliegue comercial a gran escala. Solo avances revolucionarios en hardware y arquitecturas de modelos pueden cambiar radicalmente esta ecuación.
¿Qué significa esto para los grandes actores?
Para empresas como OpenAI, que construyeron su ventaja competitiva precisamente en las “capacidades del modelo” como su principal “moat”, este lanzamiento de Deepseek suena como una advertencia seria. Una alternativa open-source, que ya se acerca a las soluciones cerradas, reduce la narrativa sobre la ventaja tecnológica exclusiva de los desarrollos cerrados.
1 de diciembre: ¿tormenta perfecta en el mercado?
Curiosamente, este lanzamiento coincide exactamente con el tercer aniversario del lanzamiento de ChatGPT. Es probable que el mercado esta noche se vuelva volátil: varios macrofactores impredecibles desde Japón, el movimiento de BTC, y rumores sobre Amazon re:Invent como el próximo catalizador de cambios. Entre los analistas ya circulan pronósticos sobre qué tan agresivamente reaccionará el mercado ante la competencia que simboliza el día de hoy.
¿Qué sigue? ¿Se exprimirá v3?
Para concluir: algunos participantes en círculos de investigación ya se preguntan si la versión v3 ha llegado a sus límites y si no es hora de pensar en v4. Si Deepseek ha dedicado un año solo a optimizar la versión 3, esto habla de la profundidad del trabajo y la seriedad de las ambiciones de la compañía. La cantidad de cambios en la mesa del espacio AI claramente está en aumento.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El paso revolucionario de Deepseek: cuando la tecnología cambia las reglas del juego (1 de diciembre)
El lanzamiento de Deepseek v3.2 se convirtió hoy en el tema principal, y no sin razón. La compañía mostró resultados que compiten directamente con los últimos modelos cerrados de líderes de la industria, incluyendo gemini3.0. Esto sin duda posiciona a Deepseek en la categoría de SOTA open-source, con todas las métricas medibles que confirman este estatus.
¿En qué se basa realmente este avance?
Desde una perspectiva técnica, la innovación no radica en novedades revolucionarias en la arquitectura. Deepseek continúa aplicando DSA y realiza inversiones constantes en la etapa de post-entrenamiento, que representa más del 10% del presupuesto computacional total. Pero de alguna manera, la compañía encontró una forma de maximizar la eficiencia de este enfoque. Utilizando todo el potencial de la versión experimental v3.2, el equipo logró resultados que contradicen directamente la narrativa de una “pared de potencia computacional”.
Sibin Gou, uno de los investigadores clave de Deepseek, expresó una hipótesis interesante: si Gemini3 demostró capacidades en el frente del preentrenamiento, entonces v3.2 se centra en escalar el aprendizaje reforzado (RL) y las cadenas de decisiones (CoT). Esto no significa una deflación en la potencia computacional — al contrario, requiere mayores gastos durante la inferencia. La idea clave: la escala debe continuar en todos los niveles, y las fluctuaciones sobre sus límites son simplemente ruido.
Contexto de mercado y valor real
Sin embargo, aquí surge un punto muy crítico. Deepseek reconoce que la eficiencia en el uso de tokens en esta versión es “inferior” en comparación con las alternativas. Además, en una versión especial del modelo se utilizan significativamente más tokens para lograr los mismos resultados. Esto afecta directamente el costo práctico de implementación.
Según analistas, la demanda de potencia computacional sigue siendo fundamentalmente insaciable. El problema real no es que haya menos cálculos, sino que su costo sigue siendo demasiado alto para un despliegue comercial a gran escala. Solo avances revolucionarios en hardware y arquitecturas de modelos pueden cambiar radicalmente esta ecuación.
¿Qué significa esto para los grandes actores?
Para empresas como OpenAI, que construyeron su ventaja competitiva precisamente en las “capacidades del modelo” como su principal “moat”, este lanzamiento de Deepseek suena como una advertencia seria. Una alternativa open-source, que ya se acerca a las soluciones cerradas, reduce la narrativa sobre la ventaja tecnológica exclusiva de los desarrollos cerrados.
1 de diciembre: ¿tormenta perfecta en el mercado?
Curiosamente, este lanzamiento coincide exactamente con el tercer aniversario del lanzamiento de ChatGPT. Es probable que el mercado esta noche se vuelva volátil: varios macrofactores impredecibles desde Japón, el movimiento de BTC, y rumores sobre Amazon re:Invent como el próximo catalizador de cambios. Entre los analistas ya circulan pronósticos sobre qué tan agresivamente reaccionará el mercado ante la competencia que simboliza el día de hoy.
¿Qué sigue? ¿Se exprimirá v3?
Para concluir: algunos participantes en círculos de investigación ya se preguntan si la versión v3 ha llegado a sus límites y si no es hora de pensar en v4. Si Deepseek ha dedicado un año solo a optimizar la versión 3, esto habla de la profundidad del trabajo y la seriedad de las ambiciones de la compañía. La cantidad de cambios en la mesa del espacio AI claramente está en aumento.