El equipo de Qwen ha lanzado el modelo de peso abierto Qwen3.5‑397B‑A17B, introduciendo avances importantes en rendimiento multimodal, aprendizaje por refuerzo y eficiencia de entrenamiento como parte de un esfuerzo más amplio hacia agentes de IA más capaces y de propósito general.
El equipo de Qwen de Alibaba Cloud ha presentado el primer modelo de su nueva serie Qwen3.5, revelando el Qwen3.5‑397B‑A17B de peso abierto.
Posicionado como un sistema nativo de visión y lenguaje, el modelo ofrece un rendimiento sólido en razonamiento, codificación, tareas de agentes y comprensión multimodal, reflejando un avance significativo en los esfuerzos de desarrollo de IA a gran escala de la compañía.
El modelo está construido sobre una arquitectura híbrida que combina atención lineal mediante Redes Delta con compuerta (Gated Delta Networks) con un diseño de mezcla de expertos dispersa (sparse mixture‑of‑experts), lo que permite una alta eficiencia durante la inferencia. Aunque el sistema completo contiene 397 mil millones de parámetros, solo 17 mil millones se activan en cada pasada hacia adelante, permitiendo mantener una alta capacidad mientras se reduce el costo computacional. La versión también amplía la cobertura de idiomas y dialectos de 119 a 201, ampliando la accesibilidad para usuarios y desarrolladores en todo el mundo.
Qwen3.5 Marca un Gran Salto en Aprendizaje por Refuerzo y Eficiencia en Preentrenamiento
La serie Qwen3.5 introduce ganancias sustanciales respecto a Qwen3, impulsadas en gran medida por una escalabilidad extensa en aprendizaje por refuerzo en una amplia gama de entornos. En lugar de optimizar solo para benchmarks estrechos, el equipo se centró en aumentar la dificultad de las tareas y la capacidad de generalización, resultando en un mejor rendimiento de los agentes en evaluaciones como BFCL‑V4, VITA‑Bench, DeepPlanning, Tool‑Decathlon y MCP‑Mark. Se detallarán resultados adicionales en un próximo informe técnico.
Las mejoras en preentrenamiento abarcan potencia, eficiencia y versatilidad. Qwen3.5 se entrena con un volumen significativamente mayor de datos visuales y textuales, con contenido multilingüe, STEM y de razonamiento reforzado, permitiéndole igualar el rendimiento de modelos anteriores de billones de parámetros. Las actualizaciones arquitectónicas —incluyendo MoE con mayor sparsidad, atención híbrida, refinamientos de estabilidad y predicción de múltiples tokens— ofrecen importantes aumentos en rendimiento, especialmente en contextos extendidos de 32k y 256k tokens. Las capacidades multimodales del modelo se fortalecen mediante una fusión temprana de texto y visión y conjuntos de datos ampliados que cubren imágenes, materiales STEM y video, mientras que un vocabulario más grande de 250k mejora la eficiencia de codificación y decodificación en la mayoría de los idiomas.
La infraestructura que respalda a Qwen3.5 está diseñada para un entrenamiento multimodal eficiente. Una estrategia de paralelismo heterogéneo separa los componentes de visión y lenguaje para evitar cuellos de botella, mientras que la activación dispersa permite un rendimiento casi completo incluso en cargas de trabajo mixtas de texto, imagen y video. Una canalización nativa en FP8 reduce aproximadamente a la mitad la memoria de activación y aumenta la velocidad de entrenamiento en más del 10 por ciento, manteniendo la estabilidad en escalas masivas de tokens.
El aprendizaje por refuerzo es soportado por un marco completamente asincrónico capaz de manejar modelos de todos los tamaños, mejorando la utilización del hardware, el balance de carga y la recuperación ante fallos. Técnicas como entrenamiento en FP8 de extremo a extremo, decodificación especulativa, reproducción de enrutador de rollout y bloqueo de rollout en múltiples turnos ayudan a mantener la coherencia y reducir la obsolescencia de los gradientes. El sistema está construido para soportar flujos de trabajo de agentes a gran escala, permitiendo interacciones de múltiples turnos sin problemas y una amplia generalización en diferentes entornos.
Los usuarios pueden interactuar con Qwen3.5 a través de Qwen Chat, que ofrece modos Automático, Pensamiento y Rápido según la tarea. El modelo también está disponible en ModelStudio de Alibaba Cloud, donde se pueden habilitar funciones avanzadas como razonamiento, búsqueda en la web y ejecución de código mediante parámetros sencillos. La integración con herramientas de codificación de terceros permite a los desarrolladores adoptar Qwen3.5 en flujos de trabajo existentes con mínima fricción.
Según el equipo de Qwen, Qwen3.5 establece una base para agentes digitales universales mediante su arquitectura híbrida y razonamiento multimodal nativo. El desarrollo futuro se centrará en la integración a nivel de sistema, incluyendo memoria persistente para aprendizaje entre sesiones, interfaces embodied para interacción en el mundo real, mecanismos de mejora autodirigida y conciencia económica para operación autónoma a largo plazo. El objetivo es avanzar más allá de asistentes específicos para tareas hacia agentes coherentes y persistentes capaces de gestionar objetivos complejos de varios días con juicio confiable y alineado con humanos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Qwen presenta un nuevo modelo de visión y lenguaje para mejorar el rendimiento en codificación, razonamiento y AI multimodal
En Resumen
El equipo de Qwen ha lanzado el modelo de peso abierto Qwen3.5‑397B‑A17B, introduciendo avances importantes en rendimiento multimodal, aprendizaje por refuerzo y eficiencia de entrenamiento como parte de un esfuerzo más amplio hacia agentes de IA más capaces y de propósito general.
El equipo de Qwen de Alibaba Cloud ha presentado el primer modelo de su nueva serie Qwen3.5, revelando el Qwen3.5‑397B‑A17B de peso abierto.
Posicionado como un sistema nativo de visión y lenguaje, el modelo ofrece un rendimiento sólido en razonamiento, codificación, tareas de agentes y comprensión multimodal, reflejando un avance significativo en los esfuerzos de desarrollo de IA a gran escala de la compañía.
El modelo está construido sobre una arquitectura híbrida que combina atención lineal mediante Redes Delta con compuerta (Gated Delta Networks) con un diseño de mezcla de expertos dispersa (sparse mixture‑of‑experts), lo que permite una alta eficiencia durante la inferencia. Aunque el sistema completo contiene 397 mil millones de parámetros, solo 17 mil millones se activan en cada pasada hacia adelante, permitiendo mantener una alta capacidad mientras se reduce el costo computacional. La versión también amplía la cobertura de idiomas y dialectos de 119 a 201, ampliando la accesibilidad para usuarios y desarrolladores en todo el mundo.
Qwen3.5 Marca un Gran Salto en Aprendizaje por Refuerzo y Eficiencia en Preentrenamiento
La serie Qwen3.5 introduce ganancias sustanciales respecto a Qwen3, impulsadas en gran medida por una escalabilidad extensa en aprendizaje por refuerzo en una amplia gama de entornos. En lugar de optimizar solo para benchmarks estrechos, el equipo se centró en aumentar la dificultad de las tareas y la capacidad de generalización, resultando en un mejor rendimiento de los agentes en evaluaciones como BFCL‑V4, VITA‑Bench, DeepPlanning, Tool‑Decathlon y MCP‑Mark. Se detallarán resultados adicionales en un próximo informe técnico.
Las mejoras en preentrenamiento abarcan potencia, eficiencia y versatilidad. Qwen3.5 se entrena con un volumen significativamente mayor de datos visuales y textuales, con contenido multilingüe, STEM y de razonamiento reforzado, permitiéndole igualar el rendimiento de modelos anteriores de billones de parámetros. Las actualizaciones arquitectónicas —incluyendo MoE con mayor sparsidad, atención híbrida, refinamientos de estabilidad y predicción de múltiples tokens— ofrecen importantes aumentos en rendimiento, especialmente en contextos extendidos de 32k y 256k tokens. Las capacidades multimodales del modelo se fortalecen mediante una fusión temprana de texto y visión y conjuntos de datos ampliados que cubren imágenes, materiales STEM y video, mientras que un vocabulario más grande de 250k mejora la eficiencia de codificación y decodificación en la mayoría de los idiomas.
La infraestructura que respalda a Qwen3.5 está diseñada para un entrenamiento multimodal eficiente. Una estrategia de paralelismo heterogéneo separa los componentes de visión y lenguaje para evitar cuellos de botella, mientras que la activación dispersa permite un rendimiento casi completo incluso en cargas de trabajo mixtas de texto, imagen y video. Una canalización nativa en FP8 reduce aproximadamente a la mitad la memoria de activación y aumenta la velocidad de entrenamiento en más del 10 por ciento, manteniendo la estabilidad en escalas masivas de tokens.
El aprendizaje por refuerzo es soportado por un marco completamente asincrónico capaz de manejar modelos de todos los tamaños, mejorando la utilización del hardware, el balance de carga y la recuperación ante fallos. Técnicas como entrenamiento en FP8 de extremo a extremo, decodificación especulativa, reproducción de enrutador de rollout y bloqueo de rollout en múltiples turnos ayudan a mantener la coherencia y reducir la obsolescencia de los gradientes. El sistema está construido para soportar flujos de trabajo de agentes a gran escala, permitiendo interacciones de múltiples turnos sin problemas y una amplia generalización en diferentes entornos.
Los usuarios pueden interactuar con Qwen3.5 a través de Qwen Chat, que ofrece modos Automático, Pensamiento y Rápido según la tarea. El modelo también está disponible en ModelStudio de Alibaba Cloud, donde se pueden habilitar funciones avanzadas como razonamiento, búsqueda en la web y ejecución de código mediante parámetros sencillos. La integración con herramientas de codificación de terceros permite a los desarrolladores adoptar Qwen3.5 en flujos de trabajo existentes con mínima fricción.
Según el equipo de Qwen, Qwen3.5 establece una base para agentes digitales universales mediante su arquitectura híbrida y razonamiento multimodal nativo. El desarrollo futuro se centrará en la integración a nivel de sistema, incluyendo memoria persistente para aprendizaje entre sesiones, interfaces embodied para interacción en el mundo real, mecanismos de mejora autodirigida y conciencia económica para operación autónoma a largo plazo. El objetivo es avanzar más allá de asistentes específicos para tareas hacia agentes coherentes y persistentes capaces de gestionar objetivos complejos de varios días con juicio confiable y alineado con humanos.