概要Qwenチームは、マルチモーダル性能、強化学習、トレーニング効率の大幅な進歩をもたらす、より高性能で汎用的なAIエージェントを目指す取り組みの一環として、オープンウェイトのQwen3.5‑397B‑A17Bモデルを発表しました。アリババクラウドのQwenチームは、新しいQwen3.5シリーズの最初のモデルとして、オープンウェイトのQwen3.5‑397B‑A17Bを公開しました。ネイティブなビジョン・言語システムとして位置付けられたこのモデルは、推論、コーディング、エージェントタスク、マルチモーダル理解において高い性能を発揮し、同社の大規模AI開発の重要な進展を示しています。このモデルは、Gated Delta Networksによる線形注意とスパースなエキスパートの混合設計を組み合わせたハイブリッドアーキテクチャを採用しており、推論時の効率性を高めています。全体のパラメータ数は3970億ですが、各フォワードパスで活性化されるのは17億だけであり、高い能力を維持しつつ計算コストを削減しています。リリースにより、言語と方言のカバー範囲も119から201に拡大され、世界中のユーザーや開発者のアクセス性が向上しています。## Qwen3.5は強化学習と事前学習の効率において大きな飛躍を実現Qwen3.5シリーズは、Qwen3に比べて大幅な向上をもたらし、これは主に多様な環境での強化学習のスケーリングによるものです。狭いベンチマークの最適化ではなく、タスクの難易度と汎用性の向上に焦点を当てた結果、BFCL‑V4、VITA‑Bench、DeepPlanning、Tool‑Decathlon、MCP‑Markなどの評価でエージェントの性能が向上しました。詳細な結果は今後の技術報告で発表される予定です。事前学習の改善は、パワー、効率、汎用性に及びます。Qwen3.5は、視覚とテキストのデータ量を大幅に増やし、多言語、STEM、推論コンテンツを強化して訓練されており、従来のトリリオンパラメータモデルと同等の性能を発揮します。高いスパース性のMoE、ハイブリッド注意、安定性の向上、多トークン予測などのアーキテクチャのアップグレードにより、特に32kや256kトークンの長いコンテキスト長でのスループットが大きく向上しています。モデルのマルチモーダル能力は、テキストとビジョンの融合を早期に行うことや、画像、STEM資料、動画を含む拡張データセットによって強化されており、250kの語彙の拡大により、多くの言語でのエンコードとデコードの効率も向上しています。Qwen3.5の基盤となるインフラは、効率的なマルチモーダルトレーニングを念頭に設計されています。異種並列戦略により、ビジョンと言語のコンポーネントを分離し、ボトルネックを回避しています。また、スパースな活性化により、テキスト・画像・動画混合のワークロードでもほぼフルスループットを維持します。ネイティブなFP8パイプラインは、活性化メモリを約半分に削減し、トレーニング速度を10%以上向上させ、巨大なトークンスケールでも安定性を保ちます。強化学習は、あらゆるサイズのモデルに対応可能な完全非同期フレームワークによってサポートされており、ハードウェアの利用率向上、負荷分散、障害回復を実現しています。FP8のエンドツーエンドトレーニング、推測デコード、ロールアウトルーターリプレイ、多ターンロールアウトロッキングなどの技術により、一貫性を維持しつつ勾配の古さを低減しています。このシステムは、大規模なエージェントワークフローをサポートし、シームレスな多ターンのインタラクションや環境間の広範な一般化を可能にします。ユーザーは、Qwen Chatを通じてQwen3.5と対話でき、タスクに応じてオート、シンキング、ファストのモードを選択できます。また、アリババクラウドのModelStudioを通じて、推論、ウェブ検索、コード実行などの高度な機能を簡単なパラメータ設定で有効化可能です。サードパーティのコーディングツールとの連携により、開発者はQwen3.5を既存のワークフローに最小限の摩擦で導入できます。Qwenチームによると、Qwen3.5はハイブリッドアーキテクチャとネイティブなマルチモーダル推論を通じて、普遍的なデジタルエージェントの基盤を築いています。今後の開発は、システムレベルの統合に焦点を当て、クロスセッション学習のための永続的メモリ、実世界とのインタラクションを可能にする具現化インターフェース、自律的な改善メカニズム、長期的な自律運用のための経済的意識などに進む予定です。目的は、タスク特化型のアシスタントを超え、複雑で長期的な目標を管理できる一貫性のある永続的なエージェントへと進化させることです。
Qwen、新しいビジョン・言語モデルを展開し、コーディング、推論、マルチモーダルAIの性能向上を目指す
概要
Qwenチームは、マルチモーダル性能、強化学習、トレーニング効率の大幅な進歩をもたらす、より高性能で汎用的なAIエージェントを目指す取り組みの一環として、オープンウェイトのQwen3.5‑397B‑A17Bモデルを発表しました。
アリババクラウドのQwenチームは、新しいQwen3.5シリーズの最初のモデルとして、オープンウェイトのQwen3.5‑397B‑A17Bを公開しました。
ネイティブなビジョン・言語システムとして位置付けられたこのモデルは、推論、コーディング、エージェントタスク、マルチモーダル理解において高い性能を発揮し、同社の大規模AI開発の重要な進展を示しています。
このモデルは、Gated Delta Networksによる線形注意とスパースなエキスパートの混合設計を組み合わせたハイブリッドアーキテクチャを採用しており、推論時の効率性を高めています。全体のパラメータ数は3970億ですが、各フォワードパスで活性化されるのは17億だけであり、高い能力を維持しつつ計算コストを削減しています。リリースにより、言語と方言のカバー範囲も119から201に拡大され、世界中のユーザーや開発者のアクセス性が向上しています。
Qwen3.5は強化学習と事前学習の効率において大きな飛躍を実現
Qwen3.5シリーズは、Qwen3に比べて大幅な向上をもたらし、これは主に多様な環境での強化学習のスケーリングによるものです。狭いベンチマークの最適化ではなく、タスクの難易度と汎用性の向上に焦点を当てた結果、BFCL‑V4、VITA‑Bench、DeepPlanning、Tool‑Decathlon、MCP‑Markなどの評価でエージェントの性能が向上しました。詳細な結果は今後の技術報告で発表される予定です。
事前学習の改善は、パワー、効率、汎用性に及びます。Qwen3.5は、視覚とテキストのデータ量を大幅に増やし、多言語、STEM、推論コンテンツを強化して訓練されており、従来のトリリオンパラメータモデルと同等の性能を発揮します。高いスパース性のMoE、ハイブリッド注意、安定性の向上、多トークン予測などのアーキテクチャのアップグレードにより、特に32kや256kトークンの長いコンテキスト長でのスループットが大きく向上しています。モデルのマルチモーダル能力は、テキストとビジョンの融合を早期に行うことや、画像、STEM資料、動画を含む拡張データセットによって強化されており、250kの語彙の拡大により、多くの言語でのエンコードとデコードの効率も向上しています。
強化学習は、あらゆるサイズのモデルに対応可能な完全非同期フレームワークによってサポートされており、ハードウェアの利用率向上、負荷分散、障害回復を実現しています。FP8のエンドツーエンドトレーニング、推測デコード、ロールアウトルーターリプレイ、多ターンロールアウトロッキングなどの技術により、一貫性を維持しつつ勾配の古さを低減しています。このシステムは、大規模なエージェントワークフローをサポートし、シームレスな多ターンのインタラクションや環境間の広範な一般化を可能にします。
ユーザーは、Qwen Chatを通じてQwen3.5と対話でき、タスクに応じてオート、シンキング、ファストのモードを選択できます。また、アリババクラウドのModelStudioを通じて、推論、ウェブ検索、コード実行などの高度な機能を簡単なパラメータ設定で有効化可能です。サードパーティのコーディングツールとの連携により、開発者はQwen3.5を既存のワークフローに最小限の摩擦で導入できます。
Qwenチームによると、Qwen3.5はハイブリッドアーキテクチャとネイティブなマルチモーダル推論を通じて、普遍的なデジタルエージェントの基盤を築いています。今後の開発は、システムレベルの統合に焦点を当て、クロスセッション学習のための永続的メモリ、実世界とのインタラクションを可能にする具現化インターフェース、自律的な改善メカニズム、長期的な自律運用のための経済的意識などに進む予定です。目的は、タスク特化型のアシスタントを超え、複雑で長期的な目標を管理できる一貫性のある永続的なエージェントへと進化させることです。