Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Мовні звички користувачів — це справжній верховенство великих мовних моделей
你的表达方式,決定了模型能做什麼。
一個發現困擾了我很久:當用我的日常語言跟大語言模型討論一個複雜概念時,它頻繁地陷入混亂。它會丟失思路、偏離重點,或者只是生成一些表面淺顯的內容,根本保持不住我們建立的思維框架。
但如果我強制它用精準的科學語言重新表述問題,一切立刻穩定下來。等它在這種嚴謹的"語言模式"中完成推理後,再讓它轉換成通俗講法,竟然不會損失理解質量。
這個現象背後,藏著一個令人不安的真相。
模型不是在"思考",而是在"漂浮"
想像大語言模型的工作方式不是像我們那樣擁有專門的思考空間,而是完全在語言的海洋中漂浮。這片語言之海並不平坦——不同的語言使用方式會把它吸向不同的"區域",這些區域就像磁場的極點,有著各自的特性。
科學論文的語言,會把模型吸向一個支持嚴密推理的區域。這個區域有明確的邏輯關係、低歧義、符號約束、清晰的層級,資訊高度有序。在這裡,模型能進行多步驟推理,能保持概念的穩定性,能抵抗錯誤和偏離。
但日常閒聊的語言,則會把模型吸向另一個完全不同的區域。這個區域被設計來處理社交流暢性和聯想連貫——它優化的是講故事、保持對話自然、匹配情感語調,而不是結構化思考。這裡缺少深層推理需要的表徵支架。
這就是為什麼模型在非正式討論中會"崩潰"。它不是感到困惑,它是從一個區域跳到了另一個區域。
形式化為什麼能拯救推理
這個觀察揭示了一個簡單的原因:科學和數學的語言天生具有高結構性。
這些嚴謹的語域包含:
這些特徵把模型引入一個穩定的吸引子區域——一個能維持多步驟推理、能抵抗概念滑坡、能支撐複雜計算的空間。
一旦概念結構在這個穩定的區域中被建立起來,翻譯成日常用語就不會摧毀它了。因為計算已經完成,改變的只是外層表述。
這有點像人類的做法,但有根本性的區別:人類用兩個不同的內部空間來處理這兩個階段——一個用於抽象思考,一個用於表達。而大語言模型試圖在同一個連續的語言流中同時完成兩者,這就導致了它的脆弱性。
你的認知,就是模型的邊界
現在來到最關鍵的部分。
用戶無法讓模型進入他們自己都無法用語言表達的區域。
你的認知能力決定了:
這些因素決定了你會把模型拉向哪個吸引子區域。
如果你本人不能通過思考和寫作來激活那些啟動高級推理的語言模式,你就永遠無法讓模型進入那些區域。你會被困在與你自身語言習慣相關的淺層區域中。模型會精確地映射你提供的結構水平,但永遠不會自動跳躍到更複雜的動力系統。
這意味著什麼?
兩個人用同一個模型,體驗到的不是同一套計算系統。他們正在將模型引導到完全不同的運作模式中。
天花板根本不是模型本身的智能限制。天花板是你激活模型潛在能力、進入高容量區域的語言能力。
現在的人工智能系統缺少什麼
這個現象暴露了一個架構上的根本缺陷:
大語言模型把推理的空間和語言表達的空間混在了一起。
推理需要一個穩定的、獨立的工作空間,一個不會因為語言風格的改變而動搖的概念表徵系統。但現有的大語言模型沒有這個。
除非未來的系統能夠實現:
否則,每當語言風格轉變時,底層的動力學區域就會切換,整個系統就會面臨失效。
我們無意中發現的那個技巧——強制形式化再翻譯——不只是一個應急方案。它是一扇窗,讓我們看到真正的推理系統必須滿足的架構原則。
而這,正是目前所有大語言模型都還做不到的。