為什麼人工智慧仍然需要提問:MCP 引導革命

當像 GitHub 的工程師這樣的開發者面臨一個關鍵挑戰——如何阻止 AI 做出假設?——答案在於一個看似簡單的概念:引出(elicitation)。模型上下文協議 (MCP) 引出正重塑像 GitHub Copilot 這樣的 AI 工具與用戶的互動方式,通過拒絕在收集到正確資訊之前繼續操作。

預設假設的問題

AI 系統有一個根本弱點:它們依賴假設運作。當你要求 GitHub Copilot 或任何 AI 驅動的工具執行任務時,它常常依賴預設參數,可能完全錯過你真正想要的內容。這個摩擦點——用戶意圖與 AI 推斷偏離的地方——在開發流程中造成阻礙。MCP 引出通過讓 AI 暫停並提前提出澄清問題來扭轉這個局面。

MCP 引出實際運作方式

其機制非常巧妙。當整合到像 Visual Studio Code 的 GitHub Copilot 這樣的系統中時,MCP 伺服器會進行即時檢查:我是否擁有所有必要的參數?是否有可以改善結果的可選細節?如果存在缺口,系統就會啟動引出提示——本質上是在繼續之前向用戶詢問缺失的上下文。

舉一個實際例子,AI 整合開發中的知名人物 Chris Reddington (一位在 AI 整合開發領域具有代表性的人物) 遇到的情況:一個回合制遊戲伺服器。最初,系統提供多個重疊的工具來處理不同的遊戲類型。AI 代理會隨機選擇錯誤的工具,因為工具名稱不夠明確。解決方案?整合並澄清:使用架構驅動的提示,明確定義每個選項的用途,迫使 AI 在啟動遊戲前請求特定參數,如難度等級或玩家名稱。

從技術困難到用戶清晰度

Reddington 的開發直播揭示了前進的迭代路徑。困難不僅是技術上的——它們也是語義上的。工具命名很重要。解析初始請求以識別真正缺失的部分也很重要。通過優化這些元素,團隊不僅解決了一個工程問題;他們還改變了用戶與 AI 驅動功能的互動方式。

這種改進的方法意味著,請求井字遊戲的用戶不會得到通用預設值。相反,系統會智能提示:“難度等級?”“你的玩家名稱?”“棋盤大小偏好?”每個回答都讓體驗更個性化,而不是強迫用戶接受預設選項。

這在遊戲之外的重要意義

其影響遠超休閒應用。每一個 AI 輔助的工作流程——程式碼生成、資料分析、內容創作——都面臨相同的假設問題。MCP 引出解決了一個根本的用戶體驗差距:用戶想要的與 AI 提供的之間缺乏充分的上下文。

未來之路

隨著 AI 工具在開發環境中持續擴展,MCP 引出的整合提供了一個直觀互動設計的範例。它承認一個核心原則:更好的輸入帶來更好的輸出。不是讓 AI 系統假裝理解你的意思,而是讓它們提問。不是讓用戶因預設錯誤而感到沮喪,而是讓用戶參與塑造結果。這種從假設驅動轉向資訊驅動的轉變,代表著技術服務於人類意圖的有意義的演進。

AI 互動的未來不在於更聰明的算法做出更好的猜測,而在於創造用戶與 AI 透明合作的途徑,一次澄清問題一個步驟。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)