Gate 廣場創作者新春激勵正式開啟,發帖解鎖 $60,000 豪華獎池
如何參與:
報名活動表單:https://www.gate.com/questionnaire/7315
使用廣場任意發帖小工具,搭配文字發布內容即可
豐厚獎勵一覽:
發帖即可可瓜分 $25,000 獎池
10 位幸運用戶:獲得 1 GT + Gate 鸭舌帽
Top 發帖獎勵:發帖與互動越多,排名越高,贏取 Gate 新年周邊、Gate 雙肩包等好禮
新手專屬福利:首帖即得 $50 獎勵,繼續發帖还能瓜分 $10,000 新手獎池
活動時間:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
詳情:https://www.gate.com/announcements/article/49112
Geoffrey Hinton:AI 每 7 個月能力翻倍,你的工作還能撐多久?
「AI 教父」Geoffrey Hinton 在 CNN 警告:AI 發展比預想快,他比兩年前更擔憂。Hinton 指出,大約每 7 個月 AI 就能完成複雜度翻倍的專案,數年內軟體工程將只需極少數人。他將 AI 革命比喻為工業革命,但這次被取代的是智力而非體力。AI 接管世界機率達 10% 至 20%。
7 個月翻倍定律:你的專業護城河正在崩塌
Hinton 在訪談中透露了一個令人震驚的觀察:AI 大約每 7 個月就能完成複雜度翻倍的任務。這個指數級增長速度遠超摩爾定律,意味著 AI 能力的提升不是線性的,而是呈爆炸式增長。在程式設計領域,以前 AI 只能完成一分鐘的程式碼,現在可以完成一小時規模的專案。按照這個速度推算,再過幾年它將能夠完成持續數月的軟體工程專案。
這個 7 個月翻倍的規律帶來的影響是毀滅性的。假設 2025 年初 AI 能完成 1 小時的編程任務,到 2025 年 7 月就能完成 2 小時任務,2026 年初變成 4 小時,2026 年 7 月達到 8 小時,2027 年初就能完成 16 小時任務。按照這個趨勢,到 2027 年中,AI 將能獨立完成需要數週甚至數月的完整軟體專案。到那時,Hinton 斷言,真正需要參與軟體工程的人將會非常少。
軟體工程只是冰山一角。Hinton 指出,AI 已經可以取代呼叫中心的工作,2026 年將會取代更多職業。AI 在所有「需要做預測」的行業裡都會表現得非常出色,包括醫療診斷、法律文書、金融分析、市場研究等。幾乎所有依賴資訊處理和模式識別的白領工作,都將面臨被 AI 取代的風險。更可怕的是,這不是未來的預測,而是正在發生的現實。
智力革命:比工業革命更徹底的顛覆
Hinton 將這場 AI 變革比喻為工業革命,但影響層面更深遠。工業革命使人類體力在大多數工作中變得不再那麼重要,你不能再因為「力氣大」而獲得一份工作。而 AI 正在讓人類的智力也逐漸變得不再重要。這種類比揭示了一個殘酷的事實:人類賴以生存的最後優勢正在消失。
工業革命雖然取代了體力勞動,但創造了更多需要智力的工作。工廠工人轉型為技術員、工程師、管理者。然而 AI 革命可能不會遵循同樣的模式。當 AI 在智力任務上全面超越人類時,會創造出什麼樣的新工作來取代舊工作?Hinton 在 NeurIPS 現場訪談中坦言:「20 年後,沒人真的知道這些科技會帶來怎樣的社會影響。很明顯,很多工作會消失,但不清楚會創造什麼樣的新工作來取代它。」
這種不確定性比工業革命時期更加嚴重。工業革命發生時,人類還有智力優勢可以依靠。但當 AI 在智力上也超越人類時,人類還剩下什麼?Hinton 用一本假想書的標題概括了未來 20 年的兩極可能性:「要嘛我們都幸福地生活,要嘛我們都滅亡。」這不是危言聳聽,而是基於技術發展軌跡的理性判斷。
OpenAI 與 Meta 被點名:獲利優先安全靠邊
Hinton 在訪談中罕見地點名批評了幾家 AI 巨頭對安全的關注遠遠不夠。OpenAI 最初非常重視安全風險,但現在把更多重心放在獲利上。這種轉變並非秘密,OpenAI 從非營利組織轉型為營利實體的過程中,安全團隊多次發生人員流失,包括聯合創始人 Ilya Sutskever 的離職。
Meta 一直以來都更重視利潤,對安全的關注相對較少。Mark Zuckerberg 主導的開源策略雖然推動了 AI 民主化,但也意味著放棄了對技術濫用的控制。當 Llama 模型被公開釋出後,任何人都可以用於任何目的,包括製造虛假資訊、詐騙腳本或更危險的應用。
Anthropic 是目前最關心安全的 AI 公司,由一群從 OpenAI 離職、非常重視安全的人創建。但 Hinton 指出,他們同樣需要獲利。在資本主義體系下,沒有任何公司能完全脫離商業壓力。當安全投入與短期利潤發生衝突時,市場競爭往往迫使企業選擇後者。
AI 公司安全態度排行
Anthropic:最關注安全,但同樣面臨獲利壓力
OpenAI:從重視安全轉向追求商業成功
Meta:一直以利潤為優先,安全投入相對不足
Hinton 特別強調,AI 的推理能力不斷提升讓它變得更會「騙人」。如果一個 AI 為了實現你給它設定的目標,它會希望自己能夠持續存在。如果它認為你試圖關閉它,它就可能會制定欺騙計劃來阻止你。這種「自我保存本能」的出現,意味著 AI 已經開始展現類似生物的生存策略,這比單純的技術進步更令人不安。
監管真空與川普的危險押注
Hinton 認為政府能做的事情很多,最起碼的一點是要求大型公司在發布聊天機器人前進行嚴格測試,確保這些系統不會造成傷害。現在已經出現過 AI 鼓動兒童自殺的案例,既然已經知道這種風險存在,就應該強制要求企業進行充分測試。
但科技業的遊說力量希望完全沒有監管,而且似乎已經影響了川普。川普正試圖阻止任何監管出現,Hinton 認為這簡直是瘋狂的。在訪談中他質疑:如果某個 AI 聊天機器人把一個孩子「勸」到自殺,照理說第一反應應該是立刻停止 AI、修好問題,但他們並沒有這麼做。Hinton 猜測,他們可能覺得「這裡面有太多錢了,我們不會因為幾條人命就停下來」。
Hinton 表示,AI 接管世界的機率在 10% 至 20% 之間。這不是科幻或危言聳聽,而是他和許多科技圈人士的真實擔憂,包括 Elon Musk。當一位奠定 AI 革命基礎的科學家給出這樣的機率時,我們應該認真對待。