新智元報道
編輯論文:艾倫
【新智元導讀】Science 最新論文顛覆「技術奇點」敘事:真正的智慧爆炸已在發生,但它不是孤獨超級大腦的降臨,而是人與 AI 深度纏繞的社會性躍遷論文。推理模型內部自發湧現出「思想社會」,人機混合的「半人馬時代」已然開啟。問題從不是奇點會不會到來,而是我們能否建起與之匹配的社會基礎設施。
上週的一篇 Science 論文,正在動搖人們對人工智慧未來最根深蒂固的想象論文。
幾十年來,「技術奇點」的故事幾乎已成定論:某一天,一個無所不能的 ASI 將憑空湧現,將人類甩在身後論文。
這個形象塑造了無數科幻小說,也隱約支撐著今天 AI 安全討論的底層邏輯論文。
芝加哥大學、加州大學聖地亞哥分校和谷歌的研究者認為,這個故事從根子上就講錯了論文。
詹姆斯·埃文斯(James Evans)、本傑明·布拉頓(Benjamin Bratton)和谷歌研究員布萊斯·阿格拉-阿卡斯(Blaise Agüera Y Arcas)在《科學》期刊發表論文《Agentic AI and the next intelligence explosion》(《智慧體 AI 與下一次智慧爆炸》),提出了一個截然不同的判斷:真正的智慧爆炸已經在發生,只是它的形狀和人們預想的完全不同——它是多元的、社會性的,而且與人類深度纏繞在一起論文。
模型內部論文,有「人」在爭論
這篇論文的起點,是一項關於推理模型內部機制的發現,足以令 AI 圈感到意外論文。
過去一年,DeepSeek-R1、QwQ-32B 等推理模型的橫空出世引發廣泛關注論文。
它們在數學、程式碼、複雜邏輯等任務上的表現,顯著超過了同等規模的常規指令微調模型論文。
通常的解釋是:這些模型「想得更久了」——透過強化學習,在回答前生成更長的思維鏈,付出更多測試時推算時間(test-time compute)論文。
展開全文
然而,谷歌、芝加哥大學和聖塔菲研究所的研究者發現,推理能力的提升並非源於計算量的單純延伸,而是來自對多智慧體互動的隱性模擬——他們將其稱為「思想社會」(society of thought)論文。
模型內部會湧現出具有不同人格特質和領域專長的認知視角,這些視角之間進行辯論、質疑與調和論文。
研究團隊分析了超過 8000 道推理題的模型輸出論文,發現在最複雜的任務上,如研究生級別的科學推理(GPQA)和高難度數學題,DeepSeek-R1 的「對話特徵」尤為明顯;
而在相對簡單的布林表示式等程式性任務中,這類特徵幾乎消失論文。
他們甚至做了一個更直接的驗證:在 DeepSeek-R1-Llama-8B 模型中,研究者找到了一個與「驚訝、頓悟或應答」相關的內部特徵,人為提升該特徵的啟用強度後,模型在數學推算任務上的準確率從 27.1% 躍升至 54.8%論文。
一個化學題的案例,把這種現象描述得相當具體:面對一道複雜的 Diels-Alder 合成反應,DeepSeek-R1 在推理過程中突然寫道:「不對,這裡是環己二烯,不是苯」——模型在自我否定中修正了錯誤論文。
而 DeepSeek-V3 則沿著一條單線敘述徑直走到底,給出了錯誤答案論文。
更值得注意的是:這些模型從未被訓練去產生「思想社會」論文。
當強化學習僅以推理準確率作為獎勵訊號時,模型自發增加了對話性的、多視角的行為論文。
最佳化壓力,自己找到了社會性推理這條路論文。
智慧論文,從來不是一個「人」的事
埃文斯等人在《科學》論文中,將這一發現放進了更宏大的歷史框架:每一次「智慧爆炸」,本質上都是一次社會組織方式的躍遷論文。
靈長類動物的智識水平隨群體規模擴大,而非隨棲息地難度增加論文。
人類語言創造了邁克爾·托馬塞洛所說的「文化棘輪」——知識跨代累積,無需每個人從頭重建論文。
文字、法律和官僚體系,則把社會智慧外化進了制度和基礎設施之中論文。
論文舉了一個有趣的例子:一個蘇美爾文書負責執行穀物核算系統,他根本不理解這套體系的宏觀經濟功能——但系統整體的智慧,已經遠超他個人論文。
大型語言模型延續了這條線:它們被訓練在人類社會認知的全部輸出之上,是文化棘輪的計算啟用形態,每一個引數都是無數次交流與表達的壓縮沉澱論文。
這個視角,直接挑戰了「孤獨超級大腦」的奇點敘事論文。
布拉頓此前在其思想機構 Antikythera 的研究中持續探討類似問題論文,他曾在演講中描繪過這樣的情景:
如果未來存在 80 億人類智慧體,和 800 億乃至更多的非人類智慧體,兩者之間的比例可能是 1 比 10、1 比 100,甚至更高,屆時,「什麼構成社會」這個問題,將回到第一性原理論文。
「半人馬」時代論文,已經開始
論文將當下的人機協作形態稱為「半人馬配置」(centaur configuration)——人與 AI 智慧體的混合行動者,既非純粹的人類,也非純粹的機器論文。
這種配置會變得極其多樣:一個人指揮多個 AI 智慧體;一個 AI 服務多個人;許多人與許多AI在動態編組中相互協作論文。
智慧體可以自我複製和分叉,一個面臨複雜問題的智慧體可以生成副本,分配子任務,再將結果合併——這是遞迴式的集體審議,在每一層複雜性爆發時展開,在問題解決時收束論文。
這對 AI 的擴充套件路徑意味著什麼論文?
論文的判斷是:重要的不只是單個智慧體的算力規模,而是系統能否在真實社會的尺度和情境中運作論文。
為此,「建設智慧體制度」與「建設智慧體本身」同等重要論文。
在對齊方式上,論文對當下主流方案提出了批評論文。
從人類反饋中強化學習(RLHF)本質上是「親子糾錯模型」,在二元關係中有效,面對數十億智慧體時難以擴充套件論文。
他們主張一種「制度對齊」(institutional alignment)路徑:就像人類社會依靠法庭、市場、官僚體制這些持久的制度模板運轉,而非依賴每個人的個人美德,可擴充套件的 AI 生態也需要其數字等價物——智慧體的身份在其次,關鍵是它能否勝任某個角色協議,就像「法官」、「律師」、「陪審團」這些槽位本身的存在,獨立於坐在那個位子上的具體的人論文。
誰來審計審計者論文?
在治理層面,論文觸及了一個最為棘手的問題論文。
當 AI 系統被部署於招聘、量刑、福利分配等高風險決策中,「誰來審計審計者」變得無法迴避論文。
論文提出了一種「憲政結構」的構想:政府需要部署具有明確價值取向的 AI 系統——透明度、公平、正當程式——專門用於制衡私營部門和政府其他部門部署的 AI,反之亦然論文。
例如,勞工部 AI 審計企業招聘演算法是否存在差異性影響,司法部門 AI 評估行政部門 AI 的風險評估是否達到憲法標準論文。
論文用一個細節說明了另一種可能的未來:另一種選擇,是像美國證券交易委員會那樣,僱用拿著 Excel 表格的商學院畢業生,去對抗 AI 增強的高頻交易平臺的高維度合謀論文。
美聯儲的交易員,對陣的是一整套自動化認知系統——這已是現實論文。