Redis 之父 2025 年對人工智能的思考

新聞
HongKong
0
07:52 PM · Dec 22 ,2025

Redis 之父 Antirez 最新博客文章:《Reflections on AI at the end of 2025》,談論了他對人工智能的思考。

從“隨機鸚鵡”到現實: 多年以來,儘管功能證據和科學線索不斷積累,某些 AI 研究人員仍堅稱大語言模型(LLM)只是“隨機鸚鵡”:即一種僅憑概率運作的機器,它們:1. 對提示詞(Prompt)的含義沒有任何表徵。2. 對自己將要説的話沒有任何表徵。直到 2025 年,幾乎所有人終於都不再這麼説了。

思維鏈(CoT)的本質: 思維鏈現已成為提升 LLM 輸出質量的基礎手段。但 CoT 究竟是什麼?為什麼它能提升輸出?我認為原因有二:1. 在模型表徵中進行採樣(即一種形式的內部搜索)。當與提示主題相關的空間信息和概念進入上下文窗口後,模型能更好地做出回覆。2. 結合強化學習(RL):模型學會了為了收斂到某個有用的回覆,而將一個個 Token 依次排列(每個 Token 都會改變模型狀態)。

擴展定律(Scaling)的新高度: “擴展受限於現存 Token 數量”的觀點已不再成立,這歸功於帶有可驗證獎勵的強化學習。雖然我們尚未到達 AlphaGo 的“第 37 手”時刻,但未來這真的不可能嗎?在某些任務中(例如優化程序的運行速度),理論上模型可以在清晰的獎勵信號引導下,在極長的時間內持續取得進步。我相信,應用於 LLM 的強化學習改進將是 AI 領域的下一個重大突破。

編程界的轉變: 程序員對 AI 輔助編程的牴觸情緒已顯著降低。即使 LLM 會犯錯,但其交付有用代碼和提示的能力已提升到讓大多數懷疑論者也開始使用的程度:現在的投資回報率(ROI)對更多人來説已是可接受的。編程界目前仍分為兩派:一派將 LLM 視為“同事”(例如,我所有的交互都是通過 Gemini、Claude 的 Web 界面完成的),另一派則將 LLM 視為獨立的編程智能體(Agents)。

範式之爭與 AGI: 少數知名 AI 科學家相信,Transformer 的奇蹟可以循着不同路徑再次發生,甚至表現更好。他們已組建團隊和公司,研究 Transformer 的替代方案,以及具有顯式符號表徵或世界模型的模型。但我認為,LLM 是在能夠逼近離散推理步驟的空間上訓練的微分機,即使沒有根本性的新範式出現,它們也有可能帶我們走向通用人工智能(AGI)。AGI 很可能通過多種截然不同的架構獨立實現。

關於 CoT 的“謊言”: 有人聲稱思維鏈從根本上改變了 LLM 的本質,並以此為藉口辯解:他們過去認為 LLM 侷限性很大,現在改口是因為 CoT 讓 LLM 變成了不同的東西。他們在撒謊。架構依然如故,目標依然是預測下一個 Token,思維鏈也正是這樣由一個個 Token 堆疊而成的。

ARC 測試的轉型: 如今,ARC 測試(抽象推理基準)看起來不再像最初認為的那樣不可逾越。針對特定任務優化的小型模型在 ARC-AGI-1 上表現尚可,而帶有大量思維鏈的超大型 LLM 在 ARC-AGI-2 上取得了令人印象深刻的成績——儘管許多人曾斷言這種架構無法實現此類結果。在某種程度上,ARC 已從“反 LLM 測試”轉變為“LLM 驗證測試”。

終極挑戰: 未來 20 年,人工智能面臨的根本挑戰是避免人類滅絕。


來源:https://weibo.com/2194035935/QjrihBlme

user avatar
0 位用戶收藏了這個故事!
收藏

發佈 評論

Some HTML is okay.