1950年,英國數學家艾倫·圖靈在《心智》雜誌發表了一篇題為《計算機器與智能》的論文,提出了一個看似簡單卻震撼世界的問題:“機器能思考嗎?”這個後來被稱為“圖靈之問”的問題,如同一顆投入平靜湖面的石子,激起了持續至今的漣漪。而圖靈設計的“模仿遊戲”——後來廣為人知的“圖靈測試”,為人工智能領域樹立了第一個里程碑。七十餘年來,人工智能經歷了從實驗室概念到日常生活無處不在的演變,其發展軌跡猶如一部科技史詩,充滿了智慧的火花、挫折的低谷和突破的高峯。
第一紀元:符號主義的黃金時代(1956-1970年代)
1956年達特茅斯會議的召開,正式宣告“人工智能”作為一門獨立學科的誕生。約翰·麥卡錫、馬文·明斯基等先驅們懷揣着“一個夏天創造智能”的樂觀,開啓了AI的第一個春天。這一時期,研究者們信奉“符號主義”,認為人類智能的核心在於對符號的操縱,只需將知識編碼為規則,機器便能復現智能。
早期成就令人振奮:艾倫·紐厄爾和赫伯特·西蒙的“邏輯理論家”能夠證明數學定理;約瑟夫·魏岑鮑姆的ELIZA展示了簡單模式匹配即可產生類似心理治療的對話;斯坦福研究院的Shakey成為首個能感知環境、規劃行動的移動機器人。這些突破催生了過度樂觀的預言,如明斯基曾斷言“一代人之內,創造人工智能的問題將得到實質性解決”。
然而,AI很快遭遇了“知識瓶頸”。研究者們發現,人類常識的廣度與深度遠超想象,難以被窮盡為規則。隨着馬文·明斯基和西摩·派珀特在《感知機》一書中指出簡單神經網絡的根本侷限,以及詹姆斯·萊特希爾1973年發表的嚴厲批評報告,AI研究陷入資金縮減、進展緩慢的“第一次寒冬”。符號主義的光芒逐漸黯淡,但它留下了知識表示、推理系統等寶貴遺產,專家系統在1980年代仍短暫綻放,維護着AI的火種。
第二紀元:統計學習的崛起與深度學習的曙光(1980年代-2010年代初)
當符號主義陷入困境時,另一條道路開始展現生機。基於概率模型和統計學習的方法逐漸興起,研究者們不再試圖將人類所有知識編碼入機器,而是讓機器從數據中自行學習。這一範式轉變的核心是“機器學習”。
1986年,大衞·魯姆哈特等人提出的反向傳播算法,解決了多層神經網絡的訓練難題,神經網絡研究復甦。支持向量機、決策樹、貝葉斯網絡等各類機器學習算法蓬勃發展。然而,真正的突破需要等待數據、算力和算法的三重奏。
21世紀初,互聯網催生了大數據時代,GPU的並行計算能力提供了強大算力,而 Geoffrey Hinton 等人在深度學習領域的堅持開始收穫回報。2006年,Hinton提出“深度信念網絡”的高效訓練方法,打開了深度學習的大門。2012年,AlexNet在ImageNet圖像識別比賽中以壓倒性優勢奪冠,錯誤率比傳統方法降低近一半,震驚學術界。這被視為“深度學習革命”的引爆點。
與此同時,強化學習領域,DeepMind的DQN算法在2015年實現了直接從像素輸入學習玩轉49款雅達利遊戲,甚至超越人類水平。機器學習不再僅僅是模式識別工具,而是展現出決策與創造的潛能。然而,這一時期AI仍高度依賴海量標註數據,其理解仍顯“膚淺”,缺乏真正的常識與推理能力。
第三紀元:大模型與AGI的追尋(2010年代中期至今)
2017年,谷歌研究者發表《注意力就是一切》的論文,提出Transformer架構,這成為AI發展史上的又一拐點。基於此,能夠處理海量文本、學習語言深層模式的“大語言模型”登上舞台中央。
2018年,OpenAI發佈GPT,隨後迭代的GPT-3已擁有1750億參數,展現出驚人的文本生成、推理和少量樣本學習能力。2022年底,ChatGPT橫空出世,其流暢的對話、多任務處理能力使AI第一次以平民化、強交互的形式進入公眾視野,引發全球熱潮。多模態模型如GPT-4V、DALL·E、Sora等,進一步打通文本、圖像、音頻、視頻的界限,向着更全面的感知與創造邁進。
當今AI前沿呈現三大趨勢:一是“規模化法則”繼續主導,更大模型、更多數據、更強算力追求性能突破;二是追求效率與實用化,模型壓縮、邊緣計算、專用芯片使AI部署更廣泛;三是與科學深度融合,AlphaFold2蛋白質結構預測難題,AI在藥物研發、材料科學、氣候建模中成為強大工具。