簡要發展歷史:

1950-1980:符號主義AI,基於規則

1980-2010:神經網絡,側重統計學習

2017:Tranformer架構,Attention is all you need

2018-2020:大規模預訓練與涌現(GPT-3等)

2022-至今:大模型繁榮期,指令微調、人類對齊、百花齊放

未來:智能體Agents與多模態融合


大模型本質上是在做概率預測:

通過海量文本學習詞語之間的關聯關係,掌握使用語境。

LLM不具備人類的意識或邏輯,底層工作原理其實就是根據上文預測下一個字的出現概率,選取概率最高的詞作為結果,然後循環往復,生成整段文字。


大模型的成長三階段:

1.預訓練。通過海量知識積累,學習語言和世界常識。

2.微調。類似與專業培訓的概念,對特定領域進行專攻,掌握專業技能。

3.對齊。aligment,符合人類價值觀,確保安全可靠與責任感。


大模型幻覺:

大模型會生成看似合理、實際錯誤或完全虛構的信息,原因就是內容並非來自數據庫,而是通過預測“最可能的下一個詞”,所以看起來像是一本正經的胡説八道。

常見的4類自然資源領域的幻覺:

(1)數據虛構(完全錯誤的地理座標、面積、統計數據等)

(2)條文虛構(完全不存在的法律、政策文件)

(3)專業判斷錯誤(違背分類標準)

(4)時間信息混淆(引用已經廢止的舊標準,混淆不同版本規範)


怎樣應對幻覺:

謹慎信任,隨時驗證,所有具體的數據、法規、技術標準必須核實。

明確AI的長處是文本理解、總結、改寫、格式調整,而不是具體事實查詢、精確時間和空間分析。

把AI定位為初稿生成器,而不要把它用作決策器。可以讓AI搭建框架、潤色文字,具體的內容和數據必須由人工來填充和核實。