非營利機構生命未來研究所(Future of Life Institute)最新發布了一份《AI 安全指數》報告,由 AI 領域專家對領先的 AI 公司在關鍵安全領域進行評級。
主要發現包括:
- 頭部企業與其他企業之間仍存在明顯差距。頭部企業(Anthropic、OpenAI和谷歌 DeepMind)與其餘受評企業(Z.ai、xAI、Meta、阿里雲、DeepSeek)之間仍存在明顯差距。差距最顯著的領域體現在風險評估、安全框架和信息共享方面,其根源在於信息披露不足、系統性安全流程證據薄弱,以及穩健評估實踐的採用程度參差不齊。
- 生存安全仍然是該行業的核心結構性弱點。所有受評公司都在競相研發通用人工智能/超級智能,但都沒有提出任何明確的計劃來控制或協調這種比人類更智能的技術,因此,最嚴重的風險實際上沒有得到解決。
- 儘管企業公開做出承諾,但其安全措施仍未能達到新興的全球標準。雖然許多公司在一定程度上符合這些新興標準,但實施的深度、具體性和質量仍然參差不齊,導致安全措施尚未達到歐盟人工智能實踐準則等框架所設想的嚴格性、可衡量性或透明度。
注意:證據收集截至 2025 年 11 月 8 日,並未反映最近發生的事件,例如 Google DeepMind 的 Gemini 3 Pro、xAI 的 Grok 4.1、OpenAI 的 GPT-5.1 或 Anthropic 的 Claude Opus 4.5 的發佈。
更多詳情可查看完整報告:https://futureoflife.org/ai-safety-index-winter-2025/