想在本地用一款 “無拘無束” 的 AI 模型?Ollama 能幫你輕鬆實現,但先得説清楚:這類 “越獄模型” 雖自由,卻可能藏着不少小麻煩。 一、手把手裝 Abliterated 無限制模型 1. 先搭好 Ollama 基礎 不管用什麼系統,先把 Ollama 裝上 —— 它是本地跑模型的 “底座”,操作很簡單: Windows/macOS:去Ollam