在不同的大語言模型之間穿梭,尋求同頻共振,研究了各種提示詞範式,從 few-shot、COT、self-consistency 到動態提示詞輪番嘗試。曾經還裝了一把x給公司做了個提示詞工程的培訓,嘗試把寫提示詞的痛苦幸福轉接給大家。
然而,周旋了一段時間後我發現,人和大模型之間依然有語言壁壘——真是君不識我,我亦不識君。
咱們平時其實還是國產模型用的多,尤其是DeepSeek出世之前,用於生產環境的還是智譜、千問,網上各種流傳的適用於chatgpt claude的提示詞,就真的沒那麼適用。經常花了半天大半天的時間也還是生成不了想用的效果。
隔壁道友曾經感慨:“花了半天時間,終於跟 LLM 聊出了點同頻共振的感覺。”
工程化的提示詞有時候一天要寫十幾個任務的(沒錯,就是這個強度,兩三天突擊出一套系統沒在怕的)。一天得獎自己好幾個雞腿子。
終於有一天,受不了了,起義了,我要擺脱這被大模型勞役的日子!
讓 AI 自己生成提示詞
之前有個新加坡團隊提出了 CO-STAR 框架,思路很好,但要寫的字還是太多。那提示詞這事兒,就大語言模型自己解決唄!
下面這個是我在多個項目中頻繁使用且好用的提示詞結構:
Role(角色)
大模型需要扮演的身份或定位。
Objective(目標)
任務的核心目標是什麼?
Constraints(約束)
有哪些硬性要求或限制條件?
Workflow(流程)
按照怎樣的步驟進行任務執行?
Example(示例)
提供具體案例,確保輸出風格符合預期。
根據上面的結構,我手搓了一個coze提示詞自動生成工具。提供大家使用(默認使用qwen-max模型)
https://www.coze.cn/store/project/7484301292970672179?from=st...
只需要在任務描述裏輸入你想要進行的任務。比如“輸入一段用户問題,請生成相應的MYSQL查詢語句” .然後點擊【按鈕】(多麼直白的標識)
這背後的流程是這樣子的
頻繁調用大模型,會不會很貴?
看似流程中頻繁調用大語言模型,但別忘了,大模型的計費是按照 token(簡單理解為字數)計算的。實際上,流程雖多,token並沒有很多。
此外,讓大模型一次性專注於一個任務,往往能產生更優質的效果。
事實證明,專一果然更迷人。
讓我們來看看實際效果
下面這個案例解釋了提示詞生成工具為什麼更好用。
輸入一個任務描述:
請幫我生成一個300字的貝塔公司生產的支持超級快充的充電寶的文案。
把這個任務描述丟給提示詞自動生成工具,讓它自己生成提示詞:
Role
文案撰寫專家