訂閱
快速註冊 已是會員,立即登入

為您推薦

會員權益

歡慶39週年 歡慶39週年 全年最低訂閱優惠全面啟動!只要 2.5 折起

GPT-5時代,指令沒死只需升級?OpenAI提官方建議

曾子軒
user

曾子軒

2025-08-13

瀏覽數 300+

GPT-5依照指令行事的能力達到前所未見的高水準,讓下好指令更顯重要。Photo by Emiliano Vittoriosi on Unsplash
GPT-5依照指令行事的能力達到前所未見的高水準,讓下好指令更顯重要。Photo by Emiliano Vittoriosi on Unsplash
00:00
00:00

根據OpenAI最新釋出的技術文件,即便進入GPT-5時代,下對指令仍有必要。ChatGPT模型不斷進步,從GPT-3.5、GPT-4.0,再一路到GPT-4o、有推理能力的o3、o4,甚至還有輕量、主打回覆速度快速的mini系列模型。當模型變得更加聰明,我們還需要謹小慎微地寫指令嗎?近期社群上有人認為「指令已死」,沒必要認真研究指令工程,引起網友熱議。到底OpenAI官方為何堅持一個好指令很重要?好指令的標準在哪?必學的「元提示」又是什麼?為何這個簡單動作能大大提升指令品質?請見來自官方的完整建議。

當語言模型掌握推理能力,可以自行拆解使用者指令,規劃出完整計畫時,社群上開始出現「指令已死」的聲音。

不過,攤開OpenAI釋出的「GPT-5 指令指南」,可以看到,下好指令、追尋指令工程(Prompt Engineering),對於AI產出好內容,還是有很大幫助。

因為,GPT-5依照指令行事的精確度與執行力,已達到「前所未有的水準。」這意味著,使用者與模型互動的方式,將直接決定最終成果的品質。

本文整理OpenAI這份官方文件,從中提煉出幾項下好指令的技巧,希望讓使用者在GPT-5時代,能夠更好駕馭AI。

GPT-5依照指令行事的精確度與執行力,已達到「前所未有的水準。」取自OpenAI

GPT-5依照指令行事的精確度與執行力,已達到「前所未有的水準。」取自OpenAI

指定角色、提供範例,過往技巧仍適用 

賦予模型明確的角色

為模型設定一個清晰的身分,是引導其語氣、觀點及專業深度的有效方法。

例如,比起直接叫ChatGPT寫一篇推廣飲料的文案,指派角色的效果更好:「你是一位資深的文案專家,風格風趣,擅長用故事吸引年輕讀者。請為一款新的燕麥奶拿鐵撰寫一篇社群媒體推廣文案。」

其實,以前在社群上指派角色給ChatGPT,就曾紅極一時,在GPT-5的官方指令指南中,也沒有捨棄這個技巧。

OpenAI在三段指令中,都曾經指定官方角色,確保模型能立刻進入特定領域的工作模式。例如:

醫療領域:「你是CareFlow助理,一名醫療新創的虛擬行政專員,負責依照病患的症狀與優先程度安排就診時程。」
零售領域:「作為零售客服人員,你可以協助用戶取消或修改待處理訂單、退換已送達的商品…」
開發領域:「你是一個已部署的程式編寫代理。」

提供具體範例,不要只是給模糊的形容詞 

模型不是沒辦法讀懂解主觀形容詞,例如「給我一篇專業文章」,只是如果提供具體、可量化的規則,效果更佳。

舉例來說,在生成文件時,只是要求「排版整齊」不夠,最好可提供精確的設計規範。

在GPT-5指令指南中,就有一段「程式碼設計標準」的指令,應用到這個技巧:

─ 視覺層級:字體大小與粗細請限制在4–5種以維持一致的層級感;註解與附註使用 text-xs;除非是主視覺或主要標題,避免使用 text-xl。
─ 間距與版面:內距與外距統一以4的倍數設定,確保視覺節奏一致。

同樣地,在要求模型使用Markdown格式時,OpenAI所下的指令不只是「請用Markdown」,而是提供清晰的規則與範例,讓ChatGPT知道應該何時調整格式。

─ 僅在語義正確的情況下使用Markdown(例如行內程式碼、程式碼區塊、清單、表格)。
─ 在助理回覆中使用時,檔案、函式及類別名稱需以反引號包裹…

引導模型進行分好幾個步驟思考 

面對複雜任務,強迫模型一步到位往往會犧牲品質,更有效的方式是引導其先進行規劃與推理,官方文件中也反覆強調這個概念。

例如,在開發一項新應用時,OpenAI沒有直接要求成果,而是要求模型分好幾個步驟:

首先,花時間思考並建立一個評分標準。
接著,根據此標準深入思考世界級應用的構成要素。
最後,運用此標準來迭代並產出最佳解決方案。

雖然模型有能力自己制訂計畫,但如果預先準備好更詳細的步驟,可以讓模型行動更貼近預期。

你訂了嗎?訂遠見兩年,額外加送一年,智慧閱讀不間斷

在調用外部工具前,GPT-5文件中也建議要求模型先「列出一個結構化的計畫,詳細說明將採取的每個邏輯步驟」,以確保行動的準確性。

精準調控模型的「積極度」(Agentic Eagerness) 

GPT-5最顯著的進步之一,是使用者可以通過指令,精準控制模型的自主性與思考深度。OpenAI將此以調控「代理積極性」(Agentic Eagerness)描述。

提升積極度,賦予模型自主權 

在進行創意發想或處理複雜專案時,使用者可以鼓勵模型採取更主動的角色,避免因不確定性而中斷任務。

文件建議使用以下指令來達成此目的:

當你遇到不確定的地方時,不要停下來詢問。請直接研究或推斷出最合理的方法,然後繼續前進。
在用戶的請求被完全解決之前,請不要結束你的任務。

降低積極度,追求效率與速度 

當任務目標是快速獲取資訊時,使用者可以主動限制模型的思考範圍,以換取更快的反應速度:

優先快速提供答案,即便它可能不完全正確。
將你的行動限制在一到兩個步驟內,避免過度擴展搜索。

過往使用者會先評估自己的目標,例如要求回覆速度超快,或者期待回覆品質極高,再藉著挑選模型的方式實現。

現在,使用者則是在指令中寫清楚期待,讓模型依照指令行事。

讓AI自己改善指令,但要注意矛盾

模型能力提升,讓生成內容品質提升,甚至可以讓AI幫忙調整指令,但也要小心避免矛盾。

利用模型進行「元提示」(Metaprompting) 

當使用者對輸出結果不滿意時,可以直接請求模型本身協助改善指令。這形成了一個強大的自我修正迴圈。官方文件提供了一個有效的模板:

我希望改善一段指令。我的目標是〔目標〕,但目前的指令〔指令〕得到的結果是〔不理想的結果〕。請你從模型的角度,解釋可以添加或刪除哪些具體詞句,來更好地實現我的目標? 

避開致命錯誤:指令的內部矛盾 

GPT-5對指令的精準遵循是一把雙面刃。如果指令內部存在邏輯矛盾,模型不會像過去一樣忽略,而是會陷入困惑,反而讓生成內容的品質下降。

在指南中的這個範例裡面,OpenAI如實呈現出風險:

矛盾指令A:「在採取任何行動前,必須先查詢客戶資料。」
矛盾指令B:「如果情況緊急,要立刻建議客戶撥打緊急電話,不要先查資料。」 

這種指令會讓模型無所適從。那麼應該如何解決呢?OpenAI指出,好的指令應該明確定義例外情況,以解決衝突:

主要規則:在採取任何行動前,先查詢客戶資料。
例外情況:若情況緊急,則跳過查詢步驟,直接建議撥打緊急電話。

使用者在設計複雜指令時,一定要審視內部邏輯的一致性,避免出現矛盾。

雖然進入GPT-5時代,使用者不再需要選擇模型,已經有內建的模型挑選器,導引到合適的模型,但指令工程仍有其價值。

明確設定角色、以範例消除模糊、引導模型先規劃後行動、靈活調整積極度,以及善用「元提示」,都是專業使用者不可或缺的技巧。

你可能也喜歡

AI教父黃仁勳的創業領導成功之道
數位專題

AI教父黃仁勳的創業領導成功之道

AI晶片巨頭輝達(NVIDIA)執行長黃仁勳勢不可擋!1993年創立輝達以來,公司市值近來創下歷史新高,黃仁勳身價更是破千億美元榮登全球前15大富豪。隨著Computex 2024登場,他帶來的A

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務