ChatGPT、Gemini、Claude、Grok 提示詞技巧:AI Prompt 下法完整指南
生成式 AI (Generative AI, GAI) 如 ChatGPT、Gemini、Claude 和 Grok 已成為日常工作與學習的強大夥伴。然而,許多人會發現,明明是同一個工具,為什麼別人的 AI 答得像專家,而你的 AI 卻總是在胡言亂語?
關鍵就在於 Prompt Engineering (提示工程)。它並非單純的指令輸入,而是一門「溝通與指令架構」的藝術。掌握正確的「詠唱術」,能讓 AI 的產出品質從 60 分提升至 95 分。隨著 AI 從單純的對話機器人,進化成能操作工具的「Agent (代理人)」,Prompt 的下法也經歷了一波迭代。本篇文章將總結業界最佳實踐(包含 Claude 官方推薦的技巧),從基本原理到高階 Agent 實務,全面解析如何下出完美的 Prompt。
提示詞的核心三要素:P-C-E 法則
在進入複雜的框架前,請記住所有高效指令的共同點。如果你發現 AI 答非所問,通常是缺少了以下其中一項:
- 精確 (Precision) 與直接:避免使用「寫多一點」、「隨便聊聊」這種模糊字眼。請具體化你的動詞(如「分析」、「摘要」)與量化指標。如果任務有先後順序,請清楚使用數字或項目清單條列出來。
- 背景 (Context):AI 就像一個剛入職的實習生。給出的上下文越豐富(目標受眾是誰?為什麼要寫這個?),成果越符合需求。如果是非常長的文件資料,請將它放在 Prompt 的最上方,這樣能顯著提升 AI 捕捉資訊的準確度。
- 範例 (Examples):這是提升品質的最快方法。提供幾個「輸入-輸出」範例能大幅改善輸出格式與語氣。為了避免 AI 混淆,建議將範例用
<example>標籤包覆起來。
❌ 錯誤示範(模糊):
「幫我寫一段關於運動好處的文章。」
✅ 正確示範(P-C-E):
「你是一位資深健身教練。請針對完全沒有運動習慣的上班族,撰寫一篇 150 字內的短文介紹運動的好處。請參考以下活潑的預期風格:
<example>嗨!別再坐著了,只要 10 分鐘,你就能感覺到大腦重啟...</example>」
指令架構框架:從入門到工程師級
面對空白的對話框時,如果沒有一個思維脈絡引導,可能會不知道如何起頭。使用現成的指令框架可以幫你快速結構化思維。
RTF 框架 (適合日常快速任務)
這是最容易記憶的結構:
- Role (角色):賦予 AI 一份工作(如「你是專業的公關經理」)。
- Task (任務):具體要做什麼(如「撰寫一份道歉聲明」)。
- Format (格式):輸出的樣子(如「500 字內的電子郵件」)。
範例指令:
「你是一位專業的旅遊部落客。請幫我撰寫一段關於 2025 年京都賞櫻的旅行計畫。輸出格式請使用 Markdown 表格,包含日期、景點建議、以及必吃美食。」
BROKE 框架 (適合複雜的專案與長期任務)
這是目前業界公認最完整的結構,能顯著降低 AI 發散的情況發生:
- Background (背景):提供任務的前因後果與限制。
- Role (角色):指定的專家身分。
- Objectives (目標):你最終想要達成的核心目的。
- Key Results (關鍵結果):列出輸出的具體指標。
- Evolve (演化):告訴 AI 之後如果不如預期,可以如何修正。
結構化與長文本詠唱術:讓 AI 聽懂複雜任務
當你要處理多份文件或是指令很龐雜時,如何排版 Prompt 是一大關鍵。如果你只是把所有文字貼在一個輸入框中,AI 很容易漏掉關鍵要求。
使用 XML 標籤結構化 (Structure with XML tags)
將指令標籤化是目前最受推崇的實作。當 Prompt 混合了指示、背景資訊和變數時,用 <instructions>、<context>、<input> 等 XML 標籤將內容區隔,能有效避免 AI 將指示與參考資料混淆。
範例指令:
請根據 <context> 內的背景資訊,回答 <question> 中的問題。
<context>
台北 101 是台灣最高樓,高度為 508 公尺。
</context>
<question>
台北 101 有多高?
</question>
長文本的先引述再回答與層級化
在處理超過幾萬字(如合約或財報)的任務時,請把多份文件分別用 <document> 和 <document_content> 標籤包覆,並特別在指令中要求:「請先引述文件中相關的段落,然後再根據引述進行分析」。這個先引述的動作能幫助 AI 穿透雜訊,將注意力集中在正確的地方,同時減少回答的幻覺 (Hallucination)。
進階詠唱術:思考與格式微調
一旦掌握了基本框架與 XML 結構,你可以進一步微調 AI 的思考過程與回答格式,這對於解決複雜邏輯或是克服 AI 的死板語氣至關重要。
正向表述:告訴 AI 要做什麼而非不要做什麼
在控制輸出格式時,明確說出你「想要什麼格式」比禁止它使用什麼更有用。
- ❌ 錯誤描述:「回覆中不要使用 Markdown,也不要用條列式。」
- ✅ 正確描述:「你的回覆應該是由流暢的散文段落組成,自然地將重點融入句法中。」
此外,你的 Prompt 排版風格也會強烈影響 AI 的輸出。如果你在 Prompt 裡使用了大量的標籤跟條列,AI 也會很自然地回傳許多條列。若希望產出流暢的文章風格,就盡量讓你的 Prompt 也是流暢的散文描述。
思維鏈 (Chain of Thought, CoT) 與自省機制
AI 透過強制「寫下推理步驟」可以大幅減少因直覺而產生的錯誤。
- 推演邏輯:「請一步步思考」(Let's think step by step)。你也可以更進階地使用
<thinking>和<answer>標籤,要求 AI 先在<thinking>中推演邏輯,最後才在<answer>區塊給出確定答案。 - 自省機制 (Self-check):在 Prompt 尾端加上一句:「在你完成並顯示最終答案之前,請根據 [明確的測試或條件] 驗證你的答案是否正確。」這能有效抓出許多寫程式或是數學計算的疏忽。
逆向請教 (Reverse Prompting) 終極絕招
如果你知道想達到的成果,但不知道怎麼寫 Prompt,那就直接請教 AI。
範例指令:
「這是我很喜歡的一篇科技產品評論文章:『[貼上文章內容]』。請分析這篇文章的具體寫作風格、段落架構與排版方式,並反推成一個 Prompt 指令給我,好讓我以後能請你模仿這種風格寫出其他的產品評論。」
Agentic AI 實務提示技巧
隨著 AI 具備操作工具的能力(如自動寫程式碼、聯網搜尋、閱讀終端機),我們稱這類可以自主判斷情境的 AI 為代理 (Agent)。針對這種會幫你「執行動作」的模型,我們需要專門的提示方針,以確保專案的精確度與安全性。
明確定義行動還是只給建議
代理 AI 有時候會過度謹慎,只給你修改建議而不動手改;或者又太過積極,擅自加了一堆你沒要求的功能甚至額外的附屬檔案。你可以在指令中加入標籤來定調它的主動性:
<default_to_action>:請 AI 預設就去執行並實作程式碼更改,盡量減少單純的建議與發問。<do_not_act_before_instructions>:除非我明確要求,否則請保持發問與調查,絕對不要隨地執行檔案修改。
要求先調查再回答以減少幻覺
如果是程式開發的任務,最怕 AI 憑空想像並寫出不存在的變數或模組。你可以強烈要求:
<investigate_before_answering> 絕對不要對你沒看過的程式碼進行揣測。如果我提到了某個專案檔案,你在回答之前,**必須**先呼叫閱讀工具去讀取該檔案的實際內容。
長程任務的狀態追蹤 (State Tracking)
若要求 AI 進行複雜且可能需要好幾次回覆才能完成的大規模任務,強烈建議指導它:
- 先寫測試:先實作測試程式並記錄在結構化的檔案中 (如
tests.json)。 - 記錄進度:要求它建立並維護一份
progress.txt備忘錄,把目前工作進度與思考記錄下來。如此一來,就算遇到了對話上下文長度限制(Token 不足)而中斷,你也可以開啟新的對話,並叫它「去讀progress.txt與查閱 Git commit 歷史紀錄以接續工作」。 - 避免為了過測試而寫死 (Hard-coding):明確告知 AI,要求產出通用型解法,禁止為了解決單一測試案例錯誤而只把該例外情形「寫死」。
2026 平台特性分析:選對工具事半功倍
不同的大模型展現出了更鮮明的「性格」差異。選對工具,能讓你的 Prompt 效率再提升大半:
- ChatGPT (GPT 家族 / o 系列):目前邏輯推理與「代理人」(Agentic) 能力的巔峰。適合處理極度複雜的專案管理、科學運算,以及需要 AI 主動調用多種工具完成的自動化任務。
- Claude (Sonnet & Opus):公認的「文案之王」與「程式導師」。善於處理超長文本並抓取精確內容。它極度服從 XML 標籤指令,且擁有強大的 Native 工具調度(平行處理多個工具)能力。
- Gemini (Flash & Deep Think):擁有超長文本 (2M+ tokens) 的極限處理能力,適合用於分析長達數小時的會議影片或是橫跨極多目錄的大型專案。
- Grok:整合 X (原 Twitter) 的即時資訊流,對時事敏感度最高。其無限制模式能提供更直接、較少過度審查的答案。
- DeepSeek (高性能黑馬):以極高的性價比與強大的邏輯推理能力橫掃全球,特別是在數學競賽、程式開發任務上,是當前極受關注的技術領先者。
結語
Prompt Engineering 絕非死記硬背「咒語清單」。它是一種系統化表達需求的能力。
未來 AI 的發展可能會讓溝通變得更口語與自然,但不管工具再怎麼進化,將想法有條理地寫下來(清晰的邏輯拆解、豐富的背景提供、利用 XML 標籤排版、提供良好的範例),永遠是讓 AI 成為專業級助手的核心秘訣。現在,就試著用 BROKE 框架加上 XML 標籤,將你原本隨便打的一句指令,升級成專業的工程指令吧!