前言

Prompt 其实很简单,一句话而言,就是尽可能地描述清楚,然后是追求 信达雅。
比如我们描述西湖,你想到的也许是 “杭州西湖,好美,晴天美,雨天也美”,而古人想到的是“水光瀲灩晴方好,山色空濛雨亦奇;欲把西湖比西子,淡妆浓抹总相宜”。
不同的描述和表达,会让大模型对问题的理解走向不同的方向。

又或者,你想去西湖玩一下?问问 AI 怎么规划你只有半天的行程

  • 糟糕的提问(糟糕的提示词): “我想去西湖玩一下” AI 能怎么办?他只能给你最通用的行程方案(就好比指着一片湖水说:“看,这就是西湖。”)
  • 好的提问(好的提示词): “你好,我只有下午的半天时间,而且我对诗词人文很感兴趣。我想乘船看‘三潭印月’,并听听苏东坡在西湖留下的故事,最后想在‘柳浪闻莺’附近找个地方喝茶。请你作为资深的导游,帮我找找网上的相关知识,帮我出一份半天的行程方案,要求包含我刚才提到的一些景点,让我能够充分享受西湖的韵味” (这时,AI 有了足够的上下文,才能真正理解你的需求,为你调动它的“知识库”,呈现出最精华、最符合你要求的“风景”。

你给到 AI 的上下文越多,AI 就越能够理解你,并输出你想要的内容。


“提示词工程”(Prompt Engineering) 听起来很复杂,但它的本质,就是学习如何当一个“会提问”的游客。

无论是结构化、流程化还是其他的提示词技巧,都是人类已有的思维方式的一种体现。

这份指南的目的,就是教你这种“提问的艺术”。从如何与 AI 对话,到构建复杂的 Meta Prompt,一步步帮助你理解 Prompt 并掌握 Prompt。

附注: 行业内有很多关于 Prompt 技巧的文章,从原理到框架都有探索。本文不会去展开探讨一些具体的提示词框架,比如 APE(Action Purpose Expect)、BROKE(Background Role Objectives KeyResult Evolve)、CHAT(Character History Ambition Task)等。这些框架有各自适用的场景,记住所有的这些框架绝非易事。只要你能够好好地掌握提示词的构成,你完全可以写出一份所谓的提示词框架。

如果你看完文章的全篇,对如何提升表达还是一头雾水,可以试试看看书。
好的书籍或者视频,是能让你感受到美的,比如医学之美、数学之美、编程之美、摄影之美等
感受到了什么是美,你才知道什么是好的提示词。

一、 什么是 AI 提示词(Prompt)?

大白话解释: 提示词就是你和 AI 对话时说的话,是你给 AI 下达的“指令”、“问题”或者描绘的画面(这里的渠道可以是 DeepSeek、豆包或者其他的 AI 应用)。

为什么它很重要? AI 的回答质量,很大程度上取决于你问得好不好。好的提示词能让 AI 瞬间“开窍”,给你更准确、更有创意的答案。

一个简单的比喻: 把 AI 当作一个实习生,大模型的水平决定了实习生的智力,而现在你必须清楚地告诉他你想 让他做什么(任务)扮演什么角色(身份)参考什么资料(背景信息)以及最后要交出什么格式的“结果”(输出格式),他才能把自身的能力完整地发挥出来,否则他大概率会糊弄了事。

二、通用的一些技巧

虽然 AI 的应用千变万化,但是有一些技巧是始终通用的,比如一份提示词该以什么样的结构展开?我们可以用那些小技巧,来变相地达到我们的目的?

掌握“好”提示词的核心要素

从大量的提示词样本中,我们可以观察到,提示词一般包含以下核心要素:

  1. 清晰的“角色”(Role): 你希望 AI 扮演什么角色?
    • (例如:像一个专业的营养师、像一个5岁小孩能听懂的老师、像一个经验丰富的程序员)
  2. 具体的“背景信息”(Context): AI 需要知道哪些上下文?
    • (例如:这篇文章是关于什么的?这封邮件是写给谁的?我的背景是什么?)
  3. 明确的“任务” / “指令”(Task / Command): 你想让 AI 做什么?
    • (例如:写一封邮件、总结一篇文章、翻译一段话、想几个创意点子)
  4. 期望的“输出”/ “约束” / “格式”(Output / Constraint / Format): 你希望 AI 怎样呈现答案?
  • (例如:用列表形式、写成一首诗、限制在100字以内、用表格展示)
     

现在,我们来根据这四个要素,拆解一下我们一开始提到的 “西湖导游” 提示词,如下图所示:


为什么会有效?这是因为在明确这些要素的同时,我们其实是在用多个维度来描述清楚原始的问题,并且让 AI 接受到的信息更结构化更清晰。

Prompt Engineering Guide1 中也提到了组成提示词要素。要素对于提示词,并非必需的,但是能够帮助我们更好地理解和构建提示词,在写提示词的时候也能更好地梳理自己的思路。

立刻上手的实用提示词技巧

以下都是一些可以立即上手的提示词技巧,你可以从中获取到一些灵感。

技巧一:角色扮演法(Role-Play)

“假如你是一位…,请你…”

(例子:“假如你是一位资深的旅行博主,请帮我规划一份5天的东京自由行路线。”)

这个技巧非常好用,几乎是所有场景下都可以用到,而且能得到显著的效果提升。

问题:为什么让 AI 扮演角色能获得如此显著的收益?

我的看法:一个具有代表性的角色词,背后是大量关于这个角色的相关数据:角色的思维模式、人物背景、行为和表达方式等等。数据越多,模型被激活的相关语料信息就越多,越能展现模型自身的能力。并且,角色的设定,会将问题的范围缩小到角色所承担的任务范围内,有助于 AI 在解决问题时更专注。

技巧二:提供“范例”(Few-Shot)

给 AI 看个“模板”,让它照着学。

(例子:“请帮我把下面的话润色得更礼貌:‘你必须马上改完。’ 范例:‘这份报告很重要,辛苦你尽快调整一下。’ 现在,请润色:‘这个方案不行,重做。’”)

我的观察:在大多数需要稳定输出的情况下, Few-Shot 会比 Zero-Shot 都会更有效,这有效避免了 AI 的自由发挥,引导 AI 往期望的方向输出。大模型在理解示例的同时,也是在模仿我们的思维模式,寻找输入到输出之间的关联性。

技巧三:追问与迭代(Iteration)

AI 的第一个答案不完美?别放弃,引导模型接着问!

处理问题的能力不够具有泛化性?压缩你的表达!

(例子:“这个路线太赶了,能不能把节奏放慢一点?” ,“再多推荐几个当地人才知道的美食。”)

(例子:“如果用户对回答非常不满意,重新审视问题并仔细分析,引导用户补充更多关于问题的信息,然后再生成新的回答”)

我的看法:最好的迭代,是智能体能够不断根据用户的提问和反馈,改写自己的 System Prompt,实现智能体的自我迭代和进化。人类的想象终究是有能力的极限的。

技巧四:明确“不要”什么(Anti-Prompt)

也就是负面提示词,告诉 AI 你的“雷区”,比如画面中不能出现的部分,或者执行任务时避免陷入的误区的。

(例子:“写一个关于猫的睡前故事,但不要提到任何悲伤的情节。”)

福尔摩斯:“排除一切不可能的,剩下的即使再不可能,那也是真相。”

技巧五:主动推理(Chain of Thougt)

主动引导模型进入到“思考” / “推理”模式,一步步地拆解问题,最终获得准确性、连贯性、可靠性更高的答案,下面就是一个立马可以用上的 顶级指令👇:

Take a deep breath and work on this problem step-by-step. 2

例子:“.... {一些任务描述} ....深呼吸(Take a breath),让我们逐步思考(Think step by step)。”)

并非所有的问题都需要让模型深入思考,思考会增加输出的延时,在即时问答等场景下并不合适。

问题:选择了推理模型(比如 DeepSeek R1),还需要加这个 CoT 吗?

我的看法:推理模型在大量的数据训练之下,才能逐渐呈现出回答带有思考的特征,简单而言就是大模型学习到了推理的模式。从多次对比体验上来看,带不带 Cot 对于推理模型的输出而言没有显著的影响;如果你在发现推理模型的回答不好,倒是可以利用这个技巧来发现模型在思考过程中是否存在一些偏离,从而优化问题或者提示词。

技巧六:学会用 Markdown 给 AI “划重点”(Standard Format)

为什么? 把 Prompt 通过规范的格式重新组织,AI 才不会“蒙圈”,后续维护起来也更容易。

怎么做?学习基础的 Markdown 语法,以下是最基础的应用:

# (井号) 来分段,比如 #任务#背景

* (星号) 来列清单,告诉 AI 你的要求有哪几条。

``` (三个反引号) 把你要它总结或翻译的长篇大论“框”起来。

除了 Markdown 格式之外,你也可以创作自己的语言或者表达框架。

JSON 可不可以?当然可以;HTML / XML 可不可以?当然可以;这些都是 特定领域语言 DSL)。

你可以找到契合 Agent 场景的 DSL,也许就能发挥出显著的作用。

不同的模型也有不同的 DSL 偏好,比如 ChatGPT 偏向于Markdown、Gemini 偏向于JSON、Claude 偏向于XML3。你也许可以在模型的官方Prompt示例中找到一些痕迹。

技巧七:充分给予鼓励和赞扬(Emotional stimulation)

和普通人一样,AI 也需要不断地鼓励,正向的情绪刺激能可以让 AI 发挥得更好。

例子:

“你的工作令人赞叹,我有一个小小的问题,需要你再帮我处理一下: {问题描述}”,

“太棒了!接下来我们来探讨一下...”,

“你确定这是最终的答案吗?相信你自己并追求卓越!你的辛勤工作将带来显著的成果!再思考一下吧!”

Cheng Li4 等人通过对比研究发现,大语言模型能 “理解” 情绪,而且在与大模型沟通过程中的,加入情绪提示(Emotion Prompt),能让它们在做任务时更靠谱、更卖力。

小结

本篇主要介绍了提示词是什么,以及我们如何利用一些基础的技巧,优化我们的提示词,下一篇将介绍一些更为专业的提示词模块,比如提问改写、追问、MetaPrompt等,它们在专业 Agent 的构建中,分别起到了不同的作用。

感兴趣的朋友,欢迎关注我的账号,全平台同名~

 

1
0