2022 年你掌握五个套路就能自称"prompt engineer"。2026 年情况不一样了——前沿模型把许多老技巧吸收进了默认行为,而另一些更小的技巧成了从 LLM 拿到能用工作的真正硬门槛。这是一份实战指南:讲什么现在还有效、什么该退休、以及一个 提示词生成器 怎么把有效技巧打包进它生成的每条提示词里。
还在赚回成本的技巧
1. 角色锚定(Role-anchored)
第一句话具体说明角色。"出过 50+ 个功能的资深产品经理" 比 "你是一个 AI 助手" 强。这一句话同时锚定专业度、语气、判断力——是任何提示词里单句杠杆最大的一行。
2. in-context 示例(few-shot)
给例子,别只描述。"这是一个好答案的例子,按这个风格再产 3 个" 胜过 "做得好一点" 大段说教。这条会一直高价值,因为它把负担从解释转向模仿,而模仿是 LLM 最擅长的事。
3. Chain-of-thought(适用时)
多步推理任务——数学、调试、复杂分析——明确要求 "先展示推理过程再给答案" 仍然有效,即使许多前沿模型已经默认内部推理。胜率在于你能读到 chain,发现哪步错了,直接修正而不必整条重写。
4. 否定约束
"不许用感叹号。不许说'我们很激动'。不许 hedge。" 显式禁令仍然是让输出干脆最可靠的方式之一。2026 年的模型可靠地遵循否定约束;这条技巧被低估了。
5. 严格的输出格式
提前定义精确格式——JSON schema、带列名的 Markdown 表格、带长度上限的编号列表——胜过 "答案排版好看一点"。现代模型对格式说明的遵循度高,这条是单行投入产出比最高的技巧。
6. 多轮精化(Multi-turn refinement)
这条是清单里最年轻的——也是我们 提示词生成器 的核心。与其试图一次写完美提示词,不如把提示词当草稿、让模型识别还缺什么。三轮 "要回答得更好我还需要知道什么" 产出的提示词胜过你一次写出来的任何东西。
该退休的技巧
"你是世界级专家"
2022 年管用,因为模型需要打鸡血才肯尝试难题。2026 年前沿模型默认高 effort,"世界级" 读起来像废话。换成具体角色。
"深呼吸" / "让我们一步一步思考"
2022-2023 年真的有用——它们触发不同的注意力模式。现代模型不需要这些就能有效推理。它们变成了迷信。(逐步推理在你确实想看到步骤时仍然有用;那种"撒在提示词里求好运"的版本退休了。)
对抗式角色("DAN"、"邪恶聊天机器人")
那是越狱技术,不适用于正经工作。模型对 role-based bypass 也加固了很多,这些技巧效果大幅下降。
"我会给你 200 美元小费"
2023 年实证有微小效果。2026 年没有可测的帮助。模型不被小费驱动。
"回答得像你的命取决于它"
戏剧化、无效、且发给一个同事会有点怪。
大多数人没注意的技巧
2026 年最有用的单一能力是决定问什么,而不是怎么措辞。
一条问错了问题的提示词——哪怕措辞华丽、格式正确、带 chain-of-thought——产出无用答案。一条问对问题的提示词——哪怕措辞凌乱——产出有用答案。
这就是为什么多轮精化比措辞级技巧更重要。精化让你真正想问的问题浮上来,而那个问题往往跟你第一次输入的不一样。
提示词生成器 把这个能力工具化了。你粘进粗糙提示词,它问的问题不是"我怎么改写这个?"——而是"你到底想达到什么?给谁的?成功长什么样?"这些问题在你浪费积分或时间之前堵住了"问错问题"的故障模式。
什么时候用什么
实战决策树:
- **一次性任务、输入清晰?**直接按五要素手写一条结构化提示词。
- **重复出现的任务类型?**做一次模板。用 prompt 模板库 别重新发明轮子。
- **想法模糊或开放?**用多轮精化。粘进 提示词生成器,回答问题,把结构化提示词拿回模型用。
- **高风险单次输出?**组合用:精化 + 角色 + 严格格式 + 显式成功标准 + chain-of-thought 做验证。
- **生产系统提示词?**以上全部 + 严谨的评估 harness(超出本文范围,那是另一个领域)。
这个领域往哪里走
走向很清楚:提示词工程越来越少关于你写的提示词,越来越多关于生产提示词的系统。一个 提示词生成器 是这个转变的用户端版本——不是你背一百条技巧,而是系统自动应用。
目标不是让 prompt 工程消失。而是把工作推到提示词的上游:决定你想要什么、给谁、好长什么样。那部分还得你做。措辞这部分,现在交给软件。