本文基于 Anthropic 官方视频 “AI Prompt Engineering: A Deep Dive” 整理,四位来自 Anthropic 的专家——Alex Albert(开发者关系)、David Hershey(应用AI)、Amanda Askell(对齐微调)和 Zach Witten(提示工程师)共同参与了这场深度对话。


一、什么是提示工程?

你可能听说过"跟 AI 聊天就行了",但现实远没有那么简单。提示工程,说白了就是——你怎么跟 AI 说话,才能让它真正理解你想要什么,并给你满意的回答

打个比方:AI 就像一个知识渊博但刚入职的实习生。它什么都知道,但完全不了解你的具体需求。你得把任务说清楚、说完整,它才能干好活。

编写提示词

生成回答

不满意?

再次输入

满意!

你的需求

AI 模型

输出结果

优化提示词

完成任务

Anthropic 的专家们强调了一个关键观点:提示词本质上就是代码。它需要像代码一样被版本管理、反复测试和系统性优化。


二、优秀的提示工程师长什么样?

专家们总结了几个核心能力:

优秀提示工程师

清晰表达

准确描述任务

去除模糊歧义

持续迭代

不怕失败

快速试错

关注边缘情况

空输入怎么办

格式错误怎么办

用户乱写怎么办

认真阅读输出

不要想当然

验证推理过程

去除隐含假设

假设对方完全不了解背景

提供完整上下文

其中最重要的一点是:不要假设 AI 已经知道你心里想的。很多人写提示词时,会不自觉地省略自己觉得"很明显"的信息,但 AI 并不具备你的背景知识。

Amanda 提出了一个非常实用的思维实验:想象你在给一个"聪明但对你项目一无所知的临时工"下达指令。你会怎么说?那就怎么写提示词。


三、实用的提示优化技巧

这是整个视频最干货的部分。以下是四位专家分享的核心技巧:

1. 让 AI 先分析你的指令

不要直接让 AI 执行任务,而是先让它找出你指令中不清晰的地方:

请先分析以下指令中可能存在歧义或不清晰的部分,
列出你不确定的地方,然后再执行任务:
[你的指令内容]

2. 出错时,问 AI 为什么错了

模型犯错后,与其自己猜原因,不如直接问它:

你刚才的回答有误。请分析一下为什么你会产生这个错误,
并告诉我如何修改指令才能避免这个问题。

3. 给不确定的情况留个"出口"

告诉 AI:遇到不确定的情况,允许说"我不确定",而不是硬编一个答案:

如果你对某个信息不确定,请标注 [unsure] 而不是猜测。

4. 善用 AI 的自学能力

Amanda 分享了一个技巧:与其自己费劲描述一个复杂概念,不如直接把相关资料丢给 AI,让它自己学习后再执行任务。


四、关于角色扮演和隐喻

“你是一个资深的 XX 专家……”——很多人喜欢在提示词开头加这样的角色设定。专家们的看法是:

最佳实践

对 AI 保持诚实

告诉它真实的任务背景

比虚构角色效果更好

当前强模型

直接描述需求更好

具体情境 > 角色标签

早期模型

角色扮演有效

弥补模型能力不足

核心结论:随着模型越来越强,与其给它一个"角色",不如直接告诉它具体的任务场景和你的真实需求。诚实地对待 AI,效果往往更好。


五、示例(Few-shot)的使用策略

什么时候该给 AI 举例子?给多少例子?这取决于你的场景:

场景 示例策略 原因
研究/探索型任务 少给或不给示例 避免 AI 被示例"框住",限制其创造力
企业/生产环境 给大量示例 确保输出格式统一、结果可靠
复杂任务说明 给"说明性"示例 用简单的例子说明任务逻辑,而非提供答案模板

一个聪明的做法:用与实际数据完全不同的示例来说明任务。比如你要做新闻摘要提取,可以用儿童故事做示例。这样 AI 学到的是"怎么做",而不是"照着抄"。


六、思维链:让 AI “展示解题过程”

准确率较低

准确率更高

直接回答

简短输出

思维链推理

详细推理 + 最终答案

“思维链”(Chain of Thought)就是让 AI 一步一步地把推理过程写出来。这不是花哨的技巧,而是被验证有效的方法。结构化的推理比单纯让输出变长更有价值。

一个简单的用法:在提示词末尾加上"请一步步思考"(think step by step),但更重要的是——你要真的去读它的推理过程,而不是只看最终答案。很多时候,答案对了但推理是错的,这意味着下次换个输入可能就会翻车。


七、企业级 vs 研究型 vs 日常聊天

不同场景下,提示工程的策略完全不同:

提示工程场景

企业生产环境

学术研究

日常聊天

追求稳定可靠

大量示例约束格式

需要处理各种异常

追求创新发现

少示例,多自由度

允许模型探索

自然对话即可

多轮交互逐步澄清

不需要过度工程化


八、提示工程的未来

这是视频最后也是最引人深思的部分。四位专家达成了一个共识:

好的提示技巧最终会被模型"吸收"。

比如"思维链"曾经是一个需要人为触发的技巧,而现在的模型已经能自动进行多步推理了。这意味着提示工程不会消失,但它会不断进化

早期 需要各种"魔法咒语" 角色扮演很重要 格式很敏感 当前 直接清晰地表达需求 提供充足的上下文 像写代码一样管理提示词 未来 AI 主动提问澄清需求 从"给实习生下指令"变为"和专家顾问对话" 模型自动优化交互 提示工程的进化之路

未来的交互模式会从"你告诉 AI 怎么做"转变为"AI 主动问你想要什么"——就像从给实习生布置任务,变成和一个资深顾问合作。


九、给初学者的行动建议

最后,综合四位专家的建议,如果你想提升自己的提示工程水平:

  1. 多读好的提示词:去看 Anthropic、OpenAI 等官方文档中的示例
  2. 让别人审查你的提示词:找一个不了解你任务背景的人来读,看他能否理解
  3. 大胆尝试"不可能的任务":试着用 AI 完成一些看似做不到的事,即使失败也能加深理解
  4. 像哲学家一样写作:把复杂概念清晰地传达给"聪明但不了解主题的人"——这就是提示工程的核心能力
  5. 持续迭代,永不止步:没有一次性完美的提示词,最好的提示词都是改出来的

记住:提示工程的本质不是"找到魔法咒语",而是学会清晰、完整、有结构地和 AI 沟通。这项能力,将在 AI 时代成为每个人的必备技能。

Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐