大数跨境
0
0

Anthropic《提示词工程 101》

Anthropic《提示词工程 101》 NA AI Studio
2025-08-07
0
导读:前言我们认为,熟练使用提示词是高效运用 AI 的关键。Anthropic 出品的提示词工程教程(包括视频和文档),质量都很高。

前言

我们认为,熟练使用提示词是高效运用 AI 的关键。Anthropic 出品的提示词工程教程(包括视频和文档),质量都很高。今后,我们工作室也会继续整理优质的视频资源,分享给大家。

视频版本
音频版本

本文是对 Anthropic 官方教程《Prompting 101》,视频展示了的高阶 Prompt 工程方法的理解。 视频通过一个为瑞典保险公司分析交通事故报告的真实案例,展示了如何将一个初始 Prompt 通过系统性迭代,优化为一个精准、可靠的生产级 Prompt。

案例背景

任务目标: 自动化分析保险理赔材料,判断事故责任。输入材料:

1.事故报告表 (Form): 一份包含 17 个复选框的标准化表格图像。2.事故草图 (Sketch): 一份手绘的事故发生过程示意图。

挑战: 材料为瑞典语,且包含结构化数据(表格)和非结构化视觉信息(草图)。



一、 起点:简单 Prompt 的局限性

视频首先展示了一个基础尝试,即直接向模型提供两张图片,并附上一个简单的指令:

"请审查这份事故报告,并判断谁是过错方。"

结果: 模型将场景误判为“滑雪事故”。结论: 这个结果直接暴露了缺乏明确上下文的风险。模型在信息不足时会进行猜测,导致事实性错误。这证明了提供显式、结构化的指令是 Prompt 工程的必要前提。


二、 核心框架:Anthropic 推荐的 Prompt 结构

为确保模型能够稳定、准确地执行任务,Anthropic 推荐采用一种分层、结构化的 Prompt 范式。一个完整的 Prompt 应按顺序包含以下模块:

1.角色与任务描述 (Role & Task): 为模型设定身份和总体目标。2.上下文/数据 (Context/Data): 提供完成任务所需的动态内容,例如本案例中的用户图片。对于固定不变的背景知识,应使用 系统提示 (System Prompt)3.详细指令 (Detailed Instructions): 提供清晰的、分步骤的思考和操作指南。4.示例 (Examples / Few-shot): (可选)提供一或多个“输入-理想输出”的范例,用于处理复杂或模糊的边界情况。5.输出格式要求 (Output Format): 明确指定输出的结构,如 JSON 或 XML。6.关键点提醒 (Reminder): 在 Prompt 的最后,重申最关键的约束条件。


三、 实践路径:Prompt 的分步构建与优化

视频通过 V1 到 V5 的版本迭代,展示了如何应用上述框架逐步完善 Prompt。

第 1 步:设定任务上下文与基调 (V2)

目标: 解决场景误判问题,并建立行为准则。具体操作:

明确任务: 在 Prompt 中加入说明:“你是一个 AI 系统,旨在协助理赔员处理瑞典语的汽车事故报告。”定义语调: 要求模型必须保持事实性,并且“如果你不完全自信,就不要做出评估”。

结果: 模型成功将场景识别为车祸,并因信息不足而遵循指令,未给出明确的责任判断。这是一个正确的行为,证明了指令的有效性。

第 2 步:注入领域知识 (V3 - 使用 System Prompt)

目标: 让模型理解标准化的事故报告表,无需每次都从零开始解析。具体操作:

利用 系统提示 (System Prompt) 植入关于表格的静态知识。这是一个存放不随单次请求而改变的背景信息的理想位置,也有利于利用缓存(Prompt Caching)提升性能。知识内容:

表格的官方名称、结构(车辆 A/B 两列)。对 17 个复选框每一项的具体含义进行文字说明。关于用户填写习惯的提示(标记可能是潦草的 X、圆圈等)。

结构化工具: 使用 XML 标签 (如 <form_details>...</form_details>) 将这部分知识清晰地组织起来,便于模型理解和引用。


结果: 模型凭借这份“说明书”,能够准确地从表格图像中提取信息,并结合草图,首次自信地给出了正确的责任判断(车辆 B 全责)。

第 3 步:引导推理顺序 (V4)

目标: 确保模型的分析逻辑符合最佳实践(先易后难,先结构化后非结构化)。具体操作:

在 Prompt 中加入一个清晰的、分步骤的任务清单

1.第一步:仔细检查表格。通读表格,列出所有被勾选的项目。2.第二步:分析草图。在已获取表格信息的基础上,解读手绘草图。3.第三步:综合评估。结合两方面信息,做出最终结论。


结果: 模型的输出体现了这种受控的“思维链”(Chain of Thought)。它先列出表格分析,再进行草图分析,最后给出结论,整个过程透明且富有逻辑,可靠性显著增强。

第 4 步:规范化输出格式 (V5)

目标: 使模型的输出结果能够被下游的自动化系统直接解析和使用。具体操作:

在 Prompt 的最后加入明确的格式指令:“请将你的最终裁决用 <final_verdict> XML 标签包裹起来。”

结果: 模型的关键结论被封装在指定的标签内,实现了与程序之间的高效对接。


<final_verdict>  基于对表格和草图的综合分析,车辆B应承担事故责任。</final_verdict>

四、 其他关键技术点补充

视频中还提到了几种在实际应用中非常有价值的高阶技巧:

少样本示例 (Few-Shot Examples): 在系统提示中提供几个完整的“输入(含图像)-理想分析输出”的例子。这对于处理特别棘手或模糊的边界案例非常有效,能强力“校准”模型的判断标准。预填充响应 (Pre-filled Response): 在 API 调用时,可以通过在助手的回答区域预先填入部分内容(如一个左花括号{),来强制模型以特定格式(如 JSON)开始生成,确保输出的结构化。扩展思考 (Extended Thinking / Scratchpad): Claude 模型拥有一个内部“思考”区。通过特定设置启用它,可以观察到模型在生成最终答案前的详细推理过程(即 Scratchpad)。分析这个过程是调试和优化复杂 Prompt 的强大工具,可以洞察模型的“思路”,从而针对性地改进指令。

总结

Anthropic 的《Prompting 101》教程通过一个具体案例,系统性地展示了构建高效、可靠 Prompt 的核心原则:

1.结构化优于模糊化: 采用分层、清晰的结构来组织 Prompt。2.指令必须明确: 清晰定义模型的角色、任务、上下文、步骤和输出格式。3.善用 System Prompt: 将静态背景知识放入系统提示,以提升效率和准确性。4.引导思维过程: 指导模型按逻辑顺序进行分析,使其决策过程更透明、更可靠。5.迭代与测试: 将 Prompt 工程视为一个持续优化的过程,通过分析输出(尤其是失败案例)来不断改进。

EOF


【声明】内容源于网络
0
0
NA AI Studio
我们是您的人工智能前沿观察站。在这里,我们致力于分享最新、最深度的AI技术解读、产业洞见与应用实例。无论您是技术开发者、产品经理,还是对AI充满好奇的探索者,NA AI Studio都将为您提供最有价值的参考。
内容 113
粉丝 0
NA AI Studio 我们是您的人工智能前沿观察站。在这里,我们致力于分享最新、最深度的AI技术解读、产业洞见与应用实例。无论您是技术开发者、产品经理,还是对AI充满好奇的探索者,NA AI Studio都将为您提供最有价值的参考。
总阅读45
粉丝0
内容113