书库技术与未来Google Prompt Engineering_v7.pdf
书籍封面

Google Prompt Engineering_v7.pdf

作者 Michael Sherman, Yuan Cao, Erick Armbrust, Anant Nawalgaria, Antonio Gulli, Simone Cammel
15.0 分钟

摘要

Prompt Engineering 指南总结

  • 本文深入探讨了 Prompt Engineering,介绍了多种 Prompt 技巧及最佳实践,旨在帮助读者提升 LLM 的输出质量与效率。
  • 你能获得:Prompt Engineering 领域的全面知识,学会如何优化 Prompt 以获得更准确、更具创造性的 LLM 输出,并能解决实际应用中的 Prompt 设计挑战。

核心内容:

1. LLM 输出配置:

  • 输出长度:限制生成 Token 的数量,减少计算成本,但需配合 Prompt 设计。

  • 采样控制:

    • 温度 (Temperature):控制 Token 选择的随机性,低值偏向确定性,高值偏向多样性。
    • Top-K 和 Top-P:限制 Token 选择范围,控制生成文本的创造性和真实性。
  • 详细解释:

    • 输出长度直接影响计算成本和响应速度。
    • 温度影响生成文本的风格,适用于不同类型的任务。
    • Top-K 和 Top-P 是两种常用的 Token 采样方法,可以单独或结合使用。
    • 选择合适的参数组合取决于具体应用和期望结果。
    • 需要警惕“重复循环”问题,通过调整温度和 Top-K/Top-P 值来解决。
  • 行动建议:根据任务类型和需求,尝试不同的参数组合,找到最佳配置。

2. Prompt 技巧:

  • 零样本 Prompt (Zero-Shot):仅描述任务,无示例。
  • 单样本/少样本 Prompt (One-Shot/Few-Shot):提供少量示例,引导模型。
  • 系统、上下文和角色 Prompt (System, Contextual, Role Prompting):
    • 系统 Prompt:定义 LLM 的总体目标和行为。
    • 上下文 Prompt:提供与当前任务相关的具体信息。
    • 角色 Prompt:赋予 LLM 特定角色,影响其输出风格。
  • 逐步回溯 Prompt (Step-Back Prompting):先提问相关的一般问题,再处理具体任务。
  • 思维链 Prompt (Chain of Thought, CoT):引导 LLM 生成中间推理步骤。
  • 自洽性 Prompt (Self-Consistency):多次生成结果,选择最一致的答案。
  • 思维树 Prompt (Tree of Thoughts, ToT):同时探索多个推理路径。
  • ReAct:结合推理和行动,允许 LLM 与外部工具交互。
  • 自动 Prompt 工程 (Automatic Prompt Engineering, APE):自动化生成、评估和优化 Prompt。
  • 详细解释:
    • 零样本 Prompt 适用于简单任务,单样本/少样本 Prompt 适用于需要模仿的任务。
    • 系统、上下文和角色 Prompt 可以组合使用,以更精确地控制 LLM 的行为。
    • 逐步回溯 Prompt 通过激活相关背景知识来提高准确性。
    • 思维链 Prompt 通过分解问题来改善推理能力。
    • 自洽性 Prompt 通过考虑多种视角来提高结果的可靠性。
    • 思维树 Prompt 适用于需要探索的任务。
    • ReAct 允许 LLM 与外部世界互动,解决更复杂的问题。
    • 自动 Prompt 工程可以减少人工成本,提高 Prompt 质量。

3. 代码 Prompt:

  • 编写代码:使用 LLM 生成代码片段。
  • 解释代码:使用 LLM 解释现有代码的功能。
  • 翻译代码:将代码从一种语言翻译成另一种语言。
  • 调试和审查代码:使用 LLM 查找代码中的错误并提出改进建议。
  • 详细解释:
    • 代码 Prompt 可以提高开发效率,降低学习成本。
    • LLM 生成的代码需要人工审查和测试。
    • Vertex AI Studio 提供了测试代码 Prompt 的环境。

4. 最佳实践:

  • 提供示例:使用单样本/少样本 Prompt。
  • 保持简洁:Prompt 应该清晰易懂。
  • 明确输出:详细描述期望的输出格式和内容。
  • 使用指令而非约束:优先使用积极的指令,避免过度限制。
  • 控制最大 Token 长度:防止生成过长或被截断的文本。
  • 在 Prompt 中使用变量:提高 Prompt 的可重用性。
  • 实验不同的输入格式和写作风格:找到最有效的 Prompt 方式。
  • 混淆分类任务中的类别:避免对特定示例顺序的过度拟合。
  • 适应模型更新:关注模型变化,及时调整 Prompt。
  • 尝试不同的输出格式:考虑使用 JSON 或 XML 等结构化格式。
  • JSON 修复:使用工具自动修复不完整的 JSON 输出。
  • 使用 Schema:通过定义输入数据的结构和类型来提高 LLM 的准确性。
  • 与其他 Prompt 工程师合作:集思广益,提高 Prompt 质量。
  • 记录 Prompt 尝试:详细记录每次尝试,以便分析和改进。

问答:

Q: 什么是温度 (Temperature)?它如何影响 LLM 的输出?

A: 温度是控制 LLM Token 选择随机性的参数。较低的温度会使模型生成更确定性的、保守的文本,而较高的温度会使模型生成更多样化、更具创造性的文本。

Q: 什么是思维链 Prompt (Chain of Thought, CoT)?它有什么优点?

A: CoT 是一种通过引导 LLM 生成中间推理步骤来提高其推理能力的 Prompt 技巧。优点包括:低成本、高效果、易于理解,并且可以提高 Prompt 在不同 LLM 版本之间的鲁棒性。

Q: 自动 Prompt 工程 (Automatic Prompt Engineering, APE) 是什么?它如何工作?

A: APE 是一种自动生成、评估和优化 Prompt 的方法。它通过 Prompt 一个 LLM 来生成多个候选 Prompt,然后使用某种指标来评估这些候选 Prompt,并选择最佳 Prompt。

思维导图

目标读者

本文档的目标读者包括对大型语言模型和提示工程感兴趣的开发者、研究人员、数据科学家以及任何希望通过优化提示来提升LLM应用效果的人员。无论您是初学者还是有一定经验的从业者,本文档都能为您提供有价值的指导和参考。

作者背景

该文档由Google的内容贡献者、策展人、编辑、技术作家和设计师共同编写完成,汇集了多位专家在大型语言模型和提示工程领域的知识与经验。

历史背景

随着大型语言模型(LLM)的快速发展,提示工程作为一种新兴领域,旨在通过优化输入提示来提升LLM的输出质量和准确性。本文档撰写于2025年2月,正值LLM技术日益成熟和广泛应用之际,旨在为开发者和研究人员提供关于提示工程的全面指南。

章节摘要

音频

Coming Soon...