Prompt

提示工程

指的是根据所需的任务目标,有意识地设计、优化和调整输入语言(即“提示”)的过程,以引导AI模型输出更高质量、符合期望和语境的内容,包含上下文设置、提示设计、提示调优、多模型适配等核心过程。

简介

用例子说明提示工程是什么?

当使用 “The sky is” 作为提示时,模型可能会输出 “blue” 或 “falling”,但如果提示是 “补全英文教材中的句子: The sky is”, 模型更可能输出我们期望的颜色 “blue”。提示工程就是通过设计和优化这些输入提示来引导模型产生更符合预期的输出。

相关资料

模型设置

各常用模型设置如何影响输出质量?

  • Temperature:控制输出的随机性。较低温度(如0.2)会使输出更确定和一致,而诗歌等创意任务可能需要较高温度(如0.8)来增加多样性。
  • Top-p:控制输出的多样性。较低的top-p(如0.1)会限制输出在更小的概率分布内,而较高的top-p(如0.9)允许更多可能性。和温度统称为核采样,调节核采样参数时一般二选一。
  • Max tokens:限制输出的长度。较短的max tokens(如50)适合简短回答,而较长的(如500)适合详细解释。
  • Stop sequences:定义输出的终止条件。可以设置为特定的标点符号或词组,以控制输出的结束位置。
  • Frequency penalty:对重复(下个 token 占已响应内容该 token 出现次数的比例)施加惩罚,以减少产生重复内容。
  • Presence penalty:对重复的词施加惩罚,重复多次的惩罚权重和重复一次的权重相等,以鼓励模型使用更多新词。

提示技巧

常见的提示技巧?

  • 零样本提示:在一些常识性任务中,零样本提示的效果可能要比少样本更好,因为少样本非常依赖样本质量和相关性。
  • 思维链(CoT):通过引导模型逐步推理,提供中间步骤和思考过程,帮助模型更好地理解任务。比如:“请先思考这个问题的关键点,然后给出答案:如果一个人有5个苹果,他吃掉了2个,还剩多少个苹果?”。
  • 自我一致性提示:通过给定多个推理示例,替换 CoT 过程的不确定性。
  • 生成知识:通过提供相关背景信息或上下文,帮助模型更好地理解任务。比如:“在讨论气候变化时,请考虑以下因素:温室气体排放、全球变暖、极端天气事件等。”。
  • 思维树(ToT):结合 BFS 和 DFS 的思维方式,如:“假设三位不同的专家来回答这个问题。所有专家都写下他们思考这个问题的第一个步骤,然后与大家分享。然后,所有专家都写下他们思考的下一个步骤并分享。以此类推,直到所有专家写完他们思考的所有步骤。只要大家发现有专家的步骤出错了,就让这位专家离开。”。
  • 增强检索(RAG):通过检索相关文档或信息,增强模型的知识基础。比如:“请从以下文档中提取相关信息来回答问题:xxx。”。
  • ReACT:使用行动-观察-思考的循环,如:“请按照以下格式解决问题:思考:分析目前情况,进行必要推断。行动:执行一个具体步骤,如推理、查询、计算、判断等。观察:评估行动结果,决定下步策略。反复循环,直到解决问题。”。
  • 元提示:专注于任务与问题的结构与句法,而非其中具体内容细节。

Copyright © 2024 Lionad - CC-BY-NC-CD-4.0