跳到内容

示例排序

提示中少样本示例的顺序会影响大型语言模型(LLM)的输出 1234*。考虑在提示中排列这些示例的顺序以获得更好的结果。

选择您的示例

根据您的用例,这里有一些您可以考虑用来提高示例质量的不同方法。

组合学

最简单的方法之一是手动迭代我们拥有的每个示例,并尝试所有可能的组合。这反过来将使我们能够找到最佳组合。

KATE

KATE (k-近邻示例调优) 是一种旨在通过选择最相关的上下文示例来增强 GPT-3 性能的方法。该方法包括:

对于测试集中的每个示例,根据语义相似性检索 K 个最近邻(示例)。在这 K 个示例中,在不同查询中出现频率最高的示例被选为最佳上下文示例。

使用无监督检索器

Retriever Image

我们可以使用大型语言模型(LLM)为每个示例计算相对于给定提示的单个分数。这使得我们可以创建一个训练集,用于评估示例与提示相比的相关性。利用这个训练集,我们可以训练一个模拟此功能的模型。这使我们能够在用户进行查询时确定排名前 k 的最相关和最不相关的示例,以便将其包含在我们最终的提示中。

参考文献

1: 绝佳的提示顺序及其寻找方法:克服少样本提示顺序敏感性

2: 重新排序示例有助于基于启动的少样本学习

3: 哪些是 GPT-3 的良好上下文示例?

4: 学习检索上下文学习的提示

*: 提示报告:提示技术系统性调查