临沂哪里有做网站的,网站开发详细报价,重庆做网站代运营,中国纪检监察报总编大语言模型#xff08;LLMs#xff09;在零样本和少样本学习能力上取得了显著进展#xff0c;这通常通过上下文学习#xff08;in-context learning, ICL#xff09;和提示#xff08;prompting#xff09;来实现。然而#xff0c;零样本性能通常较弱#xff0c;因为缺…大语言模型LLMs在零样本和少样本学习能力上取得了显著进展这通常通过上下文学习in-context learning, ICL和提示prompting来实现。然而零样本性能通常较弱因为缺乏指导和难以应用现有的自动提示设计方法。论文提出了一种名为Universal Self-Adaptive PromptingUSP的自动提示设计方法旨在提升大语言模型LLMs在零样本学习zero-shot learning任务中的表现。USP通过使用少量未标记数据和仅推理的LLM生成伪示例pseudo-demonstrations从而在零样本设置中实现强大的性能提升。 自动提示设计方法是一种用于提高大语言模型LLMs在特定任务上性能的技术。这种方法特别适用于零样本zero-shot和少样本few-shot学习场景其中模型需要在没有或只有很少的标注数据的情况下学习执行任务。自动提示设计通过生成或选择有效的提示prompts帮助模型更好地理解任务并生成适当的输出。 下面是USP方法的关键特点和步骤 任务类型分类USP首先将可能的自然语言处理NLP任务归类为三种类型之一分类CLS、短文生成SFG和长文生成LFG。 CLS (Classification)分类任务涉及从有限的选项中选择正确答案。SFG (Short-form Generation)短文生成任务通常涉及问答或补全任务其中正确答案可能有多个。LFG (Long-form Generation)长文生成任务如摘要生成涉及生成较长的文本。 伪示例生成在零样本设置中USP使用未标记数据和推理-only的LLM生成伪示例。这些伪示例是从模型的输出中选择的旨在模拟真实示例帮助模型更好地学习任务。 自适应选择器USP根据不同的任务类型使用相应的选择器来挑选最合适的查询和模型生成的响应作为伪示例。选择器通过评分函数来量化模型对每个候选伪示例的置信度。 两阶段过程 第一阶段LLM在零样本方式下被提示生成一组候选响应。第二阶段将选定的伪示例作为上下文信息与测试查询拼接然后再次提示LLM以获得最终预测。 评分函数设计USP为每种任务类型设计了不同的评分函数以选择高质量的伪示例。例如 分类任务使用负熵作为评分函数以量化模型对分类标签的置信度。短文生成任务使用归一化熵和多样性指标来评估模型生成的响应的置信度。长文生成任务使用响应之间的平均成对ROUGE分数来衡量置信度。 成本分析USP在计算上是高效的因为它只需要少量的额外LLM查询。
除了USP还有其它一些自动提示设计方法如AutoCoT和Z-ICL它们也使用模型生成的输出作为伪示例但在选择过程和适用性方面存在差异。这些方法通常需要更多的LLM查询并且可能需要对特定任务类型进行特定的设计。
在论文中作者们设计了一系列实验来验证Universal Self-Adaptive Prompting (USP) 方法的有效性。这些实验在以下模型上进行
PaLM-540B一个具有540亿参数的大型语言模型。PaLM-62B一个具有62亿参数的大型语言模型。PaLM 2-MPaLM 2模型的一个变种该模型在多语言和推理任务上具有更强的能力。
实验涉及的任务类型包括
CLS (Classification)、SFG (Short-form Generation)、LFG (Long-form Generation)。
在这些任务上USP与以下几种基线方法进行了比较
标准零样本提示传统零样本学习方法没有使用任何示例。AutoCoT一种自动化的提示设计方法使用聚类来选择伪示例。随机示例随机选择示例的方法作为USP方法的一种简化版本进行比较。标准少样本提示使用少量标注数据进行学习的少样本学习方法。
实验结果表明USP在多个任务上都取得了显著的性能提升。具体来说
USP在生成任务SFG和LFG上的性能提升尤为显著这可能是因为生成任务通常具有更大的行动空间因此更依赖于示例提供的指导。在更大或更先进的模型如PaLM 2-M中USP的性能提升也更为明显这表明模型的规模和训练技术的进步使得它们能够更好地利用高质量的示例进行学习。
此外作者们还测试了USP的少样本变体USPfs这是在只有少量标注数据可用的情况下使用USP的一个变种。在PaLM 2-M模型上USPfs在BBH (BIG-bench Hard) 任务上也展现了良好的性能。BBH任务是一组设计来挑战模型推理和逻辑能力的复杂任务。USPfs通过生成额外的伪示例来增强标注数据从而在这些任务上取得了性能提升。
这些实验结果证明了USP方法在零样本和少样本学习场景下的有效性特别是在处理复杂的NLP任务时USP能够显著提高模型的性能。
论文链接http://arxiv.org/pdf/2305.14926