Introducing Language Guidance in Prompt-based Continual Learning

这篇具有很好参考价值的文章主要介绍了Introducing Language Guidance in Prompt-based Continual Learning。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文是LLM系列文章,针对《Introducing Language Guidance in Prompt-based Continual Learning》的翻译。

摘要

持续学习旨在学习一系列任务的单一模型,而无需访问以前任务的数据。该领域最大的挑战仍然是灾难性的遗忘:早期任务的可见类的性能损失。一些现有的方法依赖于昂贵的重放缓冲区来存储以前任务的数据块。这虽然很有前景,但当任务数量变大或由于隐私原因无法存储数据时,成本会变得很高。作为替代方案,已经提出了将任务信息存储在可学习提示池中的基于提示的方法。此提示池指示冻结图像编码器如何解决每个任务。虽然在这种设置下,模型在每个任务中都面临一组不相交的类,但我们认为这些类可以被编码到预先训练的语言编码器的相同嵌入空间中。在这项工作中,我们提出了基于提示的持续学习的语言指导(LGCL),作为基于提示的方法的插件。LGCL与模型无关,在提示池的任务级别和视觉编码器的输出特性的类级别引入了语言指导。我们通过大量实验表明,LGCL不断提高基于提示的连续学习方法的性能,从而开创了新的技术水平。LGCL在不需要任何额外的可学习参数的情况下实现了这些性能改进。

1 引言

2 相关工作

3 背景

4 基于提示的持续学习语言指导

5 实验

6 结论

在这项工作中,我们引入了一个新的视角,即在基于提示的持续学习中引入语言指导。我们的方法背后的关键直觉是,即使任务分布在任务之间发生变化,它们的标签空间也可以映射到相同的语言空间。一个能够学会映射到这个空间的模型可以减轻灾难性的遗忘,从而提高性能。我们在两个层面引入语言指导;即任务级别和类级别。在任务级别,我们为提示池引入了语言指导,在提示池中,模型需要为预先训练的视觉转换器的类条件反射选择相关提示。通过改进提示池的密钥查找,我们可以使模型在不同的任务中更加健壮。为此,我们鼓励模型将键映射到其各自的任务级语言表示。其次,我们在视觉转换器的输出特性中引入了类级别的语言指导。在这个阶段,我们激励模型将输出特征映射到类级别的语言表示。在没有任何额外学习参数的情况下,我们的方法提高了基于基线提示的连续学习方法的性能,创造了新的技术水平。文章来源地址https://www.toymoban.com/news/detail-702191.html

到了这里,关于Introducing Language Guidance in Prompt-based Continual Learning的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • Multitask Vision-Language Prompt Tuning

    本文是LLM系列文章,针对《Multitask Vision-Language Prompt Tuning》的翻译。 提示调整以任务特定的学习提示向量为条件,已成为一种数据高效和参数高效的方法,用于将大型预训练视觉语言模型适应多个下游任务。然而,现有的方法通常考虑从头开始独立地为每个任务学习提示向量

    2024年02月10日
    浏览(12)
  • A Survey on Large Language Model based Autonomous Agents

    本文是LLM系列的文章,针对《A Survey on Large Language Model based Autonomous Agents》的翻译。 自动代理一直是学术界的一个突出研究课题。该领域先前的研究通常集中在孤立环境中训练知识有限的智能体,这与人类的学习过程有很大差异,从而使智能体难以实现类似人类的决策。最近

    2024年02月11日
    浏览(8)
  • 论文解读:(UPL)Unsupervised Prompt Learning for Vision-Language Models

    论文解读:(UPL)Unsupervised Prompt Learning for Vision-Language Models

    存在的问题 之前的来自目标数据集的标记数据(有监督学习)可能会限制可伸缩性。 动机 通过无监督提示学习(UPL)方法,以避免提示工程,同时提高类clip视觉语言模型的迁移性能。 主张top-k而不是top-p 注:top-k是指挑选概率最大的k个,top-p是指挑选预测概率大于p的那些数据 看

    2024年04月23日
    浏览(38)
  • A Framework for Accelerating Transformer-Based Language Model on ReRAM-Based Architecture(论文笔记)

    A Framework for Accelerating Transformer-Based Language Model on ReRAM-Based Architecture(论文笔记)

    (发现问题): 在基于RRAM的加速器中,自注意力层在收集输入序列信息的过程中,需要所有输入序列词的前一层结果,由于输入实例在不同的时间步上被串行处理。 因此,自注意层一直保持停滞,直到上一层计算的结束。这就是数据危险,增加了在基于RRAM加速器上处理基于

    2024年03月25日
    浏览(9)
  • Prompt2Model: Generating Deployable Models from Natural Language Instructions

    本文是LLM系列文章,针对《 Prompt2Model: Generating Deployable Models from Natural Language Instructions》的翻译。 大型语言模型(LLM)使今天的系统构建者能够通过提示创建有能力的NLP系统,他们只需要用自然语言描述任务并提供几个例子。然而,在其他方面,LLM是传统的专用NLP模型的倒退

    2024年02月10日
    浏览(13)
  • Essential Steps in Natural Language Processing (NLP)

    Essential Steps in Natural Language Processing (NLP)

    💗💗💗欢迎来到我的博客,你将找到有关如何使用技术解决问题的文章,也会找到某个技术的学习路线。无论你是何种职业,我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章,也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互

    2024年02月08日
    浏览(19)
  • EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS

    本文是LLM系列文章,针对《EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS》的翻译。 在本文中,我们建立了一个名为HalluQA (Chinese Hallucination question - answers)的基准来测量中文大型语言模型中的幻觉现象。HalluQA包含450个精心设计的对抗性问题,跨越多个领域,并考虑到中国的历

    2024年02月07日
    浏览(14)
  • TPTU: Task Planning and Tool Usage of Large Language Model-based AI Agents

    本文是LLM系列文章,针对《TPTU: Task Planning and Tool Usage of Large Language Model-based AI Agents》的翻译。 随着自然语言处理的最新进展,大型语言模型(LLM)已成为各种现实世界应用程序的强大工具。尽管LLM的能力很强,但其内在的生成能力可能不足以处理复杂的任务,而复杂的任务

    2024年02月09日
    浏览(20)
  • Deep Learning for Natural Language Processing in Python

    作者:禅与计算机程序设计艺术 在这篇文章中,我将会介绍一下基于深度学习的自然语言处理(NLP)模型的相关知识、术语及其核心算法原理和具体操作步骤。首先,我将会简要介绍一下什么是NLP、为什么需要NLP、NLP所涉及到的领域等相关背景知识。随后,我会对一些基本概

    2024年02月07日
    浏览(12)
  • Demystifying Prompts in Language Models via Perplexity Estimation

    Demystifying Prompts in Language Models via Perplexity Estimation

    原文链接 Gonen H, Iyer S, Blevins T, et al. Demystifying prompts in language models via perplexity estimation[J]. arXiv preprint arXiv:2212.04037, 2022. 简单来说就是作者通过在不同LLM和不同任务上的实验,发现 低困惑度的prompt更能提升LLM的性能 ,如下图所示,困惑度和acc大致呈一个负相关的趋势。 作者为

    2024年02月13日
    浏览(5)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包