Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读

这篇具有很好参考价值的文章主要介绍了Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation

摘要

域偏移是临床应用中的常见问题,其中训练图像(源域)和测试图像(目标域)处于不同的分布下。已经提出了无监督域适应 (UDA) 技术,以使在源域中训练的模型适应目标域。但是,这些方法需要来自目标域的大量图像进行模型训练。
本文提出了一种新的少样本无监督域适应(FSUDA)方法,其中只有有限数量的未标记目标域样本可用于训练。
首先引入频谱灵敏度图来表征频域中模型的泛化弱点。然后,我们开发了一种灵敏度引导的光谱对抗混搭(SAMix)方法来生成目标风格的图像,以有效抑制模型的灵敏度,从而提高模型在目标域中的泛化性。
代码地址

方法

Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉

Domain-Distance-Modulated Spectral Sensitivity (DoDiSS)模块

基于傅里叶的模型灵敏度测量获得的光谱灵敏度图可以有效地描述该模型的泛化性。然而,频谱敏感度图仅限于单域场景,无法整合目标域信息来评估特定域偏移下的模型弱点
本文引入了 DoDiSS,通过结合域距离来扩展之前的方法,以解决域适应问题的 Spectral Adversarial MixUp。
图 1 (a)首先计算域距离图,用于识别每个频率中源域和目标域之间的幅度分布差异。随后,该差分图用于在计算DoDiSS图时对幅度扰动进行加权。
域距离测量:首先使用各种几何变换的随机组合来增强来自目标域的少量图像,包括随机裁剪、旋转、翻转和 JigSaw。这些转换使图像强度保持不变,从而保留目标域样式信息。然后将快速傅里叶变换(FFT)应用于所有源图像和增强目标域图像,以获得其振幅谱图

通过测量的域差异,可以计算模型的 DoDiSS 映射。如图1(a)所示,傅里叶基被定义为一个厄米特矩阵Hi。傅里叶基像可以通过归一化逆快速傅里叶变换 (IFFT) 得到,为了分析模型相对于频率的泛化弱点,通过添加傅里叶基噪声到原始源域。
保证在实际域偏移后,图像在所有频率分量上受到扰动。对于RGB图像,独立地添加到每个通道中。在源域上训练的模型 F 在频率下的灵敏度定义为整个数据集的预测错误率
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉

Sensitivity-Guided Spectral Adversarial Mixup (SAMix)模块

SAMix 使用 DoDiSS 映射 MS 和对抗学习的参数 λ作为加权因子,将每个源图像的振幅频谱与目标图像的频谱混合在一起。DoDiSS 表示模型对域差异敏感的光谱区域。
通过保留源图像的相位,SAMix在生成的目标样式中保留了原始源图像的语义含义。具体而言,如图1(b)所示,给定源图像xs和目标图像xt,我们计算它们的振幅和相位谱。SAMix 通过以下方式混合振幅频谱
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉

实验结果

Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉
Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读,# 无监督,深度学习,人工智能,论文阅读,计算机视觉文章来源地址https://www.toymoban.com/news/detail-860816.html

到了这里,关于Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • An Empirical Study of GPT-3 for Few-Shot Knowledge-Based VQA

    本文是LLM系列文章,针对《An Empirical Study of GPT-3 for Few-Shot Knowledge-Based VQA》的翻译。 基于知识的视觉问答(VQA)涉及回答需要图像中不存在的外部知识的问题。现有的方法首先从外部资源中检索知识,然后对所选知识、输入图像和问答预测进行推理。然而,这种两步走的方法

    2024年02月09日
    浏览(20)
  • few-shot基本概念

    few-shot基本概念

    Few-shot learning https://www.youtube.com/watch?v=UkQ2FVpDxHglist=PLvOO0btloRnuGl5OJM37a8c6auebn-rH2index=1t=3s 1.问题的引出 通过很少的样本来进行分类/回归 给你四张图像,人类大概可以知道,查询图像是什么。 同样,机器也需要知道。 Support set:很少的数据集,例如每类图像有2张。这么少的样本

    2024年02月06日
    浏览(12)
  • few-shot / one shot / zero shot object counting论文汇总

    few-shot / one shot / zero shot object counting论文汇总

    code: https://paperswithcode.com/paper/class-agnostic-counting 摘要:几乎所有现有的计数方法都是为一个特定的对象类而设计的。然而,我们的工作旨在创建一个能够计数任何类对象的计数模型。为了实现这一目标,我们将计数表述为一个匹配问题,使我们能够利用对象计数问题中自然存

    2024年02月09日
    浏览(13)
  • T5模型:打破Few-shot Learning的次元壁垒

    T5模型:打破Few-shot Learning的次元壁垒

    ❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️ 👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)👈 (封面图由ERNIE-ViLG AI 作画大模型生成) 自然语言处理(NLP)是一种用于理

    2024年03月17日
    浏览(12)
  • 【计算机视觉】Zero-shot, One-shot和Few-shot的理解

    【计算机视觉】Zero-shot, One-shot和Few-shot的理解

    机器学习任务按照对 样本量 的需求可以分为:传统监督式学习、Few-shot Learning、One-shot Learning、Zero-shot Learning。 传统learning,炼丹模式。传统深度学习的学习速度慢,往往需要学习海量数据和反复训练后才能使网络模型具备不错的泛化能力,传统learning可以总结为:海量数据

    2024年02月04日
    浏览(10)
  • 【论文阅读】 Few-shot object detection via Feature Reweighting

    【论文阅读】 Few-shot object detection via Feature Reweighting

    Few-shot object detection的开山之作之一 ~~ 属于Metric-based Methods 特征学习器使用来自具有足够样本的基本类的训练数据来 提取 可推广以检测新对象类的meta features。The reweighting module将新类别中的一些support examples转换为全局向量,该全局向量indicates meta features对于检测相应物体的重

    2023年04月09日
    浏览(11)
  • 【论文阅读】Language Models are Few-Shot Learners(GPT-3)

    【论文阅读】Language Models are Few-Shot Learners(GPT-3)

    本文简要介绍了GPT-3的背景,模型架构,训练数据以及训练方式部分。具体训练细节,实验结果很多,可以在用到的时候再看 本文剖析了pretrain-finetune架构存在的问题: 对于每个新的任务,都需要大量的标注数据 将表达能力更强的模型(预训练阶段要求用大模型)在比较窄的

    2024年02月14日
    浏览(18)
  • 杂记 | Langchain中few-shot提示词模板的使用(给提示词添加示例)

    Langchain是一个集成多个大语言模型的开源框架,可以使用它来快速开发大语言模型应用。 本文的代码使用到的模块: 先来看看普通的提示词模板如何使用,效果如何: 在这个示例中,对大模型的输入为: 大模型的输出为: 可以看到输出并不能很好地满足我们的需求,因为

    2024年02月07日
    浏览(7)
  • (GPT3)Language Models are Few-Shot Learners论文阅读

    (GPT3)Language Models are Few-Shot Learners论文阅读

    论文地址:https://arxiv.org/pdf/2005.14165v4.pdf         最近的工作表明, 通过对大量文本语料库进行预训练,然后对特定任务进行微调,许多 NLP 任务和基准测试取得了实质性进展 。 虽然在体系结构中通常与任务无关,但此方法仍然需要特定于任务的微调数据集,其中包含数

    2024年02月08日
    浏览(10)
  • 论文阅读---Albert :Few-shot Learning with Retrieval Augmented Language Models

    论文阅读---Albert :Few-shot Learning with Retrieval Augmented Language Models

    增强语言模型 Augmented Language Models https://arxiv.org/abs/2208.03299 提前知识: BERT (Bidirectional Encoder Representations from Transformers)是一种预训练语言模型,它通过在大规模文本数据上进行预训练,学习文本的双向表示,并在多种NLP任务中展现出卓越的性能。BERT的双向性意味着它能够

    2024年04月23日
    浏览(10)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包