CFNet: Cascade Fusion Network for Dense Prediction

这篇具有很好参考价值的文章主要介绍了CFNet: Cascade Fusion Network for Dense Prediction。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文名称:CFNet: Cascade Fusion Network for Dense Prediction

论文下载:https://arxiv.org/pdf/2302.06052.pdf

论文代码:GitHub - zhanggang001/CFNet: CFNet: Cascade Fusion Network for Dense Prediction

摘要:

        在密集预测任务中多尺度的特征融合至关重要,当前的主流的密集预测的范式是先通过BackBone提取通用特征,然后通过特征融合模块来融合BackBone中的多尺度特征,最后使用head来输出密集预测结果(检测,分割等)。作者发现BackBone的网络参数量远远大于特征融合模块,基于此发现作者提出了级联融合网络结构(CFNet)来平衡BackBone和融合模块网络的参数占比。最终提出的网络结构在Imagenet,COCO,ADE20K等数据集上取得了领先的结果。

整体网络结构:

CFNet: Cascade Fusion Network for Dense Prediction

         算法的整体网络结构如上图所示。该网络结构主要由三部分组成:Stem,Block和一系列的CFNet Stage网络结构。Stem网络结构比较简单主要是由两个步长为2的卷积层组成,每个卷积层后面跟了LN层和GELU激活函数层。Block网络结构是由N个ResNet残差结构块或者swin transformer结构块组成,主要的作用是提取深层的语义信息,增加感受野,并不会对特征图进行下采样操作。论文中会有M个CFNet Stage网络结构块,每个CFNet Stage网络结构都是一样的,CFNet Stage主要是由两个Block网络结构块,焦点模块和聚合模块组成,CFNet Stage之间只会传输P3特征图进行处理,只有最后的CFNet Stage块才会输出P3,P4,P5三个尺度的特征图给到head网络结构来输出想要的结果(语义分割,目标检测等)。

聚合模块(Transition Block):

CFNet: Cascade Fusion Network for Dense Prediction

         上图为论文中提出的三种聚合模块的网络结构。(a)图为特征相加的融合方法,先将C5和C4上采样到C3大小,随后将C5,C4和C3的特征图像加在一起。(b)图为通道相加的融合方法,先将C5和C4上采样到C3大小,随后将C5,C4和C3的特征图通道加在一起,最后通过一个3*3的卷积层进行降维操作。(c)图则是先将C5和C4进行特征相加操作,得到的结果再与C3进行特征相加操作,输出最终的结果。

CFNet: Cascade Fusion Network for Dense Prediction

        上表是三种聚合方法在Imagenet数据集上的精度对比,(c)方法取得最高的精度,但是参数量也会相应地增加。

焦点模块(Focal Block):

CFNet: Cascade Fusion Network for Dense Prediction

         论文中提出了两种焦点模块,分别是Next block和Swin block,它们分别是ConvNext和Swim Transformer两个基础block块地变体,主要是增加了黄色区域7*7的卷积层,增加大内核卷积的主要作用就是增加网络的感受野,提取丰富的语义信息。同时网络为了减少参数量,将每一个黄色区域7*7的卷积使用深度可分离卷积。

CFNet: Cascade Fusion Network for Dense Prediction

        上表展示了使用焦点模块和不使用焦点模块在Imagenet上精度的对比,可以看出使用焦点模块虽然参数增加,但是模型的精度也有了较高的提升。

 实验结果:

CFNet: Cascade Fusion Network for Dense Prediction

         基于论文中提出的网络结构块,作者在Swim Transformer和ConvNext基础上提出了三个网络结构。T表示的是Tiny,S表示的是Small。上表是论文中提出的三个网络的网络结构。

        下表为三个网络结构在Imagenet上的精度表现,可以看出在参数量相当的情况下论文中提出的网络结构的精度要比其他算法高一些。

CFNet: Cascade Fusion Network for Dense Prediction

 CFNet: Cascade Fusion Network for Dense Prediction

         上表为论文提出的网络结构在COCO数据集目标检测方面的精度对比。

CFNet: Cascade Fusion Network for Dense Prediction

         上表为论文提出的网络结构在ADE20K语义分割上的精度对比。该网络取得了当前语义分割方向先进的分割水平。

总结:

        在本文中作者提出了一种新的结构(CFNet)用于密集预测任务。与现在的FPN及其变体不同,本文提出的CFNet在骨干网中插入特征集成操作,可以利用整个BackBone来有效地融合多尺度特征。文章来源地址https://www.toymoban.com/news/detail-459708.html

到了这里,关于CFNet: Cascade Fusion Network for Dense Prediction的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 【论文笔记3】RFN-Nest: An end-to-end residual fusion network for infrared and visible images

    【论文笔记3】RFN-Nest: An end-to-end residual fusion network for infrared and visible images

    RFN-Nest:红外与可见光图像的端对端残差融合网络 宝子们,今天学习了RFN-Nest这篇文献,和上一篇的DenseFuse同一个作者。下面是我的学习记录,希望对各位宝子们有所帮助~ 设计可学习的融合策略是图像融合领域的一个极具挑战性的问题。前面我们学习的DenseNet就是手工融合策

    2024年03月27日
    浏览(10)
  • 图像融合论文阅读:U2Fusion: A Unified Unsupervised Image Fusion Network

    图像融合论文阅读:U2Fusion: A Unified Unsupervised Image Fusion Network

    @ARTICLE{9151265, author={Xu, Han and Ma, Jiayi and Jiang, Junjun and Guo, Xiaojie and Ling, Haibin}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={U2Fusion: A Unified Unsupervised Image Fusion Network}, year={2022}, volume={44}, number={1}, pages={502-518}, doi={10.1109/TPAMI.2020.3012548}} SCI A1;IF 23.6 论文地址 代码

    2024年01月17日
    浏览(17)
  • 论文笔记:Traffic Flow Prediction via Spatial Temporal Graph Neural Network

    论文笔记:Traffic Flow Prediction via Spatial Temporal Graph Neural Network

    WWW 2020 图神经网络+图注意力——空间依赖关系 RNN+Transformer——短期长期依赖关系 缺点:运用RNN于较长序列仍然会带来误差积累,并且RNN模型的运算效率并不高   

    2024年02月12日
    浏览(12)
  • 【论文阅读】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness

    【论文阅读】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness

    论文链接:SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness | IEEE Journals Magazine | IEEE Xplore 代码: GitHub - Linfeng-Tang/SuperFusion: This is official Pytorch implementation of \\\"SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness\\\" 图像融合的重要性:由于摄影环境

    2024年03月19日
    浏览(9)
  • 图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network

    图像融合论文阅读:IFCNN: A general image fusion framework based on convolutional neural network

    @article{zhang2020ifcnn, title={IFCNN: A general image fusion framework based on convolutional neural network}, author={Zhang, Yu and Liu, Yu and Sun, Peng and Yan, Han and Zhao, Xiaolin and Zhang, Li}, journal={Information Fusion}, volume={54}, pages={99–118}, year={2020}, publisher={Elsevier} } 论文级别:SCI A1 影响因子:18.6 📖 该论文是【

    2024年02月03日
    浏览(14)
  • 轨迹预测Leapfrog Diffusion Model for Stochastic Trajectory Prediction

    轨迹预测Leapfrog Diffusion Model for Stochastic Trajectory Prediction

    CVPR2023 暂时没有上传的开源代码:https://github.com/mediabrain-sjtu/led 解决实时性问题,扩散模型用在扩散生成当中,虽然取得了很好的预测效果,但是由于扩散模型预测阶段耗时高,影响了未来轨迹预测的实时性。因此作者采用蛙跳的方式加速这个过程。 总体架构上面提出了哪些

    2024年02月02日
    浏览(15)
  • Feature Prediction Diffusion Model for Video Anomaly Detection 论文阅读

    Feature Prediction Diffusion Model for Video Anomaly Detection 论文阅读

    文章标题:Feature Prediction Diffusion Model for Video Anomaly Detection 文章信息: 发表于:ICCV 2023 原文链接:https://openaccess.thecvf.com/content/ICCV2023/papers/Yan_Feature_Prediction_Diffusion_Model_for_Video_Anomaly_Detection_ICCV_2023_paper.pdf 源代码:https://github.com/daidaidouer/FPDM 在视频异常检测是一个重要的研

    2024年01月17日
    浏览(18)
  • 图像 检测 - RetinaNet: Focal Loss for Dense Object Detection (arXiv 2018)

    图像 检测 - RetinaNet: Focal Loss for Dense Object Detection (arXiv 2018)

    声明:此翻译仅为个人学习记录 文章信息 标题: RetinaNet: Focal Loss for Dense Object Detection (arXiv 2018) 作者: Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, Piotr Dollár 文章链接:https://arxiv.org/pdf/1708.02002.pdf 文章代码:https://github.com/facebookresearch/Detectron (推荐:亦可参考 图像 处理 - 开

    2024年02月14日
    浏览(10)
  • 【论文阅读笔记】Traj-MAE: Masked Autoencoders for Trajectory Prediction

    通过预测可能的危险,轨迹预测一直是构建可靠的自动驾驶系统的关键任务。一个关键问题是在不发生碰撞的情况下生成一致的轨迹预测。为了克服这一挑战,我们提出了一种有效的用于轨迹预测的掩蔽自编码器(Traj-MAE),它能更好地代表驾驶环境中智能体的复杂行为。 具体

    2024年02月06日
    浏览(10)
  • 论文笔记:Spatial-Temporal Large Language Model for Traffic Prediction

    论文笔记:Spatial-Temporal Large Language Model for Traffic Prediction

    arxiv 2024 时空+大模型

    2024年04月24日
    浏览(15)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包