图像检索,目标检测map的实现

这篇具有很好参考价值的文章主要介绍了图像检索,目标检测map的实现。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、图像检索指标Rank1,map

参考:https://blog.csdn.net/weixin_41427758/article/details/81188164?spm=1001.2014.3001.5506

1.Rank1:

rank-k:算法返回的排序列表中,前k位为存在检索目标则称为rank-k命中。

常用的为rank1:首位为检索目标则rank-1命中。

2.map

mAP(mean average precision):反应检索的人在数据库中所有正确的图片排在排序列表前面的程度,能更加全面的衡量ReID算法的性能。如下图,该检索行人在gallery中有4张图片,在检索的list中位置分别为1、2、5、7,则ap为(1 / 1 + 2 / 2 + 3 / 5 + 4 / 7) / 4 =0.793;ap较大时,该行人的检索结果都相对靠前,对所有query的ap取平均值得到mAP
图像检索,目标检测map的实现,目标检测,目标检测,人工智能,计算机视觉

 图像检索,目标检测map的实现,目标检测,目标检测,人工智能,计算机视觉

二、目标检测map

参考:目标检测mAP计算以及coco评价标准_哔哩哔哩_bilibili

目标检测中map的计算_map计算公式_RooKiChen的博客-CSDN博客 

预测框先经过nms处理,然后计算TP,FP,FN。常见的map0.5,其中0.5是iou的阈值,与置信度无关。预测框与真实框的iou大于阈值为TP,小于阈值为FP。

  • TP: IoU>thread的检测框数量(同一Ground Truth只计算一次)
  • FP: IoU<=thread的检测框,或者是检测到同一个GT的多余检测框的数量
  • FN: 没有检测到的GT的数量

对于要预测的样本,比如说有7个真实框需要预测,预测框 预测框与真实框的iou大于阈值记为True,小于阈值记为Fasle,将他们按照类别置信度排序,如下图,然后选不同大小的类别置信度作为分界线

1.类别置信度选0.98,如图,此时TP = 1,FP=0,FN=7-1=6

2.类别置信度选0.89,此时TP=2,FP=0,FN=7-2=5

........

分别得到若干个precision,recall,绘制PR曲线

图像检索,目标检测map的实现,目标检测,目标检测,人工智能,计算机视觉 

 对于同一Recall,不同的Precision,选最大的Precision,如下图图像检索,目标检测map的实现,目标检测,目标检测,人工智能,计算机视觉

 文章来源地址https://www.toymoban.com/news/detail-666032.html

到了这里,关于图像检索,目标检测map的实现的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 人工智能TensorFlow PyTorch物体分类和目标检测合集【持续更新】

    人工智能TensorFlow PyTorch物体分类和目标检测合集【持续更新】

    1. 基于TensorFlow2.3.0的花卉识别 基于TensorFlow2.3.0的花卉识别Android APP设计_基于安卓的花卉识别_lilihewo的博客-CSDN博客 2. 基于TensorFlow2.3.0的垃圾分类 基于TensorFlow2.3.0的垃圾分类Android APP设计_def model_load(img_shape=(224, 224, 3)_lilihewo的博客-CSDN博客   3. 基于TensorFlow2.3.0的果蔬识别系统的

    2024年02月09日
    浏览(48)
  • AI一叶知秋:从目标检测部署浅谈人工智能发展

    笔者写这篇文章也有讨巧之嫌,仅以个人视角分享一些看法,主要从实践部署来谈谈近两年来计算机视觉模型的变化,不过AI是一个宏大的话题,每个人定义的人工智能就不一样,我们先来探讨一下何为人工智能。百度百科中是这样定义的: 人工智能是研究、开发用于模拟、

    2024年02月02日
    浏览(10)
  • 人工智能学习与实训笔记(三):神经网络之目标检测问题

    人工智能学习与实训笔记(三):神经网络之目标检测问题

    人工智能专栏文章汇总:人工智能学习专栏文章汇总-CSDN博客 目录 三、目标检测问题 3.1 目标检测基础概念 3.1.1 边界框(bounding box) 3.1.2 锚框(Anchor box) 3.1.3 交并比 3.2 单阶段目标检测模型YOLOv3 3.2.1 YOLOv3模型设计思想 3.2.2 YOLOv3模型训练过程 3.2.3 如何建立输出特征图与预

    2024年02月20日
    浏览(43)
  • 人工智能学习07--pytorch15(前接pytorch10)--目标检测:FPN结构详解

    人工智能学习07--pytorch15(前接pytorch10)--目标检测:FPN结构详解

    backbone:骨干网络,例如cnn的一系列。(特征提取) (a)特征图像金字塔 检测不同尺寸目标。 首先将图片缩放到不同尺度,针对每个尺度图片都一次通过算法进行预测。 但是这样一来,生成多少个尺度就要预测多少次,训练效率很低。 (b)单一特征图 faster rcnn所采用的一种方式

    2023年04月12日
    浏览(115)
  • 基于人工智能与边缘计算Aidlux的鸟类检测驱赶系统(可修改为coco 80类目标检测)

    基于人工智能与边缘计算Aidlux的鸟类检测驱赶系统(可修改为coco 80类目标检测)

    ●项目名称 基于人工智能与边缘计算Aidlux的鸟类检测驱赶系统(可修改为coco 80类目标检测) ●项目简介 本项目在Aidlux上部署鸟类检测驱赶系统,通过视觉技术检测到有鸟类时,会进行提示。并可在源码上修改coco 80类目标检测索引直接检测其他79类目标,可以直接修改、快速

    2024年02月12日
    浏览(12)
  • 毕业设计:基于机器学习的课堂学生表情识别系统 人工智能 python 目标检测

    毕业设计:基于机器学习的课堂学生表情识别系统 人工智能 python 目标检测

    目录 前言 项目背景 数据集 设计思路 更多帮助     📅大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临的就业升学做准备,一边要为毕业设计耗费大量精力。近几年各个学校要求的毕设项目越来越难,有不少课题是研究生级别难度的,对本科同学来说是充

    2024年04月16日
    浏览(230)
  • 人工智能学习07--pytorch20--目标检测:COCO数据集介绍+pycocotools简单使用

    人工智能学习07--pytorch20--目标检测:COCO数据集介绍+pycocotools简单使用

    如:天空 coco包含pascal voc 的所有类别,并且对每个类别的标注目标个数也比pascal voc的多。 一般使用coco数据集预训练好的权重来迁移学习。 如果仅仅针对目标检测object80类而言,有些图片并没有标注信息,或者有错误标注信息。所以在实际的训练过程中,需要对这些数据进行

    2024年02月12日
    浏览(48)
  • 毕业设计选题- 基于深度学习的海洋生物目标检测系统 YOLO 人工智能

    毕业设计选题- 基于深度学习的海洋生物目标检测系统 YOLO 人工智能

    目录 前言 课题背景和意义 实现技术思路 一、基于深度学习的海洋生物目标检测研究主题 二、水下图像处理算法的研究 2.1Retinex算法 2.2直方图均衡化算法 2.3暗通道去雾算法 三、基于深度学习的目标检测算法 海洋生物目标检测实现效果 最后        📅大四是整个大学期间最

    2024年02月01日
    浏览(314)
  • 人工智能学习07--pytorch21--目标检测:YOLO系列理论合集(YOLOv1~v3)

    人工智能学习07--pytorch21--目标检测:YOLO系列理论合集(YOLOv1~v3)

    如果直接看yolov3论文的话,会发现有好多知识点没见过,所以跟着视频从头学一下。 学习up主霹雳吧啦Wz大佬的学习方法: 想学某个网络的代码时: 到网上搜这个网络的讲解 → 对这个网络大概有了印象 → 读论文原文 ( 很多细节都要依照原论文来实现, 自己看原论文十分

    2024年02月10日
    浏览(44)
  • 人工智能学习07--pytorch23--目标检测:Deformable-DETR训练自己的数据集

    人工智能学习07--pytorch23--目标检测:Deformable-DETR训练自己的数据集

    1、pytorch conda create -n deformable_detr python=3.9 pip 2、激活环境 conda activate deformable_detr 3、torch 4、其他的库 pip install -r requirements.txt 5、编译CUDA cd ./models/ops sh ./make.sh #unit test (should see all checking is True) python test.py (我没运行这一步) 主要是MultiScaleDeformableAttention包,如果中途换了

    2024年02月14日
    浏览(352)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包