大家好,这里是【来一块葱花饼】,这次带来了目标跟踪的论文分享,与你分享~

之前做了一段时间的目标跟踪算法(以单目标跟踪SOT为主)的研究,学习了四十多篇顶会论文。所以,我新成立了专栏目标跟踪(SOT)|顶会论文|学习笔记,论文笔记与大家分享,方便大家快速了解目标跟踪的进展,掌握不同算法思想。欢迎大家讨论,在评论区写出自己的想法~

本文是CVPR-12篇的目标跟踪论文笔记,与大家分享。具体论文分析笔记,见专栏中的其他文章,欢迎关注。

具体论文分析笔记,见专栏中的其他文章,欢迎大家关注,链接如下: 目标跟踪|近三年|45篇顶会论文整理 目标跟踪|七大数据集|整理 目标跟踪|论文笔记分享|ICCV-6篇 目标跟踪|论文笔记分享|ICCV-2篇 目标跟踪|论文笔记分享|ECCV-6篇 目标跟踪|论文笔记分享|CVPR-12篇 目标跟踪|论文笔记分享|CVPR-10篇(1) 目标跟踪|论文笔记分享|CVPR-10篇(2)

文章目录

一.论文题目二.主要思想三.具体文章Unsupervised Deep Representation Learning for Real-Time TrackingTarget-Aware Deep TrackingVisual Tracking via Adaptive Spatially-Regularized Correlation FiltersSPM-Tracker: Series-Parallel Matching for Real-Time Visual Object TrackingSiamRPN++: Evolution of Siamese Visual Tracking with Very Deep NetworksSiamese Cascaded Region Proposal Networks for Real-Time Visual TrackingROI Pooled Correlation Filters for Visual TrackingObject Tracking by Reconstruction with View-Specific Discriminative Correlation FiltersGraph Convolutional TrackingDeeper and Wider Siamese Networks for Real-Time Visual TrackingATOM: Accurate Tracking by Overlap Maximization

一.论文题目

论文题目Unsupervised Deep Representation Learning for Real-Time TrackingTracking by Animation: Unsupervised Learning of Multi-Object Attentive TrackersObject Tracking by Reconstruction With View-Specific Discriminative Correlation FiltersTarget-Aware Deep TrackingSPM-Tracker: Series-Parallel Matching for Real-Time Visual Object TrackingSiamRPN++: Evolution of Siamese Visual Tracking With Very Deep NetworksDeeper and Wider Siamese Networks for Real-Time Visual TrackingGraph Convolutional TrackingATOM: Accurate Tracking by Overlap MaximizationVisual Tracking via Adaptive Spatially-Regularized Correlation FiltersROI Pooled Correlation Filters for Visual TrackingSiamese Cascaded Region Proposal Networks for Real-Time Visual Tracking

二.主要思想

主要想法:无监督的跟踪方法;优化特征提取的方法;优化滤波器的方法;先粗匹配增强鲁棒性,再精匹配增强识别能力;对siameseRPN网络的改进、使用resnet网络;先使用siamese网络,然后使用级联的rpn网络;改进滤波器算法;图卷积算法;改进残差模块

三.具体文章

Unsupervised Deep Representation Learning for Real-Time Tracking

用于实时跟踪的无监督深度表示学习

本文是一种无监督的跟踪方法。

思想很好,值得学习:

1.测量前进和后退轨迹之间的一致性,以从头学习一个鲁棒跟踪器仅仅使用未标记视频;

2.在一个siamese相关过滤网络上建立了框架,提出了一种多帧验证方案,以扩大跟踪器丢失目标时的轨迹不一致性

3.提出了代价敏感损失和熵选择指标,以减少训练过程中easy样本的贡献

我们的无监督学习的动机是鲁棒跟踪器在双向跟踪中应该是有效的。具体来说,跟踪器能够在连续帧中转发定位目标对象,并回溯到其在第一帧中的初始位置。基于这样的动机,在训练过程中,我们测量前进和后退轨迹之间的一致性,以从头学习一个鲁棒跟踪器仅仅使用未标记视频。

Target-Aware Deep Tracking

目标感知,深度跟踪

本文提出一种应对任意跟踪对象形式变化的方法,使用目标感知特征优化跟踪效果。

是一种优化特征提取的方法!值得学习!

现有的深度跟踪器主要使用预训练的卷积神经网络对一般目标识别任务进行表示。尽管在许多视觉任务中都取得了成功,但使用预先训练的深度特征进行视觉跟踪的作用不如物体识别的作用那么显著。关键问题是在视觉跟踪中感兴趣的目标可以是具有任意形式的任意对象类。因此,预先训练的深度特征在建模这些任意形式的目标时效果较差,无法将它们与背景区分开来。

我们提出学习目标感知深度特征用于视觉跟踪。我们开发了一个回归损失和一个排名损失,以选择最有效的卷积滤波器产生目标感知特征。我们缩小用于视觉跟踪的预先训练的深度模型与任意形式的目标对象之间的间隙。

我们将目标感知特征与Siamese匹配网络相结合进行视觉跟踪。目标软件的特征与减少的特征数量可以加速暹罗跟踪器。

Visual Tracking via Adaptive Spatially-Regularized Correlation Filters

基于自适应空间正则化相关滤波器的视觉跟踪

本文是一种优化滤波器的方法,现在很少用这些思想了。

在这项工作中,我们提出了一种新的自适应空间正则化相关滤波器(ASRCF)模型,以同时优化滤波器系数和空间正则化权值。

首先,该自适应空间正则化方法可以学习到针对特定目标及其外观变化的有效空间权值,从而在跟踪过程中获得更可靠的滤波系数。

其次,基于乘子的交替方向法,每个子问题都有封闭解,可以有效地优化ASRCF模型。

第三,我们的跟踪器分别使用两种CF模型来估计位置和尺度。位置CF模型利用浅层和深层特征的综合来精确地确定最佳位置。尺度CF模型适用于多尺度浅特征,能有效地估计最优尺度。

SPM-Tracker: Series-Parallel Matching for Real-Time Visual Object Tracking

SPM-Tracker:用于实时视觉目标跟踪的串行-并行匹配

本文是一种两阶段的跟踪方法,这里的两阶段指先粗匹配增强鲁棒性,再精匹配增强识别能力

将二者结合起来就行。

本方法也可以学习!

视觉目标跟踪面临的最大挑战是对鲁棒性和识别能力的同时要求。

在本文中,我们提出了一个基于siamfc的跟踪器,命名为SPM-Tracker,以解决这一挑战。

基本思路是在两个不同的匹配阶段解决这两个需求。通过广义训练增强粗匹配阶段的鲁棒性,通过远程学习网络增强精匹配阶段的识别能力。这两个阶段串联起来,因为FM阶段的输入建议由CM阶段产生。当匹配分数和细分框位置被融合以生成最终结果时,它们也被并行连接起来。

SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks

siamrpn++: 基于深度网络的暹罗视觉跟踪研究

本文是对siameseRPN网络的改进。

证明了在使用深度网络时,精度的降低来自于严格的平移不变性的破坏

提出了一种简单而有效的采样策略来打破空间不变性限制,成功地训练了由ResNet架构驱动的暹罗跟踪器。

提出了一种分层特征聚合结构,用于互相关操作,这有助于跟踪器从多层学习的特征预测相似图。

提出了一种深度可分的相关结构,以增强相互关系,产生多个与不同语义关联的相似图。

该网络结构总体上来说,是使用了resnet提取特征,以及使用多层特征预测,该想法可以作为一种通用思想改进很多方法

我们提出的框架的说明。在给定目标模板和搜索区域的前提下,该网络将多个Siamese region Proposal (SiamRPN)块的结果进行融合,输出密集的预测结果。右边显示了每个SiamRPN块。

Siamese Cascaded Region Proposal Networks for Real-Time Visual Tracking

用于实时视觉跟踪的暹罗级联区域提议网络

算是对siameseRPN的一种改进吧

先使用siamese网络,然后使用级联的rpn网络

虽然说指标有所以提升,但是网络更大了、计算量也更大了。。。。

ROI Pooled Correlation Filters for Visual Tracking

用于视觉跟踪的ROI混合相关滤波器

本文将ROI池化操作,引入相关滤波器。

基于ROI的池化方法,对不同样本裁剪的ROI进行池化操作,在目标检测方法中取得了巨大的成功。它在保持定位精度的同时压缩了模型的尺寸,因此在视觉跟踪领域具有一定的应用价值。虽然基于roi的池化操作是有效的,但是在相关滤波公式中还没有考虑。

本文提出了一种用于鲁棒视觉跟踪的感兴趣区域池相关滤波(RPCF)算法。通过数学推导,我们证明了基于roi的池化可以等效地通过对学习滤波器权值施加额外的约束来实现,这使得基于roi的池化在虚拟循环样本上是可行的。

Object Tracking by Reconstruction with View-Specific Discriminative Correlation Filters

基于特定视图鉴别相关滤波器的重构目标跟踪

本文是一种对3D目标跟踪的算法改进,处理目标外观变化、平面外旋转带来的挑战

标准RGB-D跟踪器将目标视为一个2D结构,这使得建模受到目标外观变化、平面外旋转的挑战。这一限制被提出的长期RGB-D跟踪器称为OTR -对象重构跟踪。

OTR在线执行三维目标重建,以促进对一组视图特定的鉴别相关滤波器(DCFs)的鲁棒学习。3 d重建支持两种performanceenhancing特点:(i)生成一个精确的空间支持限制DCF学习从它的二维投影,(2)基于点云的评估3 d构成变化的选择和存储视图相关的贴现后强劲定位目标的视野之外,旋转或遮挡。对普林斯顿RGB-D跟踪和STC基准的广泛评估表明,OTR的表现远远超过了最先进的技术。

Graph Convolutional Tracking

图卷积跟踪

本文使用图卷积算法,进行目标跟踪。

时空信息可以提供多样化的特征来增强目标的表示,而背景信息对于目标定位的在线适应非常重要。

为了全面利用历史目标样本的时空结构并从上下文信息中获益,本文提出了一种新的用于高性能视觉跟踪的图卷积跟踪(GCT)方法。具体来说,GCT联合将两种类型的图卷积网络(GCNs)合并到一个用于目标外观建模的暹罗框架中。

确实,时空特征信息很重要,在图像处理中、尤其是目标跟踪课题中要给被重视

Deeper and Wider Siamese Networks for Real-Time Visual Tracking

用于实时视觉跟踪的更深更广的siamese网络

本文提出新的残差模块(不同于resnet),以实现更深更广的目标跟踪网络

该改进的残差模块,可以用到别的算法和场景下,是一个很好的想法!

在本文中,我们研究了如何利用更深和更广的卷积神经网络来增强跟踪的鲁棒性和准确性。

我们观察到,直接用现有的强大架构(如ResNet[14]和Inception[33])替换主干并没有带来改进。主要原因是:1)神经元感受场的**大幅增加导致特征可识别性和定位精度降低;**2)卷积的网络填充会导致学习中的位置偏差。

为了解决这些问题,我们提出了新的残差模块来消除填充的负面影响,并进一步利用这些模块设计新的体系结构,控制接收域大小和网络跨距。

ATOM: Accurate Tracking by Overlap Maximization

ATOM:通过重叠最大化精确跟踪

感觉本文很水啊,就是把目标跟踪分为定位和分类两个问题而已

本文通过提出一种新的跟踪体系结构来解决这个问题,该体系结构由专用的目标估计和分类组件组成。

通过广泛的离线学习,将高水平的知识融入到目标估计中。我们计算targets真实结果和估计的边界框之间的重叠。通过仔细地集成特定目标的信息,我们的方法实现了以前未见过的边界框精度。

我们进一步引入了在线训练的分类组件,以保证在干扰存在时具有高分辨能力。我们最后的跟踪框架在五个具有挑战性的基准上设置了一个新的最先进的标准。

之后我将在专栏目标跟踪(SOT)|顶会论文|学习笔记中,分享近三年的四十多篇顶会文章的详细笔记,方便大家快速入门。

感兴趣的同学点赞+收藏+关注,直接进入专栏进行学习~你们的支持就是我最大的动力~ 感兴趣的同学点赞+收藏+关注,直接进入专栏进行学习~你们的支持就是我最大的动力~ 感兴趣的同学点赞+收藏+关注,直接进入专栏进行学习~你们的支持就是我最大的动力~

精彩文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: