SiamFT:通过完全卷积孪生网络进行的RGB红外融合跟踪方法-程序员宅基地

技术标签: 深度学习  神经网络  

论文下载地址

   [SiamFT论文地址]
   [论文部分纠正地址]

代码下载地址

   [GitHub-unofficial]代码本人所写,没有预训练权重,代码仅供参考

论文作者

XINGCHEN ZHANG, PING YE, SHENGYUN PENG, JUN LIU, KE GONG1AND GANGXIAO

模型讲解

[背景介绍]

   此SIamFT网络是利用光学和红外图像进行数据融合,并应用于视频跟踪领域。阅读此博文前推荐先阅读[VIF-Net:红外和可见图像融合的无监督框架]。VIF-Net就给出了一种无监督的数据融合网络,但是网络只是进行数据融合,没有应用于其他的领域。另外,普通的视频跟踪方法,并没有使用多种数据,阅读此博文前推荐先阅读[视频跟踪]中的论文解读,其中都是基于孪生网络的深度学习方法。

[论文解读]

   视频跟踪方法上,比较流行的方法是深度学习方法和相关滤波算法,前者取得了更好的性能,后者拥有更好的效率。
   视频跟踪数据上,大多数视频跟踪算法是针对可见图像(RGB图像)开发的。 尽管取得了显着进步,但基于可见图像的跟踪算法可能会失败,因为在某些情况下它们可能不可靠。 例如,当照明条件差时。 相反,红外图像显示了物体的热信息,并且对这些因素不敏感。 它们可以为可见图像提供补充信息,并在黑暗等情况下显示被伪装的物体。 此外,在某些情况下,RGB图像比红外图像更可靠,因为它们具有颜色特征并可以提供更多细节,如下图所示。

   通过利用可见光和红外图像中的补充信息,可以显着提高跟踪算法的鲁棒性。 因此,基于可见光和热红外图像的目标跟踪已成为研究的热点,被称为RGB红外融合跟踪。
   在本文中,作者提出了一种有高效的RGB红外融合跟踪方法,该方法可以实时跟踪并可以与目前先进跟踪器相互竞争的性能。 也就是作者提出了一种基于完全卷积的孪生网络的融合跟踪方法,并将其称为SiamFT。

[SiamFT的网络结构]

  SiamFT的流程图如下图所示。可以说SIamFT使用了双重的孪生网络,可见光网络和红外网络。 它们分别用于处理可见图像和红外图像。backbone使用的是SiamFC网络,网络权值可能不共享,可见光部分的网络权值共享,红外部分网络权值共享,也就是下图灰色的部分。

  backbone的结构在下图中给出。可以看出,除最后一个卷积层之外,每个卷积层之后都是ReLU层。 而且,仅在前两个卷积层之后使用池化层。 此外,该CNN是完全卷积的,因此对输入图像的大小没有限制要求。

  在网络输入方面,与SiamFC相同,都是从中心截取。对于模板图像,在第一帧中以标记中心为中心截取 127 × 127 × 3 127×127×3 127×127×3的图像。对于搜索图像,以上一帧框中心为中心截取 255 × 255 × 3 255×255×3 255×255×3的图像,如果尺寸不够裁剪,则在裁剪后以平均像素值进行填充。
  SiamFT网络在数据融合上,要经过模板特征融合和搜索特征融合。
  ①模板特征融合
  在可见光和红外模板图像经过backbone后产生的深层特征进行相连,这里是通道相连,产生融合特征。
  ②搜索特征融合
  在可见光和红外搜索图像经过backbone后产生的深层特征送入特征融合网络,网络的具体操作会在后面说明。
  最后,生成新的模板特征和搜索特征,进行相互卷积,生成响应图,意义就是在搜索图像中模板图像的响应值。这一部分的具体内容和[SiamFC:利用全卷积孪生网络进行视频跟踪]中没有区别。
  如果可见光部分backbone操作为 φ φ φ,红外部分backbone操作为 φ ′ φ′ φ z v z_v zv x v x_v xv分别为输入可见光部分的模板图像和搜索图像, z t z_t zt x t x_t xt分别为输入红外部分的模板图像和搜索图像,那么生成响应图可以表示为: r e s p o n s e M a p = ( φ ( z v ) ⊕ φ ′ ( z t ) ) ∗ ( φ ( x v ) ⊕ φ ′ ( x t ) ) responseMap=(φ(z_v)⊕φ′(z_t))*(φ(x_v)⊕φ′(x_t)) responseMap=(φ(zv)φ(zt))(φ(xv)φ(xt))其中 ∗ * 代表相关运算也就是卷积操作, ⊕ ⊕ 代表特征融合,注意两个 ⊕ ⊕ 的融合方法是不一样的但是都是特征融合。作者为了方便研究令 φ φ φ φ ′ φ′ φ相同,权值共享。
  下面的算法流程展示了SiamFT的过程。

算法1:基于孪生网络的融合跟踪算法(SiamFT)
1 输入可见图像和红外图像,第一帧的Groundtruth
2 输出 每个帧中目标的预测位置和大小
3 初始化
4 裁剪可见光图像获得模板图像 z v z_v zv
5 裁剪红外图像获得模板图像 z t z_t zt
6 跟踪
7 对于 每一帧 i i i 运行
8   裁剪当前帧可见光图像获得搜索图像 x v x_v xv
9   裁剪当前帧红外图像获得搜索图像 x t x_t xt
10   将 z v z_v zv x v x_v xv送入可见光部分网络得到 φ ( z v ) φ(z_v) φ(zv) φ ( x v ) φ(x_v) φ(xv)
11   将 z t z_t zt x t x_t xt送入红外部分网络得到 φ ′ ( z t ) φ′(z_t) φ(zt) φ ′ ( x t ) φ′(x_t) φ(xt)
12   基于 z v z_v zv x v x_v xv计算可见光特征模态权重
13   基于 z t z_t zt x t x_t xt计算红外特征模态权重
14   利用特征融合网络融合 φ ( z v ) φ(z_v) φ(zv) φ ′ ( z t ) φ′(z_t) φ(zt),得到融合模板特征 φ ( z v ) ⊕ φ ′ ( z t ) φ(z_v)⊕φ′(z_t) φ(zv)φ(zt)
15   利用特征融合网络融合 φ ( x v ) φ(x_v) φ(xv) φ ′ ( x t ) φ′(x_t) φ(xt),得到融合搜索特征 φ ( x v ) ⊕ φ ′ ( x t ) φ(x_v)⊕φ′(x_t) φ(xv)φ(xt)
16   根据公式 r e s p o n s e M a p = ( φ ( z v ) ⊕ φ ′ ( z t ) ) ∗ ( φ ( x v ) ⊕ φ ′ ( x t ) ) responseMap=(φ(z_v)⊕φ′(z_t))*(φ(x_v)⊕φ′(x_t)) responseMap=(φ(zv)φ(zt))(φ(xv)φ(xt))计算响应图
17   对响应图上采样获得目标的预测位置
18 循环结束
[特征融合网络]

  这一部分具体介绍了特征融合的操作。下图展示了特征融合网络的结构。特征融合网络的目的是对可见光和红外的搜索特征进行融合,同时作者也利用搜索图像的特征,生成新的搜索特征。注意生成新的模板特征只是通过多通道叠加,生成新的搜索特征利用新的网络。

[模态权重计算]

  特征融合网络的关键是模态权重的计算,在本研究中,作者提出了一种基于从互相关计算中获得的响应值的模态权重计算方法。简单理解就是,可见光和红外特征的贡献是不一样的,可以赋上一组权重,叫做模态权重。权重的计算主要依赖与哪一种搜索特征与模板特征更相似,更相似的就更容易进行跟踪,其对应的模态权重也就越大。这也与注意力机制相似,使网络更注重与需要的特征。

  如上图所示(原论文中图片错误,在作者更正论文中进行了更正,上图正确),上面一排是可见光图像,下面一排是红外图像,下面的折线图中,蓝色是可见光响应图的最大值,红色是红外响应图的最大值。
  左边图像序列第3帧中可见光图像比红外图像更清晰,所以可见光特征的响应图最大值高于红外特征,所以需要更多利用可见光特征进行融合。
  右边是由于黑暗导致可见光图像目标不清晰,在可见光质量不好的情况下,需要更多利用红外特征进行融合,所以红外特征的模态权值会更高,也就是红色的线会高于蓝色。这些也可以说明通过互相关层的响应图最大值可以作为模态权重。所以模态权重可以定义为:
 weight  i = { max ⁡ ( R i ) , i f d <  threshold  max ⁡ ( R i ) d , i f d ≥  threshold  \text { weight }_{i}=\left\{\begin{array}{ll} \max \left(R_{i}\right), if & d<\text { threshold } \\ \frac{\max \left(R_{i}\right)}{\sqrt{d}}, i f & d \geq \text { threshold }\end{array}\right.  weight i={ max(Ri),ifd max(Ri),ifd< threshold d threshold 其中 i i i代表模态,就是可见光和红外两种, R i R_i Ri代表 i i i的响应图,其中作者引入 d d d是连续两帧目标的距离,在视频跟踪中,两帧之间的距离不会过大,所以一旦超出一个阈值,会对模态权重进行限制。然后进行权重归一化:
ω v = weight v weight v + weight t ω t = weight t weight v + weight t \begin{aligned} &\omega_{v}=\frac{\text {weight}_{v}}{\text {weight}_{v}+\text {weight}_{t}}\\ &\omega_{t}=\frac{\text {weight}_{t}}{\text {weight}_{v}+\text {weight}_{t}} \end{aligned} ωv=weightv+weighttweightvωt=weightv+weighttweightt其中 ω v ω_v ωv ω t ω_t ωt分别是可见光特征和红外特征的归一化模态权重。

[特征融合]

  模板是从第一帧获得的,并且在跟踪过程中未更新,因此,融合后的模板为:
φ ( z v ) ⊕ φ ′ ( z t ) = c o n c a t ( φ ( z v ) , φ ′ ( z t ) ) φ(z_v)⊕φ′(z_t)=concat(φ(z_v),φ′(z_t)) φ(zv)φ(zt)=concat(φ(zv),φ(zt))
这里只是在第一帧,将两个模板特征通道叠加,没有赋予权重。而在第二帧开始将会结合模态权重:
φ ( z v ) ⊕ φ ′ ( z t ) = c o n c a t ( ω v × φ ( z v ) , ω t × φ ′ ( z t ) ) φ(z_v)⊕φ′(z_t)=concat(ω_v×φ(z_v),ω_t×φ′(z_t)) φ(zv)φ(zt)=concat(ωv×φ(zv),ωt×φ(zt))其中 ω v ω_v ωv ω t ω_t ωt分别是可见图像和红外图像的模态权重。

[训练过程]

[损失函数]

  利用网络的输出和标记的响应图,计算损失函数:
L ( y , v ) = 1 ∣ D ∣ ∑ u ∈ D log ⁡ ( 1 + exp ⁡ ( − y [ u ] ⋅ v [ u ] ) ) L(y, v)=\frac{1}{|D|} \sum_{u \in D} \log (1+\exp (-y[u] \cdot v[u])) L(y,v)=D1uDlog(1+exp(y[u]v[u]))
其中 y [ u ] y[u] y[u] v [ u ] v[u] v[u]分别表示网络的输出和Groundtruth,对响应图遍历取平均值。
  训练50epoch,一个epoch50K个图像对,学习率为 1 0 − 2 − 1 0 − 5 10^{-2}-10^{-5} 102105

[性能指标]

  具体性能指标可以阅读[视频跟踪数据集指标分析]。其中SR类似于VOT中的Accuracy,PR类似于VOT中的Center Error。

[结果分析]

[定量结果]

  在十九种RGB红外视频的所有比较跟踪器中,作者提出的SiamFT在SR方面均达到最佳结果,在PR方面获得次优(略差于最佳)。 特别是,在SR方面,SiamFT在7个序列上均优于所有追踪器,在PR方面,它在6个序列上均优于所有追踪器。 此外,SiamFT在SR的16个视频和PR的13个视频中均排名前三。 这清楚地证明了SiamFTin在RGB红外融合跟踪中的有效性。

  SR方面如下表,表格中红色最好,绿色第二,蓝色第三。

  PR方面如下表,表格中红色最好,绿色第二,蓝色第三。

[定性结果]

  下图展示了一些视频上不同跟踪器之间边界框的定性比较,这从视觉上证明了作者方法的有效性。 可以发现,在某些挑战性条件下(例如遮挡,比例尺变化,照明条件较差),建议的跟踪器更加强大。

[运行时间]

  作者提出的跟踪器的运行速度约为28-32FPS,因此可以满足实时性要求。 这比速度仅为几个FPS的方法(例如SGT(5 FPS)和LGMG(7FPS))更快,更实用,证明了所提方法的效率。

传送门

◉ RGB红外
数据集
[TNO-RGB红外图像]
[FLIR-RGB红外图像]
[Multispectral Image Recognition-RGB红外目标检测]
[Multispectral Image Recognition-RGB红外语义分割]
[INO-RGB红外视频]
[SYSU-MM01行人重识别可见光红外数据]
论文
[VIF-Net:RGB和红外图像融合的无监督框架]
[SiamFT:通过完全卷积孪生网络进行的RGB红外融合跟踪方法]
[TU-Net/TDeepLab:基于RGB和红外的地形分类]
[RTFNet:用于城市场景语义分割的RGB和红外融合网络]
[DenseFuse:红外和可见图像的融合方法]
[MAPAN:基于自适应行人对准的可见红外跨模态行人重识别网络]

◉ 多光谱高光谱
数据集
[高光谱图像数据]
论文
[Deep Attention Network:基于深层注意力网络的高光谱与多光谱图像融合]

◉ RGBSAR
数据集
[待更新]
论文
[待更新]

◉ RGB红外SAR
数据集
[待更新]
论文
[待更新]

大家有数据融合方向的优秀论文可以在评论分享一下,感谢。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_36449741/article/details/104610986

智能推荐

keep-alive vue不起作用的原因_vue3+vite的keep-alive浏览器返回不生效-程序员宅基地

文章浏览阅读2w次。keep-alive 从列表页进入到详情页,再回到列表页,然后页面又重新请求,而不是直接读缓存里面的(ps:之前keep-alive用在项目中是可以起作用的,但是不知道为什么这两天就出现了这样的问题。就连activated,deactivated这两个钩子函数也是没有触发到) 具体代码如下 我尝试在项目中新建一个很简单的页面,也是没有效果。一开始以为是vue的版本过低导致的,看了一下v..._vue3+vite的keep-alive浏览器返回不生效

十进制小数部分如何转化成二进制算法实现_小数进制转换编程-程序员宅基地

文章浏览阅读483次。十进制小数转化成二进制,就是不断地乘二,判断之后的这个数是否比1大,比1大则输出输出1,留下小数部分继续前面的操作。将3.75的小数部分转化为二进制。最后的输出结果是.11。_小数进制转换编程

免费OFD文件在线转PDF_在线生成一个 ofd文件-程序员宅基地

文章浏览阅读739次。ofd文件打不开?ofd怎么转换为pdf?本文将给告诉大家ofd是什么文件格式?ofd怎么打开?ofd怎么免费转换为配pdf文件等,以下是具体的方法:一,什么是OFD文件?OFD是我国电子公文交换和存储格式标准。OFD格式是我国自主可控的电子文件版式文档格式。OFD版式文件,版面固定、不跑版、所见即所得,可以视为计算机时代的“数字纸张”;是电子文档发布、数字化信息传播和存档的理想文档格式。OFD格式是当下对于全国产环境具有明显的优势。因此,在自主可控档案系统中,OFD格式无疑是自主可控档案系.._在线生成一个 ofd文件

14、HDFS 透明加密KMS_mapreduce读写sequencefile、mapfile、orcfile和parquetfil-程序员宅基地

文章浏览阅读3w次。HDFS中的数据会以block的形式保存在各台数据节点的本地磁盘中,但这些block都是明文的。通过Web UI页面找到Block的ID和副本位于的机器信息如果在操作系统中直接访问block所在的目录,通过Linux的cat命令是可以直接查看里面的内容的,且是明文。在datanode找到其文件为:HDFS透明加密(Transparent Encryption)支持端到端的透明加密,启用以后,对于一些需要加密的HDFS目录里的文件可以实现透明的加密和解密,而不需要修改用户的业务代码。_mapreduce读写sequencefile、mapfile、orcfile和parquetfile文件

Java SE 第三章 常用类 API_java se api常用类-程序员宅基地

文章浏览阅读92次。3.0 API概述https://www.oracle.com/cn/java/technologies/java-se-api-doc.html如何使用API看类的描述​ Random类是用于生成随机数的类看构造方法​ Random():无参构造方法 Random r = new Random();看成员方法​ public int nextInt(int n):产生的是一个[0,n)范围内的随机数调用方法: int number = r.nextInt(10_java se api常用类

3-16心电图多分类预测task01_机器学习在呼吸心跳信号检测中应用ti-程序员宅基地

文章浏览阅读285次。3-16心电图多分类预测task01一、赛题理解1.赛题理解1.数据概况1.评价指标二、baseline学习1.引入库2.读入数据3.数据预处理4.训练、测试数据准备5.模型训练总结提示:以下是本篇文章正文内容,下面案例可供参考一、赛题理解1.赛题理解以心电图心跳信号数据为背景,要求根据心电图感应数据预测心跳信号所属类别,其中心跳信号对应正常病例以及受不同心律不齐和心肌梗塞影响的病例,这是一个多分类的问题。1.数据概况以预测心电图心跳信号类别为任务,总数据量超过20万,主要为1列心跳信号序列数_机器学习在呼吸心跳信号检测中应用ti

随便推点

【JZ2440笔记】裸机实验使用SDRAM_京累里101123-程序员宅基地

文章浏览阅读393次。S3C2440A 存储器控制器为访问外部存储的需要器提供了存储器控制信号。S3C2440A 包含以下特性:–大/小端(通过软件选择)–地址空间:每个 Bank 有 128M 字节(总共 1G/8 个 Bank)–大/小端(通过软件选择)–除了 BANK0(16/32 位)之外,其它全部 BANK 都可编程访问宽度(8/16/32 位)–总共 8 个存储器 Bank6 个存储器 Bank 为 ROM,SRAM 等其余 2 个存储器 Bank 为 ROM,SRAM,SDRAM 等–7 个固定的_京累里101123

工具系列:TensorFlow决策森林_(3)使用dtreeviz可视化-程序员宅基地

文章浏览阅读1.2k次,点赞19次,收藏19次。之前的教程演示了如何使用TensorFlow的决策森林(随机森林、梯度提升树和CART)分类器和回归器来准备数据、训练和评估。(我们将TensorFlow决策森林缩写为TF-DF。)您还学会了如何使用内置的函数可视化树,并显示特征重要性度量。本教程的目标是通过可视化更深入地解释分类器和回归器决策树。我们将查看详细的树结构图示,以及决策树如何划分特征空间以做出决策的描绘。树结构图帮助我们理解模型的行为,特征空间图帮助我们通过展示特征和目标变量之间的关系来理解数据。我们将使用的可视化库称为dtreeviz。_dtreeviz

MySQL8.0学习记录10 - 字符集与校对规则_mysql8.0存储系统元数据的字符集是-程序员宅基地

文章浏览阅读2.1k次。MySQL8.0字符集_mysql8.0存储系统元数据的字符集是

漫威所有电影的 按时间线的观影顺序-程序员宅基地

文章浏览阅读3.1k次。美国队长1 - 2011年惊奇队长 - 2019年钢铁侠1 - 2008年无敌浩克 - 2008年钢铁侠2 - 2010年雷神 - 2011年复仇者联盟 - 2012年雷神2 - 2013年钢铁侠3 - 2013年美国队长2 - 2014年复仇者联盟2 - 2015年银河护卫队 - 2017年蚁人 - 2015年美国队长3 - 2016年奇异博士 - 2016年银河护卫队2 - 2017..._漫威电影观看顺序时间线

PhotoZoom Classic 7中的新功能-程序员宅基地

文章浏览阅读142次。众所周知PhotoZoom Classic是家庭使用理想的放大图像软件。目前很多用户还在使用PhotoZoom Classic 6,对于PhotoZoom Classic 7还是有点陌生。其实在6代衍生下出了7代,7代比6代多了很多适用的功能。下面我们就介绍一下PhotoZoom Classic 7中的新功能。PhotoZoom Classic 6的功能我们就不过多介绍,主要介绍7代中特有的功..._photozoon的作用

tensorflow中tf.keras.models.Sequential()用法-程序员宅基地

文章浏览阅读4.6w次,点赞75次,收藏349次。tensorflow中tf.keras.models.Sequential()用法Sequential()方法是一个容器,描述了神经网络的网络结构,在Sequential()的输入参数中描述从输入层到输出层的网络结构model = tf.keras.models.Sequential([网络结构]) #描述各层网络网络结构举例:拉直层:tf.keras.layers.Flatten() #拉直层可以变换张量的尺寸,把输入特征拉直为一维数组,是不含计算参数的层全连接层:tf.ker._tf.keras.models.sequential

推荐文章

热门文章

相关标签