【CN110009661A】一种视频目标跟踪的方法【专利】

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

(19)中华人民共和国国家知识产权局

(12)发明专利申请

(10)申请公布号 (43)申请公布日 (21)申请号 201910249323.7

(22)申请日 2019.03.29

(71)申请人 大连理工大学

地址 116024 辽宁省大连市甘井子区凌工

路2号

(72)发明人 卢湖川 高凯 

(74)专利代理机构 大连理工大学专利中心

21200

代理人 温福雪 侯明远

(51)Int.Cl.

G06T 7/246(2017.01)

G06K 9/62(2006.01)

(54)发明名称一种视频目标跟踪的方法(57)摘要本发明属于图像视频目标跟踪技术领域,提供了一种视频目标跟踪的方法,能够对视频中特定单个目标进行持续跟踪,涉及到图像处理的相关知识。首先,我们利用深度互学习和知识蒸馏的方法训练一个快速的目标跟踪器。其次,在每一帧来临时,在上一帧周围撒很多粒子,粒子的分布是随机的。然后我们选取一个大的图像区域,能够将所有粒子包含进去。将图像区域和粒子的相对位置送入目标跟踪器,得到最后的得分,选取得分最高的结果。将最后结果经过包围框回归之后作为最终结果。最后,每次跟踪失败或者一定时间之后在线更新跟踪器。本发明的益处在于改变传统的采样方法,将在图像层采样变为在特征层采样,大大提升了速度,在保证精度

的条件下提升了速度。权利要求书3页 说明书5页 附图1页CN 110009661 A 2019.07.12

C N 110009661

A

1.一种视频目标跟踪的方法,其特征在于,步骤如下:

一、离线训练阶段:

步骤1:利用公开的数据库训练一个分类器网络,分类器网络的输入是图像块,输出为图像块的得分,其中图像块是目标前景则输出为1,图像块是背景输出则为0;分类器网络用于分辨输入图像块是目标前景还是背景,并对图像块进行打分;如公式(1),其中,表示在视频序列的第t帧取到的第i个图像块,

代表图像块在分类器网络1中第m类的特征,m取值1、2;表示分类器网络1中softmax层中第m类的输出;公式(2)表示分类器

网络的监督损失,

式中,表示视频序列中第t帧取得的第i个

图像块的真值标签,当真值标签与类别输出相同时,则结果为1,反之则为0;

表示分类器

网络1在图像序列中取N个图像块的损失;

步骤2:采用深度互学习的方法,用两个相同的分类器网络同时进行训练,并在结果之前的网络层建立连接,用KL散度进行相互监督,从而使得两个分类器网络获得更强大的分类能力;公式(3)D KL (p 2‖p 1)代表用KL散度相互监督,式中,分别表示分类器网络1、分类器网络2中softmax层中第m类的输出,KL散度是在图像序列中取N个图像块进行计算;公式

(4)分别表示分类器网络1、分类器网络2的最终损失,

其中

分别表示分类器网络1、分类器网络2在图像序列中取N个图像块的损失;λ1、λ2是

超参数,

用于调整损失之间的关系;

权 利 要 求 书1/3页2CN 110009661 A

相关文档
最新文档