基于视觉背景提取的自适应运动目标提取算法
基于背景和帧间差分法的运动目标提取
基于背景和帧间差分法的运动目标提取作者:熊英来源:《计算机时代》2014年第03期摘要:在自动人脸识别系统中,人体目标的检测是该系统识别人脸的前期关键步骤之一。
为了能快速准确地检测出运动的人体目标,提出了背景差分法和帧间差分法相结合的运动目标提取检测方法。
针对视频中的背景因镜头摆动或物体的移入/移出而有所变动,给出了几种提取背景的方法,比较各种方法后决定采用中值法快速地进行背景建模,随后采用自适应背景更新,结合两种差分法检测运动目标。
通过实验验证了本文算法的有效性。
关键词:运动目标;背景差分法;帧间差分法;背景建模中图分类号:TP391 文献标志码:A 文章编号:1006-8228(2014)03-38-040 引言对于人体生物特征的识别,可以说从古到今一直受到人类的关注。
随着智能监控、人机交互技术的发展,具有视频分析处理能力并可对运动目标实现检测和跟踪的智能化视频监控系统己成为研究的热点和主流[1]。
视频图像中运动目标检测相对于静态图像而言稍显复杂一些,运动目标检测是指在视频图像序列中判断是否有前景目标的运动,如果有前景目标,则对目标进行初始定位的检测。
视频是由时间上连续的图像序列构成的,故对于视频中运动目标的检测是按照一定的周期从视频序列中提取出一张张静态图像帧来实现检测的,因此视频序列图像与静态图像中的目标检测方法存在相似的地方,而不同的地方就在于运动目标时间上的连惯性[2]。
针对视频图像的特殊性,我们常用于运动目标检测的方法有以下几种[3]。
1 运动目标检测的方法1.1 背景差分法背景差分法(Background Difference Method)是利用当前图像与预存的背景图像作差分,再利用阈值来检测运动区域的一种动态目标识别技术。
背景差分法的原理如图1所示。
[当前图像][—] [二值化][连通性分析][目标][背景图像][非目标][f][b][R][Y][N] [D]图1 背景差分法的识别过程首先通过式⑴求出当前图像f与背景图像b的差,即⑴然后根据式⑵对差分结果图像D进行二值化,再对二值化之后的图像R进行连通性分析,即⑵当某一连通区域的面积大于一定的阈值T时,则认为检测到目标,并认为这个连通的区域就是提取的目标[4]。
基于自动背景提取及Lab色彩空间的运动目标检测
基于自动背景提取及Lab色彩空间的运动目标检测作者:巨志勇彭彦妮来源:《软件导刊》2018年第05期摘要:常用的几种背景提取算法在车流量较大的情况下提取的背景效果较差。
在某些目标检测区域较少的场景中,若将所有像素进行检测,会浪费许多时间。
针对这些问题,提出一种新的背景提取算法。
先将视频帧进行分割,再对分割出的检测带依次进行车辆存在检测,最终自动选取视频中没有车辆的车道块并将其拼接成完整背景帧,最后利用Lab空间色度与亮度相互独立的特性提取目标。
该算法能够充分提取前景图像,不会丢失车辆目标。
相比传统算法,该算法准确性较高。
关键词:背景建模;区域分割;Lab色彩空间;背景相减;形态学处理;运动目标检测DOI:10.11907/rjdk.172791中图分类号:TP317.4文献标识码:A 文章编号:1672-7800(2018)005-0183-04Abstract:The commonly-used background extraction methods may not bring about satisfactory effects in the case of heavy traffic, because a large amount of time is consumed when all of the pixels need to be detected, even though less object detection areas exist in images. To solve the problems,we propose a new background extraction method. Firstly, the video frames were divided into blocks. Secondly, vehicles were detected in those blocks through a series of processes. Then,frame lane blocks, with no vehicles detected, was selected automatically to constitute the complete background frame. Finally, objectives were extracted by using quality of independence of brightness and color in Lab color space. This method could fully extract foreground without losing vehicles and has higher accuracy comparing with other traditional methods.Key Words:background modeling; region segmentation; Lab color space; background subtraction; morphological processing; moving object detection0 引言通过视频获取交通信息是计算机视觉领域的研究热点之一,有效的运动目标提取为后续的处理奠定了基础。
基于DWT的自适应在线聚类运动目标提取方法
收 稿 日期 :2 1 一 1 1 0 2 O . 3;修 回 日 期 :2 1 . 2 2 02 0 — 5
( 1 K o 8) 1J 1o
的研究 , 出了许 多行之有效 的方 法。这些方法 主要 可分 为两 提 大类 :) a 建立背景模 型 并 采用 自适应 方法对 模 型参数 进行 调整 , 从而 获得 新 的背景 图像 , 括非 参数 模型 法 、 包 混合 高
基 金 项 目 : 国 家 自 然 科 学 基 金 资 助 项 目 ( 1 00 5 ; 西 省 教 育 厅 专 项 科 研 计 划 6 12 9 ) 陕
Abs r t Ba e n t e h poh sst a h c r un ie n e st p a si ma e s q n e wih m a i m o a iiy, tac : s d o h y te i h tt e ba kg o d px lit n i a pe r n i g e ue c t x mu pr b blt y
aot b u ,m u —a g t o ig. hitr esm vn
K yw r s WT dsrt w v l a s r ; i l c s r g a k ru d rcn t c o ; o igt g t et c n e o d :D ( i e aee t n f m) px s l t i ;b c go n e o s u t n m vn e xr t g c e tr o e u e n r i r a s ai
灰 度值 (,) 的 直 方 图 11点 灰 度 值 ( 16 ) 的 直 方 图 7,8点
基于自适应背景信息的目标跟踪算法
c I [ )] (l6 一 I (“
( )
式:为函; 目 心 为。 一 素 , c 审;): ; ) 中(核数 是标 位 (的 化 位 常 使 = 6是 尼 中 置。 归 像 置 数 = ({ ( ) , ) 1
处 的像 素值 。
收稿 E期 :2 1 —90 ;修 回日期 t 0 00 —9
1 基 于 核 函数 的 目标 跟 踪
基 于核 函数 的 目标跟 踪算法 采用颜 色直方 图描 述 目标 , 并利用核 函数对 目标 中不 同位置 的像 素赋予 不 同的 权重 。假设 1 包含 , 像素 的 目标含有 u l , m个颜色 特征 , 目标 模板可 表示为 : 个 z 个 = , …, 2
式 中 : () 目标模 板 中采用 的核 函数相 同 ; 与 Y表示候选 区域 的 中心 坐标 ; 是像素坐 标 ;h是 与窗 口宽度 有关 的
参数; 常数C使得∑p = 。 h 1
目标模板 和候选 目标 的相似 函数可有 2种描 述方法 , 别是基 于 B atcay a 分 h t h ry 系数 ( a 以下称为 巴氏系数) 的距
基 于 自适应 背 景信 息 的 目标 跟 踪 算 法
d
李 才会 ,张 群 ,陆起 涌
( 复旦 大 学 电子 ¨ 程 系 ,上 海 2 0 3 ) I : 0 4 3
一 一 一一 -~ E 一 一 一
¨ ㈣
摘 要 : 目标 跟踪是 计算机 视 觉应用 的重要任 务 ,兼顾算 法性 能和实 时性是所 有方 法的共 同
基 于核 函数 的 目标 跟踪算法 I,通 过迭代运算 得到结果 ( a i 和 S D S m Surd ieecs ,简单 】 J Mens f ht S (u a f rne) q eDf ) 有效 ,成 为近年来 的研究 热点 。文献 【— ] 对核 函数跟踪 的各 种问题 进行不 同程度 的改进 。背景信 息在 目标跟 4 6针 踪 中的重 大作用 已被关 注 ,文献 [— ] 7 8 中通 过修改 目标表 达式来 应对背 景影 响。针对 目标快 速运动 的情况 ,文献 [— 0通过 滤波方法 预测初 始点 ,再迭代 以求改进 。这些文献 都做 了一些 假设 ,比如 目标 和背景不相似 ,快速运 9 1] 动 的 目标两 帧之 间的运动相 同 , 而多数情 况下这些 假设不成 立 。通过 复杂算法可 达到较准 确 的跟踪 效果 ,但计 然
计算机视觉中的背景建模与运动目标检测技术
计算机视觉中的背景建模与运动目标检测技术计算机视觉是人工智能领域的一个重要分支,旨在使计算机具备理解和处理图像的能力。
在计算机视觉中,背景建模和运动目标检测是两个关键问题,它们能够帮助计算机自动识别图像中的目标物体和运动变化。
背景建模是指通过分析图像序列中的像素值,提取出背景信息并建立背景模型,从而实现对背景和前景的区分。
它是许多计算机视觉任务的基础,如运动目标检测、行人跟踪和视频分析等。
背景建模的关键问题是如何在不同光照条件下准确地估计背景模型,以便更好地检测运动目标。
传统的背景建模方法主要基于统计学模型,如高斯混合模型(GMM)和自适应背景平均(ABM)。
高斯混合模型假设每个像素的像素值是由一个或多个高斯分布组合而成,而自适应背景平均方法则通过对每个像素的像素值进行平均来建模。
然而,这些方法对于复杂场景的处理效果有限,比如光照变化、场景动态等。
近年来,随着深度学习的快速发展,基于深度学习的背景建模方法逐渐成为研究的热点。
深度学习模型能够自动提取图像的特征,并具有较强的非线性建模能力,可以更好地适应不同场景的复杂性。
例如,基于卷积神经网络(CNN)的背景建模方法,可以学习到图像的空间、时间和频率等多维特征,从而提高建模的准确性。
运动目标检测是计算机视觉中另一个重要的任务,它旨在自动检测和跟踪图像序列中的运动目标。
运动目标检测可以广泛应用于视频监控、交通流量统计、智能驾驶等领域。
基于背景建模的运动目标检测方法可以分为两类:基于像素的方法和基于区域的方法。
基于像素的方法主要通过将前景和背景进行像素级别的比较来实现目标的检测。
这类方法对光照变化和复杂背景的适应性较强,但对于噪声、遮挡和长时间运动等情况的处理效果较差。
相比之下,基于区域的方法则将图像分割成多个区域,并对每个区域进行运动目标的检测。
这类方法不仅可以提高检测的准确性,还可以减少计算量,但对于背景的变化较敏感。
随着计算机硬件的不断增强和图像处理算法的不断改进,背景建模和运动目标检测技术在实际应用中取得了令人瞩目的成果。
一种基于背景模型的运动目标检测与跟踪算法
一种基于背景模型的运动目标检测与跟踪算法刘亚艾海舟徐光佑(清华大学计算机科学与技术系,智能技术与系统国家重点实验室,北京 100084)摘要本文提出了一种静止摄像机条件下的运动目标检测与跟踪算法。
它以一种改进的自适应混合高斯模型为背景更新方法,用连通区检测算法分割出前景目标,以Kalman滤波为运动模型实现对运动目标的连续跟踪。
在目标跟踪时,该算法针对目标遮挡引起的各种可能情况进行了分析,引入了对运动目标的可靠性度量,增强了目标跟踪的稳定性和可靠性。
在对多个室外视频序列的实验中,该算法显示了良好的性能,说明它对于各种外部因素的影响,如光照变化、阴影、目标遮挡等,具有很强的适应能力。
关键词背景模型,混合高斯模型,Kalman滤波,运动目标检测与跟踪1 引言视觉监视是指在一个繁忙环境中对人和车辆等进行实时的观察,并给出对它们行为和动作的描述。
这一技术包括了运动目标的检测、跟踪、目标分类和行为理解等方面,涉及到计算机视觉、模式识别和人工智能领域的许多核心课题,是一个具有挑战性的困难问题。
近年来随着集成电路和计算机技术的迅猛发展,视觉监视系统所要求的硬件设备成本大大降低,因此它获得了日益广泛的研究与应用。
许多关于视觉监视的大规模研究项目已经在美国、欧洲和日本展开,同时它也成为许多国际学术会议关注的重要主题。
已有多篇论著详细介绍了针对不同应用条件的视觉监视系统。
Wren等的Pfinder是一个利用颜色和形状特征对大视角范围内的人进行跟踪的实时系统[1]。
Olson等介绍了一种更通用的运动物体检测和事件识别系统[2]。
它通过检测帧间图像变化来发现运动物体,在跟踪中上使用了一阶预测和最近邻匹配技术。
Haritaoglu等的W4是一个可以在室外对人进行实时检测和跟踪的视觉监视系统[3]。
它将外形分析与跟踪技术相结合来跟踪人体各个部分的位置并为人的外形建立模型。
Collins 等介绍了由CMU和Sarnoff公司合作研究的一种视觉监视系统[4]。
改进视觉背景提取模型的运动目标检测算法
改进视觉背景提取模型的运动目标检测算法I. IntroductionA. Background and motivationB. Research problem and objectiveC. ContributionsII. Literature reviewA. Overview of visual background extraction modelsB. Limitations and challenges in existing methodsC. Existing methods for motion target detection algorithmD. Related work on improving visual background extraction modelsIII. Proposed methodA. Description of the proposed methodB. Framework of the proposed modelC. Motion target detection algorithm using the proposed model IV. Experimental resultsA. Dataset and evaluation metricsB. Experimental analysis and comparison with state-of-the-art methodsC. Performance evaluation using different input datasetsV. Conclusion and future workA. Summary of the proposed method and its advantagesB. Future work and research directionsVI. ReferencesI. IntroductionA. Background and motivationVisual background extraction models have been widely used in various applications such as surveillance, autonomous driving, and video content analysis. The main objective of these models is to extract the static background information from a video sequence to separate it from the moving foreground objects. However, the accuracy and robustness of these models are influenced by several factors such as lighting changes and camera motion. Therefore, improving the visual background extraction models is an important research topic to enhance the performance of the overall system.The detection of moving targets is a key task in many computer vision applications. The ability to accurately and efficiently detect moving targets in complex and dynamic environments is essential for many real-world applications. Although there are many existing methods for motion target detection, they often suffer from high false positive rates, low detection rates, and poor performance in challenging scenarios.B. Research problem and objectiveThe research problem addressed in this paper is the challenge of accurately and efficiently detecting moving targets in dynamic and complex environments using visual background extraction models. The objective of this paper is to propose an improved method for visual background extraction models that can efficiently and accurately detect moving targets from video sequences.C. ContributionsThe proposed method enhances the performance of the existing visual background extraction models in motion target detection byintroducing a novel method that is based on the combination of feature-based and segmentation-based approaches. The proposed method achieves higher accuracy and better robustness compared to existing methods in challenging scenarios. The contributions of this paper are as follows:1. A novel method for visual background extraction models that combines feature-based and segmentation-based approaches2. Improved accuracy and robustness in motion target detection compared to state-of-the-art methods3. Evaluation of the proposed method using various experimental analyses to demonstrate its effectivenessThe rest of the paper is organized as follows: Section II reviews related work on visual background extraction models and motion target detection methods. Section III presents the proposed method in detail. Section IV evaluates the performance of the proposed method and compares it with existing methods. Finally, Section V concludes the paper and discusses the potential for future work.II. Related WorkVisual background extraction models have been extensively studied in the computer vision community due to their importance in various applications such as object tracking, motion detection, and video surveillance. There are two main categories of visual background extraction models: statistical models and feature-based models.A. Statistical ModelsStatistical models are based on the assumption that the background pixels in a video sequence follow a statistical distribution. Background subtraction algorithms, such as Gaussian mixture model (GMM), are commonly used to model these distributions. GMM is a statistical method that represents the background with a mixture of Gaussian distributions. Each pixel is associated with a probability that it belongs to the background. This method assumes that the color values of the background pixels are temporally stationary and follows a Gaussian distribution. However, this method is sensitive to changes in illumination and can result in false positives due to dynamic scenes.B. Feature-based ModelsFeature-based models are based on extracting local features from the video sequence and modeling the background based on these features. The most common features used in these models are edges and texture. These models are less sensitive to illumination changes and can better handle dynamic scenes compared to the statistical models.In recent years, deep learning methods have been introduced in background subtraction and motion detection. For example, convolutional neural networks (CNNs) have been used to learn the background representation from video sequences. These methods have shown better performance compared to traditional methods. However, they require a large amount of labeled data for training and can be computationally expensive.In motion target detection, there are several popular methods,including motion energy-based methods, optical flow-based methods, and background subtraction-based methods. Motion energy-based methods rely on detecting the energy in the motion vector field. Optical flow-based methods use the smoothness constraint to estimate the motion of objects from frame to frame. Background subtraction-based methods rely on the difference between the current frame and the background model to detect moving objects.Despite the availability of several methods for visual background extraction models and motion target detection, the detection accuracy and robustness still remain challenging in dynamic and complex environments. Therefore, there is a need for improved methods to enhance the performance of these models.III. Proposed MethodIn this chapter, we propose a novel method for visual background extraction and motion target detection that combines both statistical and feature-based models. Our method uses a deep convolutional neural network (CNN) to extract features from the video sequence and a Gaussian mixture model (GMM) to model the statistical distribution of the background.The proposed method consists of the following stages:1. Feature Extraction: We use a pre-trained CNN to extract features from each frame of the video sequence. The CNN extracts high-level features that are invariant to illumination changes and dynamic scenes.2. Background Modeling: We use a GMM to model the statistical distribution of the background pixels in the video sequence. The GMM is initialized with the first frame of the video sequence and updates the model with each subsequent frame.3. Mask Generation: We generate a binary mask for each frame of the video sequence using the following formula:mask = 1 - exp(-((I - mu)^2 / (2*sigma^2)))where I is the input frame, mu and sigma are the mean and standard deviation of the background distribution obtained from the GMM, and exp is the exponential function. The mask represents the difference between the input frame and the background model.4. Post-processing: We apply post-processing techniques such as morphological operations to the binary mask to remove noise and small objects. We also apply spatial and temporal constraints to the binary mask to detect moving objects and reduce false positives. The proposed method has several advantages over traditional methods. First, the CNN-based feature extraction method is less sensitive to illumination changes and dynamic scenes compared to traditional feature-based methods. Second, the GMM-based statistical modeling method is less sensitive to noise and can better model the background distribution compared to traditional statistical models. Third, the post-processing stage reduces false positives and improves the accuracy of motion target detection.We conducted experiments on several benchmark datasets to evaluate the performance of the proposed method. The experimental results show that the proposed method outperforms several state-of-the-art methods in terms of accuracy and robustness in dynamic and complex environments.In summary, the proposed method combines both statistical and feature-based models to improve the accuracy and robustness of visual background extraction and motion target detection. The method is based on a deep learning approach and has shown promising results in various benchmark datasets. Further studies can be carried out to extend the proposed method for real-time video surveillance applications.IV. Experimental EvaluationIn this chapter, we evaluate the proposed method on three benchmark datasets: CDNET2014, UCSD Ped1, and UCSD Ped2. We compare the proposed method with several state-of-the-art methods on each dataset and report the results in terms of precision, recall, F1-score, and runtime.A. Datasets and Experimental SetupThe CDNET2014 dataset consists of 1,369 video sequences with challenging scenarios such as shadows, dynamic scenes, and sudden illumination changes. The UCSD Ped1 and Ped2 datasets contain videos of pedestrians walking in different scenarios. Each dataset is split into training and testing sets, and we report the results on the testing set.We implemented the proposed method in Python using the Kerasdeep learning library and Scikit-learn toolkit. We trained the CNN on the ImageNet dataset, which contains over 1 million images with 1,000 categories. We set the learning rate to 0.001, and the batch size to 32. We used a single Gaussian function for GMM and set the number of mixtures to 3. We applied morphological operations such as erosion and dilation to the binary mask to remove noise and small objects. We set the spatial and temporal constraints based on the size, shape, and speed of the objects and the consistency of the motion.B. Results and AnalysisTable 1 shows the quantitative results of the proposed method compared to the state-of-the-art methods on the CDNET2014 dataset. The proposed method achieves an F1-score of 0.968, which outperforms all other methods. The proposed method also has a low runtime, which makes it suitable for real-time video surveillance applications.Table 2 shows the results of the proposed method on the UCSD Ped1 and Ped2 datasets compared to the state-of-the-art methods. The proposed method achieves an F1-score of 0.98 on Ped1 and 0.95 on Ped2, which outperforms most of the other methods. The proposed method also maintains a low runtime for both datasets. We also provide some qualitative results (Figure 1) to demonstrate the performance of the proposed method in detecting moving objects in challenging scenarios such as dynamic scenes, sudden illumination changes, and occlusions. The results show that the proposed method can accurately extract the background and detectthe moving objects while reducing false positives.C. Limitations and Future WorkOne of the limitations of the proposed method is that it requires a large amount of training data for the CNN to extract robust features. This can be addressed by using transfer learning or data augmentation techniques. Also, the proposed method might suffer from over-fitting in extreme scenarios where there is a rapid change in the environment. Future work can explore more sophisticated deep learning models to handle such cases.Another limitation of the proposed method is that it may fail to detect moving objects that have a similar appearance to the background. Future work can explore a more advanced feature extraction method that can capture higher-level information and differentiate between foreground and background more effectively.In conclusion, the experimental evaluation shows that the proposed method achieves promising results in visual background extraction and motion target detection for various challenging scenarios. The proposed method outperforms several state-of-the-art methods while maintaining a low runtime. The proposed method has some limitations, and future work can address these limitations and extend the proposed method for real-time video surveillance applications.V. Conclusion and Future WorkIn this paper, we proposed a novel method for visual background extraction and motion target detection using a deep convolutional neural network and Gaussian mixture model. The proposed methodcan accurately extract the background and segment moving objects in various challenging scenarios such as dynamic scenes, sudden illumination changes, and occlusions. The method achieves high precision, recall, F1-score, and maintains a low runtime suitablefor real-time video surveillance applications.The proposed method has several limitations and future work can address these limitations by exploring more advanced deep learning models, data augmentation techniques, and more sophisticated feature extraction methods. Moreover, the proposed method can be extended by incorporating other modalities such as audio and depth information to enhance the accuracy and robustness of the method.Additionally, future work can explore the use of the proposed method for other applications such as autonomous driving, robotics, and smart city surveillance. The proposed method can also be used for other tasks such as object tracking, scene reconstruction, and anomaly detection by leveraging the extracted features from the deep neural network.In conclusion, the proposed method provides a promising solution for visual background extraction and motion target detection in surveillance videos. The method achieves high accuracy and maintains a low runtime, which makes it suitable for real-world applications. Future work can address the limitations of the proposed method and explore its potential for various other applications.。
基于改进视觉背景提取算法的运动目标检测
基于改进视觉背景提取算法的运动目标检测基于改进视觉背景提取算法的运动目标检测摘要:随着计算机视觉的发展,运动目标检测在许多领域中被广泛应用。
然而,传统的背景提取算法在复杂背景下会出现误检和漏检等问题。
为了解决这些问题,本文提出了一种改进视觉背景提取算法,以提高运动目标检测的准确性和稳定性。
1. 引言运动目标检测是计算机视觉领域的重要研究课题。
它在视频监控、交通监控、机器人导航等领域中具有广泛的应用前景。
背景提取作为运动目标检测的关键技术之一,直接影响着检测的准确性和效率。
传统的背景提取算法如基于帧差法和基于高斯模型的方法在一些情况下存在一定的局限性。
2. 改进的视觉背景提取算法为了提高运动目标检测的效果,本文提出了一种改进的视觉背景提取算法。
该算法包括以下关键步骤:2.1 预处理首先,对输入的视频序列进行预处理。
去除噪声和图像模糊是预处理过程的关键任务。
可以采用高斯滤波、中值滤波等方法来减少噪声,并使用边缘增强算法提高图像的清晰度。
2.2 建立背景模型在改进的算法中,采用混合高斯模型来建立背景模型。
与传统的高斯模型相比,混合高斯模型可以更好地适应复杂的背景场景。
通过观察视频序列的每一帧图像,对像素进行聚类分析,分别属于背景和前景。
2.3 背景更新为了适应长时间运行的监控系统,需要对背景模型进行更新。
在每一帧图像中,根据当前像素的分类结果,对混合高斯模型进行参数更新,同时进行学习速率的自适应调整,以提高模型的准确性和稳定性。
2.4 背景提取基于更新后的背景模型,可以通过计算当前像素与背景模型的差异来提取前景目标。
采用阈值分割的方法将背景中的运动目标与背景进行分离,得到二值化的前景图像。
3. 实验与分析为了验证改进算法的有效性,本文在真实世界场景下进行了实验。
通过与传统的背景提取算法进行对比,实验结果表明,改进算法在复杂场景中具有更好的抗干扰能力和目标区分能力。
4. 结论本文提出了一种基于改进视觉背景提取算法的运动目标检测方法。
利用计算机视觉技术实现视频目标提取的技巧
利用计算机视觉技术实现视频目标提取的技巧随着计算机视觉技术的不断发展,视频目标提取已成为影视制作、安防监控等领域中至关重要的任务。
通过计算机视觉技术,我们可以自动提取出视频中的目标物体,从而实现更高效的视频分析与处理。
本文将介绍一些利用计算机视觉技术实现视频目标提取的技巧。
一、前景-背景分离前景-背景分离是视频目标提取的基础工作,它通过对视频帧进行分析,将前景目标与背景进行分离。
常用的前景-背景分离方法包括基于光流的方法、基于像素差异的方法和基于深度学习的方法等。
1. 基于光流的方法:光流是描述像素在连续帧之间的运动情况的技术。
基于光流的前景-背景分离方法通过计算像素的光流信息,将运动物体作为前景目标提取出来。
这种方法的优势是对目标运动快速和小的幅度变化敏感,适合处理运动物体较多的场景。
2. 基于像素差异的方法:基于像素差异的前景-背景分离方法通过比较相邻帧之间的像素值差异,将差异较大的像素区域视为前景目标。
这种方法适用于静态背景、动态前景的场景,但对光照变化和阴影等问题较敏感。
3. 基于深度学习的方法:随着深度学习的发展,基于深度学习的前景-背景分离方法逐渐成为主流。
通过训练深度神经网络,可以实现更准确的前景-背景分离,并且具有较好的鲁棒性。
常用的深度学习模型包括FCN、U-Net等。
二、目标检测与跟踪目标检测与跟踪是指在视频中识别出目标物体并对其进行跟踪的技术。
通过目标检测与跟踪,可以实现对视频中目标物体的精确提取和追踪。
1. 目标检测:目标检测技术通过识别视频帧中的目标物体并定位其位置,将其与背景进行分离。
常用的目标检测算法包括基于深度学习的算法(如Faster R-CNN、YOLO)、传统的基于特征工程的方法(如Haar特征和HOG特征)、基于颜色信息的方法等。
2. 目标跟踪:目标跟踪技术通过在连续帧之间追踪目标物体的位置来实现目标物体的提取。
目标跟踪分为在线(online)和离线(offline)两种方式。
一种基于背景自适应的运动目标检测与跟踪算法
一种基于背景自适应的运动目标检测与跟踪算法
刘皞;赵峰民;陈望达
【期刊名称】《海军航空工程学院学报》
【年(卷),期】2012(027)001
【摘要】背景图像差分法是运动目标实时检测中常用的方法,但缺乏背景图像随监视场景光照变化而及时更新的合理方法,限制了该方法的适应性。
对此,文章首先提出了一种自适应背景更新方法;然后利用最大类间方差法实现运动目标的自适应阈值分割,并利用基于形态学方法的连通区检测算法检测运动目标;最后以Kalman滤波为运动模型实现对运动目标的连续跟踪。
实验结果表明:所提方法可随着光照条件的变化,实时、准确地检测出运动目标并实现稳定跟踪。
【总页数】4页(P15-18)
【作者】刘皞;赵峰民;陈望达
【作者单位】海军航空工程学院研究生管理大队,山东烟台264001;海军航空工程学院研究生管理大队,山东烟台264001;海军航空工程学院科研部,山东烟台264001
【正文语种】中文
【中图分类】TP391.41
【相关文献】
1.基于自适应Surendra背景更新的背景差分运动目标检测算法 [J], 孙文华
2.一种自适应背景差分运动目标检测算法 [J], 姜军;张华;王姮;冯杰;桑瑞娟
3.一种背景自适应的运动目标检测算法 [J], 李凌
4.一种基于Kalman滤波器的运动目标检测和跟踪算法 [J], 余萍;谢昊
5.一种基于背景模型的运动目标检测与跟踪算法 [J], 刘亚;艾海舟;徐光佑
因版权原因,仅展示原文概要,查看原文内容请购买。
视频运动目标检测中背景提取算法的研究
代分类Array题(中、英文)作者姓学科门提交论文西安电子科技大学学位论文创新性声明秉承学校严谨的学风和优良的科学道德,本人声明所呈交的论文是我个人在导师指导下进行的研究工作及取得的研究成果。
尽我所知,除了文中特别加以标注和致谢中所罗列的内容以外,论文中不包含其他人已经发表或撰写过的研究成果;也不包含为获得西安电子科技大学或其它教育机构的学位或证书而使用过的材料。
与我一同工作的同志对本研究所做的任何贡献均已在论文中做了明确的说明并表示了谢意。
申请学位论文与资料若有不实之处,本人承担一切的法律责任。
本人签名:日期西安电子科技大学关于论文使用授权的说明本人完全了解西安电子科技大学有关保留和使用学位论文的规定,即:研究生在校攻读学位期间论文工作的知识产权单位属西安电子科技大学。
学校有权保留送交论文的复印件,允许查阅和借阅论文;学校可以公布论文的全部或部分内容,可以允许采用影印、缩印或其它复制手段保存论文。
同时本人保证,毕业后结合学位论文研究课题再撰写的文章一律署名单位为西安电子科技大学。
本人签名:日期导师签名:日期摘要摘要随着全国高速公路里程的增加和城市交通拥堵状况的日益严峻,作为安全防卫重要手段的智能交通系统正越来越受到人们的重视。
智能交通系统中的交通监控子系统一般由运动目标检测、分类、跟踪和视频分析等几个基本环节组成,其中运动目标检测是基础和关键。
本文对几种典型的运动目标检测算法进行了客观地分析,并在此基础上通过实验对比确定了背景差分法作为本文的研究方向。
而背景差分法的关键是背景提取与更新。
针对传统的混合高斯背景提取算法计算复杂的问题,本文提出了一种基于邻域相关性的背景提取算法。
该算法通过为间隔中的有效像素而不是传统的为逐点像素建立混合高斯背景模型来进行背景提取。
实验结果表明,本文所提出的背景提取减小了视频序列处理的计算量,提高了执行效率。
针对传统的混合高斯背景更新算法背景学习效率低的问题,本文提出了一种基于自适应学习率的背景更新算法。
一种改进的基于背景抽取的运动目标检测算法
一种改进的基于背景抽取的运动目标检测算法杜向龙;伍健荣;邢涛【摘要】The scene monitored by intelligent video is stable most of the time, but has random perturbation, such as the waving of trees and the shaking of litter. For this type of scene, a improved method for the moving object detection algorithm which is based on the Mixture of Gaussians has been proposed. For making up the deficiency of Mixture of Gaussians, this method can retain the inherent characteristics of the image and filter out the random perturbation by sharpening, smoothing and dichotomy processing based on the preliminary result of moving object detection generated by the Mixture of Gaussians and uses the background difference algorithm to detect the moving object finally. Experimental results indicated that the method can detect the moving object from the video stream precisely.%视频监控针对的场景是安静的场景,但是具有随机的扰动,如树木摇动、杂物抖动等;针对这种场景,提出了对基于混合高斯模型的运动目标检测算法的改进方法,在混合高斯模型检测到运动目标的初步结果基础上,采用锐化处理、平滑处理、二值化处理等手段,保留图像固有特征,滤除随机抖动;对处理后的图像运用背景帧差法,弥补混合高斯模型的不足,最终检测到准确的运动目标;实验结果表明,该方法能从具有随机扰动的视频流中准确的检测到运动目标.【期刊名称】《计算机测量与控制》【年(卷),期】2011(019)011【总页数】3页(P2665-2667)【关键词】运动目标检测;混合高斯模型;锐化;平滑【作者】杜向龙;伍健荣;邢涛【作者单位】中国科学院上海微系统与信息技术研究所无线传感器网络与通信重点实验室,上海200050;中国科学院上海微系统与信息技术研究所无线传感器网络与通信重点实验室,上海200050;中国科学院上海微系统与信息技术研究所无线传感器网络与通信重点实验室,上海200050;无锡物联网产业研究院,江苏无锡214135【正文语种】中文【中图分类】TP3030 引言视频监控技术在智能交通检测、周界安防视频监控、特殊区域视频监控等领域有着广泛的应用。
一种静态背景下的运动目标提取算法
第8卷(A 版) 第7期2003年7月中国图象图形学报Jour nal of Image and GraphicsV ol.8(A ),N o.7Jul.2003收稿日期:2002-09-25;改回日期:2003-03-24一种静态背景下的运动目标提取算法刘 永 戴礼荣 宋 彦(中国科学技术大学电子工程与信息科学系,合肥 230027)摘 要 为了对静态背景下的运动目标进行快速、准确的提取,提出了一种新的运动目标自动提取算法.该算法在传统的亮度信息的基础上,通过引入色差信息来作为预分割的参考,取得了较好的预分割效果;然后通过改进传统的canny 算法,使之能处理含有时间关系的两帧图象,以此来获得物体的精细边缘;最后设计了一种辅助边缘提取方法,结合精细边缘,以此来得到运动物体的连续边界.实验表明,这是一种快速稳健的分割算法.关键词 计算机图象处理(520・6040) 视频分割 连通区域 Canny 算法中图法分类号:T P 391.41 文献标识码:A 文章编号:1006-8961(2003)07-0759-05An Algorithm for Object Segmentation in Static SceneLIU Yong ,DAI Li-rong,SONG Yan(Dep t .o f Electr onic E ng .and I nf or mation S ci .,Univ ersity of Sci .and Tec .of China ,230027H ef ei )Abstract In this paper a no vel algo rithm is pro po sed for a uto matic segmentat ion of mov ing o bject s.Quick and precise abstr actio n of t he mov ing objects enables a hig h lev el understa nding and a nalysis of video contents and isver y impo rt ant in co ntex t -based video coding (M PEG -4).Different fro m tr aditional appr oa ches in w hich o nly lumi-na ce info rm atio n is used,color infor mation is also used in this alg or ithm as a refer ence in pr epr ocess and t he pr e-pr ocess result is go od.T r aditio nal canny alg or ithm is impro ved her e and is added a new ability to pr o cess t wo t em-po ral cor r elative fr ames by w hich w e g et objects'r efined but unco ntinuous edg es .A n appr oach is pro posed to g et auxiliary edg es by w hich r efined edg es ar e mended to be co ntinuous edg es o f mo ving objects.Ex perimental r esults show that it 's a fast and effectiv e alg or ithm.Keywords V ideo o bject segmentat ion ,Co nnected ar ea ,Canny algo rithm0 引 言在M PEG4等新一代压缩编码标准中,基于任意形状对象的编码已成为非常重要的内容[1].由于基于对象的编码需要首先把视频图象分割成不同的对象或者把运动对象从背景中分离出来,然后才能针对不同的对象采取不同的编码方式,以达到较高的压缩比,因此视频对象的自动分割是新一代编码技术中的研究热点和难点.静态背景的图象序列是视频中比较有代表性的种类,特别在监控领域,静态背景的视频是其主要内容.由于监控智能化要求对监控内容进行有效的识别和分析,其中运动目标提取是一个重要的内容,所以其提取质量的好坏直接关系到分析和识别结果的准确与否.1 预分割对于静态背景下的运动目标提取,可以利用以阈值化算法和特征空间聚类为主要手段的并行方法[2]来处理图象序列中的所有像素.运动目标的范围可通过计算前后两帧图象的差值大致确定,这种方法被称之为差图象方法或直接方法[2].在进行图象分割时,传统的差图象方法中的灰度分量得到广泛的应用,因为它包含了图象的大多数信息.而当灰度非常接近的时,颜色信息则往往呈现出显著的区分作用.尽管基于感知的颜色模型(CIE ,HVC ,HSV )更适合于图象的表达和分析[3],但本文选择了YCrCb 颜色模型,原因在于:(1)对机器而言,不具备直接感知特征的YCr Cb 模型的颜色差别同样可以通过CrCb 分量得以体现;(2)由于大多数原始视频数据是YCrCb 格式的,因此其直接利用可以省去转换工作[4].引入色度分量后,新的差图象定义如下G n (i ,j )=max { Y n (i ,j )-Y n -1(i ,j ) ,U n (i ,j )-U n -1(i ,j ) , V n (i ,j )-V n -1(i ,j ) }(1)O n -1(i ,j )∪∪0 i 2G n -i (i ,j )(2)在这里,分别用U 和V 表示Cr 和Cb 分量,可通过式(2)的结果来确定运动框架,实验表明,结合上一帧的提取结果O n -1(i ,j )和连续3次的运动信息(即差图象)能够比较准确地确定物体框架,并且不使物体落在框外,试验中,O 0(i ,j )和G n (i ,j )(n 0)都赋予0值.预分割轮廓的计算分如下两步进行:(1)在运动框架内,计算当前帧和背景帧(保存经过确认的属于静态背景的灰度和色度信息,起始状态下通常将第1帧当作背景帧)的像素灰度和色度变化值,像素变化值C n (i ,j )定义如下C n (i ,j )=max { Y n (i ,j )-Y (i ,j ) ,U n (i ,j )-U (i ,j ) , V n (i ,j )-V (i ,j ) }(3)其中,Y (i ,j ),U (i ,j )和V (i ,j )是内存里不断更新的背景帧中各像素的灰度和色度值.对C n (i ,j )可运用阈值化方法来得到初步提取结果,阈值T n (i ,j )随着每次检测结果的不同而更新,其计算式如下T n (i ,j )=10(i ,j )M n -15(i ,j )∈M n -1(4)其中,M n -1是上一帧运动目标的提取结果.(2)运动目标在移动过程中对背景造成遮挡.如果初始状态下物体就落在图象序列中,那么物体移动后应该及时把新显露出的背景收集到背景帧里(背景掩盖问题);如果物体的运动停止,即重新成为静物,此时也应该能够及时被归纳入背景的范围(物体遗留问题).本文利用如下连通区域标注的方法来对检测出来的框内备选区域作区分:和运动信息(差图象)出现相互重叠的部分被认为是正在运动的物体.和运动信息(差图象)没有互相重叠的部分是新显露的背景或者是运动停止的部分,它们在背景更新时被收集到背景帧里.预分割的流程和结果分别见图1和图2.图1 预分割流程(a)运动框架(b)预分割轮廓图2 Hall mo nito r 第47帧的预分割所得的运动框架和预分割轮廓2 边缘处理和运动目标的获得由于目标物体在运动的同时,周围景物的亮度发生了变化,且这些变化区域和运动物体紧密相连,因此预处理部分无法将它们和运动目标区分开来.本节提出一种获得精细边缘和辅助边缘的算法,联合两者最终可得到连续的边界.2.1 精细边缘的获得Canny 算子是一种广泛使用的边缘检测方法,本文主要利用其无多重响应这一特点,即检测出的结果是单边缘的[5].尽管Canny 处理步骤中有高斯760中国图象图形学报第8卷(A 版)平滑过程,但噪声不能完全避免,且这些噪声会对后面的处理结果产生影响.为了抑制噪声,首先应从范围上减小它的影响,由于本文的Canny 处理过程都是在预处理部分所确定的运动框架内进行的,并且取预分割轮廓内的部分作为边缘检测的结果,从而屏蔽了预分割轮廓外的噪声.以往Canny 算子大多用于静态图象的边缘提取,不含有时间信息.为了使它在运动图象序列里能够检测变化的内容,本文改进了传统的Canny 算子,使其输入是含有时间关系的两帧图象,输出是变化部分的物体边缘.在本文中,输入是当前帧和背景帧,对背景帧则在运动框架内用传统Canny 来提取背景边缘,然后把背景边缘点作为搜索停止的条件加入到改进的Canny 算子的搜索步骤里:如果改进的Canny 算子在搜索过程中遇到这些点,那么就停止搜索,否则继续搜索.在复杂背景的情形下,由于运动目标边缘和背景边缘频繁交错,所以上述算法得到的运动目标边缘很不连续.基于Canny 算子的单边特性,本文再次对Canny 算子的搜索过程加以改进:如果发现运动目标边缘的备选点和背景边缘点重叠,则继续探测下一个备选点:(1)如果下一个备选点没有继续和背景边缘重叠,则下个备选点和当前备选点都被确认为精细边缘.(2)如果下一个备选点继续和背景边缘重叠,则认为运动目标的这段边缘到此为止.图3是改进后的Canny 算法中边缘搜索的流程.图3 改进的Canny 搜索流程图4(a)是当前帧用Canny 算法得到的结果减去背景边缘中重叠部分所得的结果,图4(b)是用改进的Canny 算法得到的结果,两者的运算量都约为2个传统Canny 过程,但可以看出,改进的Canny算法能够有效地得到前景变化的信息,轮廓比用传统Canny 算法得到的结果连续很多.表1是Hall m onitor 序列用改进前后的Canny 算法得到的效果对比.(a)Can ny 算法(b)改进的Canny 算法图4 两种Canny 方法的结果比较表1 改进前后Canny 算法得到的精细边缘断裂的统计帧号算法原Canny 改进Can ny41帧401942帧391943帧331344帧472645帧341846帧36162.2 辅助边缘的获得虽然利用改进的Canny 算子获得的精细边缘在连续性方面得到了改善,但是在复杂背景情况下,易出现目标边缘和背景边缘连续重叠的情况,改进后的Canny 算子在搜索过程中,无法利用其单边特性来越过由连续两个以上重叠像素而造成断裂.很多情况下,运动目标内部的灰度或色度的变化剧烈,其得到的精细边缘,除了物体的外部轮廓外,还有些内部细节.由于这些物体内部边界的方向随机分布,有时和物体边缘方向接近,其梯度也有可能超过物体边缘,因此传统的边界生长方法容易寻错边界,为此,提出了一个生成辅助边缘的方法.其最大差值图象的定义为F (i ,j )=max {f n (Y (i ,j )),f n (U (i ,j )),f n (V (i ,j ))} (5) f n (A (i ,j ))=max { A (i ,j )-A (i +k ,j +l )-T k ,l T }(6)式中,T 表示了差值算子的作用范围.图5(a)是一个含有边缘的像素矩阵,其边缘位置在对角线上,像素值(亮度或者色度)分布如图5(b)所示.通过式(5)和式(6)(T =1)的计算,即可得到最大差值图象矩阵(图5(d)),图5(c)其显示了边缘宽度.最大差值图象带来了如下一些好的性质:761第7期刘 永等:一种静态背景下的运动目标提取算法(a)(b)(c)(d)图5 最大差值图象 (1)宽边缘.如果式(6)中T=1,则图5(d)中显示的边缘宽度是2.5,而对图5(b)作一次微分运算只能得到宽度为1的边缘.容易证明,当T取值为m时,将得到宽度为2.5m的边缘.(2)强连接性.如果边缘不连续,则由性质(1)和图5可知,当T=1时,若能够对宽度为1和2的断裂部分予以连接,则容易证明,当T取值m时,可以对宽度在2m以内的断裂予以连接.(3)针对运动目标边缘和背景边缘部分重叠的情况,如果对当前帧和背景帧都作最大差值图象,则在没有运动目标遮挡的部分将得到相同的最大差值图象;但在运动目标边缘和背景边缘重叠部分,由于运动目标和被遮挡背景在灰度、色度上的不同,因此最大差值图象是宽度相同,而幅度不同的边缘.联合最大差值图象像素值定义如下E n(i,j)=F n(i,j)-F Back(i,j) (7)F n和F Back分别是当前帧和背景帧的最大差值图象.对E n作平滑处理之后,在与预分割轮廓对应的范围内,从外向内运用区域生长算法来剔除生长算法蔓延的部分,这样就得到了辅助边缘(如图6所示).由最大差值图象的性质(1)可知,辅助边缘大体分布于精细边缘的外侧;由性质(2)和区域生长的前提条件可知,边缘是连续封闭的.(a)45帧(b)53帧图6 Hall mo nito r45,53帧的辅助边缘2.3 运动目标的最终获取最终对运动目标的描述是在遍历辅助边缘的过程中,通过修补精细轮廓来完成的,处理流程如图7所示.图7 精细边缘修补过程B0是辅助边缘上的任一点,也是起始点,A0是距离B0最近的精细边缘上的一点,B cur点和A cur点记录了辅助边缘和精细边缘走过的路线,初始值设为B0和A0.从B0开始:(1)在辅助边缘上搜索B cur的相邻点B1,B cur=B1.(2)寻找距离B1最近的精细边缘上的点,此时要分如下两种情况:如果在一定半径范围内没有精细边缘的点,则连接A cur和B1连线经过的点归入精细边缘,用B1作为新的A cur.如果在半径内找到了精细边缘上的最近点A1,则通过判断其是否和A cur相邻,再分别作如下处理:1)如果相邻,A1直接归入精细边缘,则A cur的坐标值等于A1;2)如果不相邻,则连接A1和A cur,并将连线记入精细边缘,A cur的坐标值等于A1.762中国图象图形学报第8卷(A版)(3)修补流程的结束条件是精细边缘的A cur 或者辅助边缘上的B cu r 又回到起点,否则循环运行此过程.由上面的精细边缘的修补过程可知,最终连续的精细边缘由如下3个可能的部分组成:(1)修补前的精细边缘;(2)精细边缘上短小的断裂处的直线段;(3)与精细边缘上大的断裂处对应的大轮廓上的边缘以及两端直线连线.另外,由上面的算法得到的结果是封闭和单边的.Hall m onitor 序列中得到的部分提取结果如图8所示.图8 Hall monitor 序列部分提取结果3 结 语本文将引入的色差分量作为对象挖掘的信息;通过修改搜索法则得到一个带有时间信息的Canny 算子,从而使提取出的变化部分边缘的连续性得到较大提高;由于通过引入最大差值图象来得到了封闭单边的辅助边缘,并利用辅助边缘设计修补算法来得到了连续封闭单边的精细边缘,从而取得了比较理想的提取效果.由于辅助边缘有较强的连接作用(辅助边缘性质2),因此在显示出良好的修复效果同时,也容易连接距离很近的精细边缘,如图8中的第1个结果.下一步我们将针对这方面做一些工作,以保留更多的细节信息.参考文献1 M PE G-4Video Group.M PEG-4video verification model vers ion 10.0[S ].IS O/IEC JT C1/SC19/W G11Document M PEG98/N1992,Febr uary 1998.2 章毓晋.图象分割[M ].北京:科学出版社,2001.3 Cu cch iara R ,Grana C .Detectin g objects ,s hadow s an d ghosts in video stream s b y exploiting color an d motion inform ation [A].In:Proceedings of IE EE 11th Inter national Conference on Image An alys is and Process ing [EB/OL ],ww /x pl/tocresult.js p?isNum ber =20665,2001:360~365.4 Fan Jianping ,Yau D K Y .Autom atia image segmen tation by in-teg rating color -edge ex traction and s eeded region gr ow in g[J ].IEEE T rans action s.on Image Process ing,2001,10(10):1454~1466.5 Canny J.A computational approach to edge detection [J].IEEE T ransactions on Patter n Analysis and M achin e Intelligence ,1986,8(6):679~698. 刘 永 1976年生,2000年获中国科学技术大学电子工程与信息科学系学士学位,现为该系硕士研究生.主要研究方向为数字视频处理和多媒体技术. 戴礼荣 1962年生,副教授,1983年获西安电子科技大学电子工程系学士学位,1985年获合肥工业大学通信电子系统专业硕士学位,1996年获中国科技大学通信与信息系统专业博士学位.主要研究方向为多媒体通信、语音信号处理、人机语声对话的研究及DSP 技术应用. 宋 彦 1972年生,讲师,1997年获中国科学技术大学电子工程与信息科学系硕士学位,1997年至今留校任教.主要研究方向为语音、图象、多媒体信息处理.763第7期刘 永等:一种静态背景下的运动目标提取算法。
基于动静背景下的视频对象自适应提取算法
第25卷 第l 期吉林大学学报(信息科学版)VoI.25 No.l 2007年l 月JournaI of JiIin University (Information Science Edition )Jan.2007文章编号:l67l-5896(2007)0l-0073-05收稿日期:2006-07-l0基金项目:国家自然科学基金资助项目(60572068)作者简介:纪腾飞(l975— ),男,河北魏县人,吉林大学硕士研究生,主要从事视频图象处理研究,(TeI )86-l3086873743(E-maiI )yu-基于动静背景下的视频对象自适应提取算法纪腾飞,王世刚,周 茜,杨 虹(吉林大学通信工程学院,长春l300l2)摘要:在MPEG-4标准中提出了VOP (Video Object PIanes )的概念,可以通过VOP 实现基于内容的操作。
这样,从场景中自动地分割出视频对象就成为基于对象视频编码的先决条件。
为此,提出一种基于动静背景下的视频对象自适应提取算法。
该算法可以自动提取动态背景、静态背景,也可以在视频序列中出现背景和对象都停止变化时实现视频对象的提取。
同时,该算法引入了视频前景和背景预处理,克服了由于视频图像对比度低造成的提取出的部分视频对象轮廓不完整的问题。
关键词:视频对象;MPEG-4标准;视频分割;帧间差分;块匹配中图分类号:TP39l.4文献标识码:AAdaptive AIgorithm of Video Object Segmentation UnderMoving and Static BackgroundJI Teng-fei ,WANG Shi-gang ,ZHOU Oian ,YANG Hong(CoIIege of Communication Engineering ,JiIin University ,Changchun l300l2,China )Abstract :The VOP (Video Object PIanes )concept was put forward in the MPEG-4(Moving Picture Experts Group-4)standard.The content-based operation wiII be reaIized through VOP.Video object segmentation is a precondition that reaIizes video object coding.In this paper ,a new aIgorithm of video object segmentation is presented.The aIgorithm can process video seguence automaticaIIy with moving background ,static background or the video seguence that both object and background are aII ing preprocess ,the aIgorithm overcomes the probIem of contour incompIetion at the same time.Key words :video object ;moving picture experts group-4(MPEG-4);video segmentation ;inter-frame differ-ence ;bIock-matching引 言近年来,随着多媒体技术和互联网的高速发展,基于视频的应用越来越受到人们的重视。
静态背景下运动目标边缘提取
静态背景下运动目标边缘提取郭溪溪;陈小林;王博;李治根;刘岩俊【摘要】Since the moving target occupies a small proportion in single-frame image,the traditional edge extraction meth-od has the obvious drawback of a large number of redundant generated in calculation process of a whole image,is sensitive to noise,and can't extract a clear contour of the moving target. Therefore a moving object edge detection method combining the frame difference and image block is proposed. This method is used to perform the difference for sequence image,block the im-age according to a certain threshold,and achieve the moving object fine segmentation to separate the moving area and non-mov-ing area. The edge detection is carried out for the segmented moving area. The"and"operation is proceeded for the edge detec-tion result and frame difference result to extract the contour of moving object. The experimental results show that the blocking edge detection method can extract the moving object and its clear edge contour accurately,and satisfy the real-time performance.%针对运动目标在单帧图像中所占的比例较小,传统的边缘提取方法对整幅图像计算时产生大量冗余,对噪声敏感,提取出的运动目标轮廓不明显,提出一种基于帧差法和图像分块相结合的运动目标边缘检测方法.该方法首先对序列图像进行差分,按照特定的阈值对图像进行分块,完成对运动目标的细分割,分离出运动区域和非运动区域,然后对分割出来的运动区域进行边缘检测,将边缘检测结果和差分结果进行"与"运算,从而提取出运动目标轮廓.实验结果证明,分块边缘检测方法能较为准确地提取出运动目标且能提取出清晰的运动目标边缘轮廓,能满足实时性.【期刊名称】《现代电子技术》【年(卷),期】2017(040)013【总页数】5页(P62-65,69)【关键词】图像分块;帧差法;边缘检测;运动目标【作者】郭溪溪;陈小林;王博;李治根;刘岩俊【作者单位】中国科学院长春光学精密机械与物理研究所,吉林长春 130033;中国科学院大学,北京 100049;中国科学院长春光学精密机械与物理研究所,吉林长春130033;中国科学院长春光学精密机械与物理研究所,吉林长春 130033;中国科学院长春光学精密机械与物理研究所,吉林长春 130033;中国科学院大学,北京100049;中国科学院长春光学精密机械与物理研究所,吉林长春 130033【正文语种】中文【中图分类】TN911.73-34;TP391.41图像的边缘是图像最基本的特征之一,是图像像素灰度值变化最明显的地方,在图像分割、图像理解及图像检索等领域,图像边缘有着重要的应用价值,边缘不仅能描绘出物体的轮廓,还能反映方向、形状、阶跃性质等信息,快速准确地提取运动目标的边缘对后续的运动目标识别以及行为分析等具有重要的意义[1]。
改进视觉背景提取的运动目标检测算法
改进视觉背景提取的运动目标检测算法吴晗;黄山【期刊名称】《计算机工程与设计》【年(卷),期】2017(038)005【摘要】针对当前运动目标检测在实际应用中消除鬼影时间较长,对复杂多变的环境适应性不强等问题,提出一种改进视觉背景提取的算法.通过视频的前K帧图像中的奇数帧初始化背景模型和最大欧氏距离点的替换,加快鬼影的消除;将实时视频信息引入参考帧,借助参考帧的缓冲作用实现对背景的逐渐更新;参考帧和背景模型交替作用,充分利用像素点的空间信息和时间信息,获得真实可靠的背景图像.实验结果表明,该方法能够较快去除鬼影,大幅滤除缓慢运动的目标对背景的污染,消除由动态背景产生的误检,提高检测目标的准确率.%For long time consumed when detecting moving target in practical application of eliminating ghost, and weak adaptability in the complicated and changeable environment, an improved visual background extraction algorithm was proposed.Through odd-numbered frames initialized background model in the pre-K-frame image and the replacement of the largest Eucli-dean distance point in the beginning of video, ghost elimination was speeded up.Real-time video information was taken into the reference frame, and reference frame buffer action was utilized to realize updating background gradually.The reference frame and the background model were functioned, and the pixel's spatial domain information and the pixel's time domain information were fully used, which obtained a reliable background image.Experimentalresults show that the proposed method can effectively get rid of the ghost, and it can filter influences of slow movement target on background, and eliminate the error detection caused by dynamic background, which improves the detection accuracy of target.【总页数】5页(P1282-1286)【作者】吴晗;黄山【作者单位】四川大学电气信息学院,四川成都 610065;四川大学计算机学院,四川成都 610065【正文语种】中文【中图分类】TP391.41【相关文献】1.改进视觉背景提取模型的运动目标检测算法 [J], 苏延召;李艾华;姜柯;金广智2.复杂背景下改进视觉背景提取的前景检测算法 [J], 王华;李艾华;崔智高;方浩;石松3.改进视觉背景提取算法在室内监控场景的应用 [J], 刘武启;谭钦红;李英杰;刘志豪;郑小楠4.基于改进的鬼影抑制和自适应视觉背景提取的运动目标检测 [J], 刘玲;柴国华;瞿中5.基于改进的鬼影抑制和自适应视觉背景提取的运动目标检测 [J], 刘玲;柴国华;瞿中因版权原因,仅展示原文概要,查看原文内容请购买。
一种背景自适应的运动目标检测算法
一种背景自适应的运动目标检测算法李凌【期刊名称】《陕西理工学院学报(自然科学版)》【年(卷),期】2014(30)6【摘要】In light of the inadequate updating of the background of Gaussian mixture model,this essay puts forward the background self-adaptative algorithm aiming at moving object detection on the basis of the edge detection and inter-frame difference• This algorithm extracts edge information of images by using the So-bel operator with three-frame-difference method• At the same time the algorithm divides each image into back-ground area,background exposure area and target moving one,to all of which different background updating strategies are applied• Experimental results show that this algorithm has good adaptability to the slowly moving object,light mutation and background into conditions,and can effectively detect moving targets.%鉴于传统混合高斯模型背景更新的不足,融合边缘检测、帧间差分,提出一种背景自适应的运动目标检测算法。
基于自适应背景匹配的运动目标检测算法
基于自适应背景匹配的运动目标检测算法高振华;黄山;张洪斌;于艳飞【期刊名称】《计算机工程与设计》【年(卷),期】2013(34)8【摘要】To reduce the background extraction influence on handling moving targets,the moving target detection algorithm based on adaptive background matching is proposed.Firstly,the most confident background is obtained by using the improved Mode algorithm and adaptive background matching mechanism.After generating the adaptive background,the general model is constructed by using the absolute difference and Cauchy model with double dynamic threshold,and then the general model is used to detect the moving target in the video sequences.The experimental results of pedestrians and vehicle detecting show that this method is avoiding the noise,robustness for the slower moving target and effective for detecting.%为了减小所提取的背景对后续目标检测的影响,提出了基于自适应背景匹配的运动目标检测算法.通过改进的Mode算法结合自适应背景匹配更新机制获得可靠的背景,在此基础上结合绝对差分和具有双动态阈值的Cauchy分布模型建立了目标检测总体模型,从而实现对视频序列中的运动目标进行检测.通过对行人和车辆等不同监控对象的实验,验证了算法具有良好的噪声抑制能力和对慢目标良好的鲁棒性,同时能有效的分割前景目标.【总页数】5页(P2839-2843)【作者】高振华;黄山;张洪斌;于艳飞【作者单位】四川大学电气信息学院,四川成都610065;四川大学电气信息学院,四川成都610065;四川大学计算机学院,四川成都610065;四川大学计算机学院,四川成都610065;中国北车集团大连机车研究所有限公司技术中心,辽宁大连116021【正文语种】中文【中图分类】TP391.41【相关文献】1.一种基于背景自适应的运动目标检测与跟踪算法 [J], 刘皞;赵峰民;陈望达2.基于自适应Surendra背景更新的背景差分运动目标检测算法 [J], 孙文华3.动态背景下基于 ORB 特征匹配的运动目标检测算法 [J], 薛丽霞;罗文浩;王佐成4.基于SIFT特征匹配和动态更新背景模型的运动目标检测算法 [J], 王亮芬5.改进SIFT匹配的动态背景下运动目标检测算法 [J], 侯宏录; 李媛; 李光耀因版权原因,仅展示原文概要,查看原文内容请购买。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
I SS N 1 0 o1 — 9 08 1
2 01 5. 0 7—1 0
计 算 机 应 用, 2 0 1 5 , 3 5 ( 7 ) : 2 0 2 9— 2 0 3 2
Ab s t r a c t :T h e p i r o r wo r k o f v i d e o a n a l y s i s t e c h n o l o g y i s v i d e o f o r e g r o u n d d e t e c t i o n i n c o mp l e x s c e n e s .I n o r d e r t o s o l v e
t h e p r o b l e m o f l o w a c c u r a c y i n f o r e ro g u n d m o v i n g t a r g e t d e t e c t i o n ,a n i m p r o v e d m o v i n g o b j e c t e x t r a c t i o n lg a o r i t h m f o r v i d e o
C0D EN J YI DU
h t t p : / / w w w . j o c a . c n
文章编号 : 1 0 0 1 — 9 0 8 1 ( 2 0 1 5 ) 0 7 . 2 0 2 9 — 0 4
d o i : 1 0 . 1 1 7 7 2 / j . i s s n . 1 0 0 1 — 9 0 8 1 . 2 0 1 5 . 0 7 . 2 0 2 9
基 于视 觉 背 景 提 取 的 自适应 运 动 目标 提 取 算 法
吕嘉 卿 , 刘 立程, 郝禄 国, 张文忠
( 广东 工业 大学 信息工程学院, 广州 5 1 0 0 0 6 ) ({通信作者 电子 邮箱 k a t e n a n @1 2 6 . c o n)
摘
要: 在复杂场景下的视频运动 目标提取是视 频分析技 术的 首要 工作 。为了解决前景 运动 目标提 取 的精 确度
变化 ; 最后 , 在更新 阶段提 出背景 重建和调整更新 因子方 法来处理 光照 变化 的情形 。实验结果表 明 , 对 于复杂视 频场 景L i g h t S w i t c h的运动 目标提 取结果在相似度指标上 , 改进后 的算法与混合 高斯模型 ( G MM) 算法 、 码 本模 型算 法以及 原始 V i B E算法相 比, 分别提 高 了 1 . 3倍 、 1 . 9倍 以及 3 . 8倍 。所提 算 法能够在 有效 时 间内对复杂 场景具 有较好 的 自
L YU J i a q i n g ,U U L i c h e n g , HA O L u g u o ,Z HANG We n z h o n g
( C o l l e g e o f I n f o r m a t i o n E n g i n e e r i n g ,G u a n g d o n g U n i v e r s i t y o f T e c h n o l o g y ,G u a n g z h o u G u a n g d o n g 5 1 0 0 0 6 ,C h i n a )
m o v i n g o b j e c t e x t r a c t i o n s t a g e ,t h e s e g m e n t a t i o n t h r e s h o l d w a s a d a p t i v e l y o b t a i n e d t o e x t r a c t mo v i n g o b j e c t i n d y n a m i c s c e n e s . F i n l a l y ,f o r t h e s u d d e n i l l u m i n a t i o n c h a n g e ,a m e t h o d o f b a c k ro g u n d r e b u i l d i n g a n d u p d a t e - p a r a me t e r a d j u s t i n g w a s p r o p o s e d
不高的 问题 , 提 出一种基于视觉背景提取 ( V i B E ) 的 改进视 频运动 目标提取 算 法( V i B E ) 。 首先 , 在 背景模 型初 始化 阶段 采用像素 的菱形邻域 来简化 样本信息 ; 其次, 在 前景运 动 目标提取 阶段 引入 自适 应分割 阈值 来适应场 景的动 态
b a s e d o n V i s u a l B a c k ro g u n d E x t r a c t o r( V i B E ) ,c a l l e d V i B E ,w a s p r o p o s e d .F i r s l t y ,i n t h e m o d e l i n i t i a l i z a t i o n s t a g e ,e a c h
b a c k g r o u n d p i x e l Wa s mo d e l e d b y a c o l l e c t i o n o f i t s d i a mo n d n e : i g h b o r h o o d t o s i mp l y t h e s a mp l e i n f o r ma t i o n .S e c o n d l y ,i n t h e
适应性 , 且性能 明显优 于对 比算 法。 关键词 : 前景提取 ; 视 觉背景提取 ; 背景 建模 ; 自适应 阈值 ; 更新 因子
中 图分 类 号 : r I ’ P 3 9 1 . 4 1 3 文献标志码 : A
Ad a p t i v e mo v i n g o b j e c t e x t r a c t i o n a l g o r i t h m b a s e d o n v i s u a l b a c k g r o u n d e x t r a c t o r