新書推薦:
《
想象欧洲丛书(7册)欧洲史
》
售價:NT$
1880.0
《
没有伞的孩子必须努力奔跑
》
售價:NT$
149.0
《
做最好的班主任(李镇西教育文集版)
》
售價:NT$
230.0
《
数据驱动法律
》
售價:NT$
390.0
《
对话世界一流大学图书馆馆长
》
售價:NT$
995.0
《
揭秘立体翻翻书--我们的国宝
》
售價:NT$
490.0
《
清代贡院史
》
售價:NT$
800.0
《
光焰摇曳——变革与守望的梁启超
》
售價:NT$
440.0
|
編輯推薦: |
本书是对视频事件分析与理解这一重要问题所涉及的理论和方法的研讨与总结。
|
內容簡介: |
视频事件的分析与理解是计算机视觉领域的重要研究内容之一,具有重要的理论研究意义和实际应用价值。本书首先介绍了视频事件分析与理解所涉及的目标检测、目标跟踪以及事件识别的研究现状,分析了视频事件分析与理解中的关键问题,然后重点介绍了作者研究团队在视频事件分析与理解领域的研究工作和成果。
本书可供计算机、自动化、模式识别等领域的科研人员参考,也可作为高等院校计算机、自动化、电子信息等专业的教学参考书。
|
關於作者: |
裴明涛,男,博士,副教授,博士生导师。2004年获得北京理工大学计算机应用技术博士学位,并进入北京理工大学计算机学院工作至今;2009年至2011年在美国加州大学洛杉矶分校进行访问研究。
科研方向为计算机视觉,人工智能以及模式识别,主持国家自然科学基金、国家973项目子课题等科研项目十余项。在计算机视觉与人工智能顶级国际会议ICCV, AAAI以及SCI收录国际重要学术期刊IEEE TIP、 IEEE TMM、 IEEE TITS、CVIU、PR上发表多篇论文。
|
目錄:
|
第1章引言
1.1视频事件分析与理解的背景和意义
1.2目标检测的研究现状
1.2.1基于HOGSVM的行人检测
1.2.2基于可变形部件模型的行人检测
1.2.3基于深度神经网络的行人检测
1.2.4基于特征融合的行人检测
1.2.5行人检测中的分类器
1.2.6行人检测数据集
1.3目标跟踪的研究现状
1.3.1目标表示
1.3.2统计建模
1.3.3目标跟踪数据集
1.4视频事件分析与理解的研究现状
1.4.1视频事件中的相关术语
1.4.2视频事件的特征表示
1.4.3视频事件的建模方法
1.4.4视频事件数据集
1.5关于本书
第2章视频中的目标检测算法
2.1基于深度通道特征的行人检测方法
2.1.1深度卷积神经网络与稀疏滤波
2.1.2深度通道特征
2.1.3深度通道特征的提取
2.1.4基于深度通道特征的行人检测
2.1.5实验结果
2.2基于特征共享和联合Boosting方法的物体检测方法
2.2.1基于滑动窗口和二分类器的物体检测框架
2.2.2二分类Boosting方法
2.2.3共享特征与多分类Boosting方法
2.2.4实验结果
2.3本章小结
第3章视频中的目标跟踪算法
3.1基于多分量可变部件模型的行人跟踪方法
3.1.1行人可变部件模型及其初始化
3.1.2多分量可变部件模型
3.1.3基于多分量可变部件模型的跟踪算法
3.1.4自顶向下与自底向上相结合的跟踪框架
3.1.5实验结果
3.2基于锚点标签传播的物体跟踪方法
3.2.1问题描述
3.2.2求解最优H
3.2.3求解软标签预测矩阵A
3.2.4软标签传播
3.2.5基于标签传播模型的跟踪算法
3.2.6实验结果
3.3本章小结
第4章事件时序与或图模型的学习
4.1事件模型的定义
4.1.1一元和二元关系
4.1.2原子动作
4.1.3时序与或图模型
4.1.4子节点之间的时序关系
4.1.5解析图
4.2事件模型的学习
4.2.1一元和二元关系的检测
4.2.2原子动作的学习
4.2.3事件模型的学习
4.3实验结果
4.3.1实验数据
4.3.2时序与或图学习结果
4.3.3所学的模型有益于场景语义的识别
4.4本章小结
第5章基于时序与或图模型的视频事件解析
5.1时序与或图与随机上下文相关文法
5.2Earley在线解析算法
5.3改进的Earley解析算法
5.4事件解析的定义
5.5对事件的解析
5.6实验
5.6.1原子动作识别
5.6.2事件解析
5.6.3意图预测
5.6.4事件补全
5.7本章小结
第6章基于关键原子动作和上下文信息的事件解析
6.1基于关键原子动作的事件解析
6.1.1原子动作权值的学习
6.1.2带有原子动作权值的事件解析图
6.1.3基于原子动作权值的事件可识别度
6.1.4实验结果
6.2基于社会角色的事件分析
6.2.1相关工作
6.2.2角色建模与推断
6.2.3基于角色的事件识别
6.2.4实验结果
6.3基于群体和环境上下文的事件识别
6.3.1相关工作
6.3.2基于场景上下文的事件识别
6.3.3基于群体上下文的事件识别
6.3.4基于场景和群体上下文的事件识别
6.3.5实验结果
6.4本章小结
参考文献
|
內容試閱:
|
视频事件的分析与理解由于在智能监控、智能人机交互等领域有着广泛的应用前景,成为计算机视觉领域备受关注的前沿方向之一。目前的视频事件分析与理解方法存在两个问题有待解决:一是事件模型多是人工指定,不能准确反映事件的内在特征;二是现有的事件分析方法多是针对底层的动作或者高层的事件进行分析,没有将动作、事件以及场景理解进行有机的结合。
对于视频事件的分析与理解,有一类方法是直接将视频数据作为输入,提取特征,进而进行视频事件的识别。这样做的一个问题是视频中包含了大量的与事件无关的信息,例如背景中的无关物体以及与事件无关的人的运行等,直接将视频作为输入可能会导致无关信息对事件识别产生干扰,使得事件的分析与理解无法得到满意的效果。因此本书中采取的视频事件分析与理解方法是首先检测视频中感兴趣的目标(包括人和事件涉及的物体),并对这些目标进行跟踪,得到感兴趣的目标在每一帧的位置和大小等信息,根据每一帧中人的姿态以及与感兴趣物体的位置关系来检测原子动作,进而进行视频事件的分析与理解。
本书详细介绍了作者近年来在视频事件分析与理解方面所做的工作,主要包括以下3个方面的内容。
(1)场景中的物体检测方法研究。检测出场景中的人以及感兴趣的物体是进行后续视频事件分析与理解的前提和基础,我们采用基于深度通道特征的行人检测方法对场景中的行人进行检测,采用特征共享的联合Boosting方法进行场景中其他感兴趣物体的检测。
(2)视频中的目标跟踪方法研究。检测到场景中的行人及感兴趣物体后,需要对它们进行跟踪,得到它们的轨迹,这些信息是后续的视频事件分析的基础。针对行人的特点,我们基于多分量可变部件模型对视频中的人进行跟踪,而采用半监督的基于锚点标签传播的跟踪方法对视频中其他物体进行跟踪。
(3)基于时序与或图的视频事件分析与理解方法。在得到了场景中人及其他物体的轨迹后,我们采用基于人的姿态以及人与物体的位置关系的一元及二元关系来表示原子动作,使用时序与或图来建模事件,表现子事件以及原子动作之间的层次关系和原子动作之间的时序关系,研究事件时序与或图模型的自动学习方法、基于时序与或图模型的事件解析方法以及基于环境上下文信息的事件解析方法。本书结构如下。
第1章介绍了视频事件分析与理解的研究现状,主要包括目标检测的研究现状、目标跟踪的研究现状以及视频事件分析与理解的研究现状。第2章介绍了视频中的目标检测方法,包括基于深度通道特征的行人检测方法以及基于特征共享和联合Boosting方法的物体检测方法。第3章介绍了基于多分量可变部件模型的行人跟踪方法和基于锚点标签传播的物体跟踪方法。第4章介绍了事件的时序与或图模型及其自动学习方法。第5章介绍了基于时序与或图模型的事件分析方法。第6章介绍了基于关键原子动作和上下文信息的事件识别方法。
本书总结了作者和研究组成员在视频事件分析与理解这一研究领域所取得的学术成果,其中包括贺洋、刘钊在行人检测方面的研究成果(第2章),刘钊在行人跟踪方面的研究成果和武玉伟在一般目标跟踪方面的研究成果(第3章),裴明涛在事件与或图模型学习及事件解析方面的研究成果(第4、5章),赵猛、王亚菲在基于关键原子动作和上下文信息的事件识别方面的研究成果(第6章)。
本书中的工作得到了国家自然科学基金(No.61472038)以及中国博士后科学基金(No.2018M642680)的资助。
本书是对视频事件分析与理解这一重要问题所涉及的理论和方法的研讨与总结。可以给读者提供一个有益的参考,以普及对于视频事件分析与理解的认知和理解,进而推广其应用。本书对同行研究者,以及对目标检测、跟踪和事件识别相关领域的研究者和爱好者,也具有一定的参考意义。
|
|