登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入   新用戶註冊
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / 物流,時效:出貨後2-4日

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

2024年06月出版新書

2024年05月出版新書

2024年04月出版新書

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

2023年11月出版新書

2023年10月出版新書

2023年09月出版新書

『簡體書』行人重识别技术

書城自編碼: 3720659
分類: 簡體書→大陸圖書→教材高职高专教材
作者: 荆晓远
國際書號(ISBN): 9787030696342
出版社: 科学出版社
出版日期: 2022-01-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:NT$ 587

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
炙野(全2册)
《 炙野(全2册) 》

售價:NT$ 356.0
女人的胜利
《 女人的胜利 》

售價:NT$ 254.0
数据有道:数据分析+图论与网络+微课+Python编程(鸢尾花数学大系:从加减乘除到机器学习)
《 数据有道:数据分析+图论与网络+微课+Python编程(鸢尾花数学大系:从加减乘除到机器学习) 》

售價:NT$ 1214.0
500万次倾听:陪伤心的人聊聊
《 500万次倾听:陪伤心的人聊聊 》

售價:NT$ 245.0
英国商业500年(见证大国崛起与企业兴衰,启迪未来商业智慧。)
《 英国商业500年(见证大国崛起与企业兴衰,启迪未来商业智慧。) 》

售價:NT$ 367.0
万千心理·儿童心理治疗中的心智化:临床实践指导
《 万千心理·儿童心理治疗中的心智化:临床实践指导 》

售價:NT$ 398.0
自我囚禁的人:完美主义的心理成因与自我松绑(破除你对完美主义的迷思,尝试打破自我评价过低与焦虑的恶性循环)
《 自我囚禁的人:完美主义的心理成因与自我松绑(破除你对完美主义的迷思,尝试打破自我评价过低与焦虑的恶性循环) 》

售價:NT$ 301.0
周易
《 周易 》

售價:NT$ 203.0

建議一齊購買:

+

NT$ 214
《 国际企业管理(第四版) 》
+

NT$ 288
《 植物与植物生理(第二版) 》
+

NT$ 354
《 国际货运代理业务处理(第二版) 》
+

NT$ 193
《 医药电子商务(高等职业教育药学类与食品药品类专业第四轮教材) 》
+

NT$ 245
《 审计实务(第三版) 》
+

NT$ 442
《 临床医学概要(第3版/高职药学/配增值) 》
內容簡介:
行人重识别是计算机视觉领域的重要分支。本书在内容上涵盖了部分传统的以及当前主流的行人重识别算法。全书共13章,分为5个部分:第1部分(第1章和第2章)阐述行人重识别的研究现状以及一些传统的方法和数据库;第2部分(第3~5章)介绍度量学习在行人重识别中的应用与研究;第3部分(第6~9章)讨论一些基于字典学习的行人重识别方法;第4部分(第10~12章)对当前流行的深度学习行人重识别算法进行探讨和分析;第5部分(第13章)介绍行人重识别数据库的采集与构建方法。
本书可供图像检索和行人重识别相关领域研究人员和工程技术人员阅读参考,也可供对机器学习及行人重识别技术感兴趣的人士参考。
目錄
第1部分 绪论
第1章 行人重识别概论 3
1.1 课题背景与意义 3
1.2 行人重识别研究现状与进展 4
1.2.1 基于图像的行人重识别研究 5
1.2.2 基于视频的行人重识别研究 6
1.2.3 分类与评价方法 6
1.3 行人重识别研究不足与展望 7
1.4 本书的内容安排 9
参考文献 9
第2章 行人重识别研究综述 11
2.1 传统的行人重识别方法 12
2.1.1 基于特征表示的方法 12
2.1.2 基于匹配模型的方法 15
2.1.3 基于距离度量学习的方法 16
2.1.4 稀疏表示相关技术 22
2.2 基于深度学习的方法 24
2.3 行人重识别数据库现状 27
2.3.1 基于图像的数据库 27
2.3.2 基于视频的数据库 29
参考文献 31
第2部分 度量学习在行人重识别中的应用与研究
第3章 基于负样本区别对待的度量学习行人重识别算法 35
3.1 伪装者样本定义及本章研究内容 35
3.2 伪装者样本与正确匹配样本对的对应关系及伪装者样本去除 37

3.3 基于负样本区别对待的度量学习 38
3.3.1 负样本划分 39
3.3.2 问题建模 39
3.3.3 目标函数优化 40
3.4 实验设置与结果 41
3.4.1 VIPeR数据集上的实验结果 42
3.4.2 ETHZ数据集上的实验结果 43
3.4.3 i-LIDS数据集上的实验结果 43
3.5 LISTEN有效性评估 44
3.5.1 对称三元组约束的作用 44
3.5.2 良好可分负样本的作用 45
参考文献 46
第4章 基于集合的度量学习行人重识别算法 48
4.1 基于集合的度量学习与本章的研究内容 48
4.2 与SI2DL相关的工作 50
4.2.1 基于视频的行人重识别 50
4.2.2 基于集合的度量学习 51
4.3 视频内和视频间度量学习方法 51
4.3.1 问题建模 51
4.3.2 目标函数优化 53
4.3.3 计算复杂度和收敛性分析 56
4.4 实验设置与结果 56
4.4.1 iLIDS-VID数据集上的实验结果 57
4.4.2 PRID 2011数据集上的实验结果 58
4.5 对SI2DL的讨论与分析 59
4.5.1 学习一对距离度量与一个公共度量的比较 59
4.5.2 视频内和视频间距离度量的维度的影响 60
4.5.3 和其他基于集合的度量学习方法对比 60
参考文献 61
第5章 其他相关的度量学习技术 63
5.1 NK3ML 63
5.2 HAP2S 65
5.3 深度度量嵌入 67
参考文献 69
第3部分 字典学习在行人重识别中的应用与研究
第6章 基于投影和异质字典对学习的图像到视频行人重识别 73
6.1 图像到视频行人重识别研究基础与本章的研究内容 73
6.2 基于投影和异质字典对学习的方法 75
6.2.1 问题建模 75
6.2.2 目标函数优化 77
6.2.3 计算复杂度 79
6.2.4 使用学到的字典对和映射矩阵进行图像到视频的行人重识别 80
6.2.5 和已有字典学习方法的比较 80
6.3 实验设置与结果 81
6.3.1 数据集介绍 81
6.3.2 实验设置 81
6.3.3 结果和分析 82
6.4 对PHDL的讨论和分析 84
6.4.1 特征投影矩阵的作用 84
6.4.2 字典和特征投影矩阵的大小的影响 84
6.4.3 参数分析 85
6.4.4 收敛性分析 87
参考文献 87
第7章 基于半耦合低秩鉴别字典的超分辨率行人重识别算法 89
7.1 低分辨率行人重识别分析 89
7.1.1 研究动机 90
7.1.2 主要贡献 91
7.2 与SLD2L相关的工作 91
7.2.1 基于耦合字典学习的图像超分辨率方法 92
7.2.2 基于半监督耦合字典学习的行人重识别方法 92
7.2.3 半耦合字典学习方法 92
7.2.4 与相关方法对比 93
7.3 半耦合低秩鉴别字典学习方法 94
7.3.1 问题建模 94
7.3.2 目标函数优化 96
7.4 多视图半耦合低秩鉴别字典学习方法 99
7.5 利用学到的字典和映射进行超分辨率行人重识别 102
7.5.1 半耦合低秩鉴别字典学习方法用于重识别 102
7.5.2 多视图半耦合低秩鉴别字典学习方法用于重识别 103
7.6 实验设置与结果 104
7.7 对SLD2L和MSLD2L的讨论和分析 112
7.7.1 目标函数中各功能项的作用 112
7.7.2 图像块大小的影响 113
7.7.3 聚类个数的影响 113
7.7.4 字典大小的影响 114
7.7.5 低分辨率测试图像的分辨率的影响 115
7.7.6 Probe图像为混合分辨率情况下的对比 115
7.7.7 低分辨率训练图像的分辨率的影响 115
7.7.8 特征数量的影响 116
7.7.9 MVSLD2L和SSCDL方法的进一步比较 117
7.7.10 计算代价 118
参考文献 118
第8章 基于双重特征的字典学习 120
8.1 背景与贡献 120
8.1.1 研究内容 120
8.1.2 相关工作 121
8.2 基于双重特征的度量学习 124
8.2.1 算法基本思想 124
8.2.2 目标函数介绍 125
8.2.3 目标函数求解 126
8.3 基于稀疏表示的多字典学习 127
8.3.1 问题建模 127
8.3.2 目标函数优化 129
8.3.3 目标函数求解 129
8.3.4 算法总结 131
8.4 实验设置与结果 132
8.4.1 基于双重特征的度量学习算法实验 133
8.4.2 基于稀疏表示的多字典学习算法实验 136
参考文献 140

第9章 其他相关的字典学习技术 142
9.1 CPDL 142
9.2 DSPDL 143
9.3 拉普拉斯正则字典学习 144
参考文献 145
第4部分 深度学习在行人重识别中的应用与研究
第10章 基于对称三元组约束的深度度量学习 149
10.1 关于负类样本的分割问题 150
10.2 基于对称三元组约束及易区分样本区别对待的深度度量学习 151
10.2.1 样本预计算 151
10.2.2 问题建模 151
10.2.3 目标函数优化 152
10.2.4 STDML在行人重识别中的应用 154
10.3 数据集 154
10.4 实验细节 154
10.5 实验结果 155
参考文献 156
第11章 基于跨模态特征生成和目标信息保留的无监督图像到视频匹配的行人
重识别算法 158
11.1 引言 158
11.2 无监督图像到视频的行人重识别模型 160
11.2.1 问题建模 160
11.2.2 特征表示 160
11.2.3 跨模态特征生成和目标信息保留 161
11.2.4 跨模态行人重识别方法 162
11.2.5 与其他GAN方法的对比 163
11.3 实验与分析 163
11.3.1 数据集介绍 164
11.3.2 实验细节 164
11.3.3 结果与分析 165
11.3.4 讨论 166
参考文献 167

第12章 行人重识别中其他典型的深度学习方法 169
12.1 通过GAN生成的无标签样本 169
12.1.1 目标函数构建 169
12.1.2 实验设置与结果 170
12.2 循环卷积网络在视频行人重识别中的应用 171
12.2.1 Siamese网络基础 171
12.2.2 实验设置与结果 172
参考文献 173
第5部分 行人重识别数据库采集方法
第13章 行人重识别数据库的采集方法 177
13.1 场景设定与相机部署 177
13.2 行人分割与归一化 180
参考文献 181
內容試閱
近年来,由于社会安全形势的日趋复杂和安防需求的日益增长,全国各地以平安城市为代表的安防监控系统得到大规模普及应用,社会安全形势得到显著改善。这些监控不断地产生大量的监控数据,传统的视频监控加人工检索判读的方式存在效能低下、效果不佳、人力资源消耗大等突出问题,发展高效、精准、鲁棒的行人重识别技术能有效解决这些问题。行人重识别关注的问题是:计算机程序如何从海量的行人图像或视频中快速准确地找到与给定的行人影像匹配的行人图像或视频。 本书涵盖各种基于机器学习的行人重识别方法研究,不仅包含已被深入探讨过的传统方法,还包含当前的研究热门和富有成效的深度学习方法,以及对行人重识别任务中数据采集工作的实践指导。全书共13章,每章后面都附有详细的参考文献,以方便读者查阅。按内容相关性,本书可分为5个部分: 第1部分(第1章和第2章)阐述行人重识别研究现状、进展、不足与展望,以及机器学习方法和相关数据库。 第2部分(第3~5章)介绍度量学习在行人重识别中的应用与研究,深入探讨了基于负样本区别对待的度量学习行人重识别算法和基于集合的度量学习行人重识别算法。此外,还介绍了经典的NK3ML、HAP2S及深度度量嵌入方法。 第3部分(第6~9章)讨论字典学习在行人重识别中的应用与研究,详细研究了基于投影和异质字典对学习的图像到视频行人重识别方法、基于半耦合低秩鉴别字典的超分辨率行人重识别方法和基于双重特征的字典学习方法。除此之外,还介绍了跨视图投影字典学习(cross-view projective dictionary learning,CPDL)、判别式半耦合投影学习字典(discriminative semi-coupled projective dictionary learning,DSPDL)和拉普拉斯正则字典学习3个经典的字典学习技术。 第4部分(第10~12章)分析深度学习在行人重识别中的应用与研究,包括基于对称三元组约束的深度度量学习、基于跨模态特征生成和目标信息保留的无监督图像到视频的行人重识别算法的详细情况,同时对两种典型的基于深度学习的行人重识别算法进行介绍。 第5部分(第13章)介绍行人重识别数据库采集与方法,主要包括场景设定、相机部署、行人分割与归一化。 随着越来越多的研究者投身于行人重识别技术的研究中,行人重识别技术的发展愈发迅速,笔者仅结合自身在行人重识别方面的研究对近年主流的行人重识别技术进行了归纳和阐述,因所知有限且限于篇幅,本书未能尽述所有行人重识别技术。此外,笔者虽竭尽所能地避免错漏不当之处,但受时间和精力所限,书中不妥之处在所难免,若蒙各位读者同行不吝告知,将不胜感激。 荆晓远 2021年6月于广东石油化工学院

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 台灣用户 | 香港/海外用户
megBook.com.tw
Copyright (C) 2013 - 2024 (香港)大書城有限公司 All Rights Reserved.