新書推薦:
《
诛吕:“诸吕之乱”的真相与吕太后时期的权力结构
》
售價:NT$
454.0
《
炙野(全2册)
》
售價:NT$
356.0
《
女人的胜利
》
售價:NT$
254.0
《
数据有道:数据分析+图论与网络+微课+Python编程(鸢尾花数学大系:从加减乘除到机器学习)
》
售價:NT$
1214.0
《
500万次倾听:陪伤心的人聊聊
》
售價:NT$
245.0
《
英国商业500年(见证大国崛起与企业兴衰,启迪未来商业智慧。)
》
售價:NT$
367.0
《
万千心理·儿童心理治疗中的心智化:临床实践指导
》
售價:NT$
398.0
《
自我囚禁的人:完美主义的心理成因与自我松绑(破除你对完美主义的迷思,尝试打破自我评价过低与焦虑的恶性循环)
》
售價:NT$
301.0
編輯推薦:
本书以深度学习中的图像分类和对抗技术为切入点,通过介绍深度学习的基本知识、神经网络模型、图像分类对抗环境和对抗样本评价标准,来说明对抗样本产生的基本原理;通过描述对抗样本生成过程实例,以及三种典型的图像分类对抗算法详解,来介绍对抗样本的本质和优化过程。本书适合高年级本科生、研究生以及对图像分类中的对抗技术感兴趣的研究人员参考。
內容簡介:
随着计算机技术的飞速发展,人工智能已经渗入人们的日常生活,且在图像分类、目标识别、自然语言处理等领域显示了良好的效果和前景。但是,人工智能及其分支技术有一些特定的脆弱性,在某些场景下容易受到欺骗和攻击,若不对此采取一定措施,就有可能造成严重的后果。本书通过介绍针对图像分类的对抗技术,描述了深度神经网络被欺骗的过程,以此引出了对其脆弱性的一般攻击手段,期望能反向促进机器学习、深度学习、神经网络等领域的健康发展。
本书适合高年级本科生、研究生以及对图像分类中的对抗技术感兴趣的研究人员参考。
關於作者:
张全新,男,1974年生,北京理工大学博士,中科院博士后,美国康涅狄格大学访问学者。主要研究领域为信息安全,机器学习。现任职于北京理工大学计算机学院。至今已在InformationSciences,Journal of Network and Computer Applications等期刊上发表论文10余篇。以第一发明人获得国家发明专利授权3项。获得总参谋部科技进步三等奖一项,工业与信息化部科技进步三等奖一项,省级优秀教材三等奖一项,校级研究生教育教学成果奖一项。主持国家自然科学基金面上项目等国家ji项目多项。
目錄 :
第1章 深度学习中的图像分类技术概述
1.1 深度学习的主要特点及应用领域
1.2 图像分类的发展历程
第2章 面向图像分类的主要神经网络模型
2.1 神经网络层次
2.2 神经网络模型
第3章 图像分类对抗概述
3.1 深度神经网络的脆弱性
3.2 对抗目标环境及对抗效果类型
3.3 主要评价标准
3.4 对抗样本生成过程实例
3.5 智能防御
第4章 三种图像分类对抗方法详解
4.1 基于梯度计算的对抗方法
4.1.1 数据集和相关工具
4.1.2 实验目的
4.1.3 方案概述
4.1.4 实验验证
4.1.5 算法改进
4.2 基于粒子群优化的对抗方法
4.2.1 粒子群优化算法的思想
4.2.2 粒子群优化算法的流程
4.2.3 图像的相似性度量
4.2.4 基于PSO的目标攻击方案设计
4.2.5 实验与结果分析
4.3 基于CMA的黑盒攻击方案设计
4.3.1 问题提出
4.3.2 基于CMA的对抗样本生成方法
4.3.3 方案设计
4.3.4 主要数据结构及算法实现
4.3.5 实验原理验证
4.3.6 算法评价
参考文献
內容試閱 :
随着计算机技术的飞速发展,人工智能已经渗入人们的日常生活。机器学习以及由此衍生出来的深度学习技术是目前炙手可热的研究方向,AlphaGo人脸识别等已成为出现频率极高的词汇。目前,深度学习已经广泛应用在计算机视觉、语音识别、自然语言处理与生物信息学等领域,并取得了很好的效果。鉴于深度学习的优秀表现,人们已经将深度学习应用于更多的、涉及信息安全的重要领域。但随着深度神经网络应用的日益广泛,其安全问题越来越突出,这吸引了众多学者的目光。研究表明,深度神经网络在一些情况下是脆弱的,其脆弱性可能对用户(甚至社会)造成一定危害。针对图像分类和目标检测领域,如果在人脸身份认证、自动驾驶等安全领域存在利用对抗样本进行欺骗的行为,将导致极为严重的后果。例如,对于人脸身份认证领域中的人脸支付或者人脸解锁应用,如果有恶意分子假冒当事人付款或者解锁手机,将对当事人造成不必要的损失;在自动驾驶领域中,如果有不法分子对交通标志牌做手脚,以欺骗自动驾驶汽车,将导致汽车不能正确识别标志牌或者将其错误分类,后果将不堪设想。
对抗样本虽然不一定能愚弄人类,但有很高概率可以欺骗深度神经网络。对抗样本的存在让人们对深度神经网络有了进一步认识,即深度神经网络并非绝对可靠。为了防止此类欺骗行为,就需要深入研究神经网络脆弱性的原因,以及对抗样本产生的内在机理。对于对抗样本的研究将对深度神经网络的发展起到促进作用。
本书以深度学习中的图像分类和对抗技术为切入点,通过介绍深度学习的基本知识、神经网络模型、图像分类对抗环境和对抗样本评价标准,来说明对抗样本产生的基本原理;通过描述对抗样本生成过程实例,以及三种典型的图像分类对抗算法详解,来介绍对抗样本的本质和优化过程。
本书的出版得到了国家自然科学基金项目(61876019)的资助。本书3.4节中示例1、示例2的程序代码由张文娇提供,示例3的程序代码由刘洪毅提供,周宇田、童逍瑶、刘洪毅、张文娇参与了本书的校稿工作,在此向其表示衷心感谢。本书在成稿过程中,引用、参考了一些教材、学术著作、论文、网络文献、在线文章(包括百度、知乎、简书、腾讯、CSDN、阿里云、InfoQ、微软等网站上的资讯或网帖)的内容、思路和学术观点,无法逐一全部列出,在此向原文作者及原始内容贡献者表示诚挚的谢意。
本书的写作目的是激发深度学习图像分类对抗技术爱好者的兴趣,以共同探究对抗样本产生的原因。由于时间仓促,加之笔者水平有限,书中难免有不当之处,请广大读者、专家指正并海涵。