新書推薦:

《
当代资本主义日常生活金融化研究
》
售價:HK$
140.8

《
证明的故事:从勾股定理到现代数学
》
售價:HK$
131.8

《
雀鸟与群狼的对决:扭转战局的兵棋游戏
》
售價:HK$
96.8

《
老年膳食与营养配餐 第2版
》
售價:HK$
49.5

《
中国丝绸艺术大系·广东省博物馆卷
》
售價:HK$
1078.0

《
海外中国研究·中国乐书:从战国到北宋
》
售價:HK$
162.8

《
明代赋役与白银——梁方仲著作集
》
售價:HK$
79.2

《
量子纠缠
》
售價:HK$
63.8
|
編輯推薦: |
适读人群 :机器学习工程师;数据挖掘从业者;数据科学家;信息安全领域的学生和从业人员。
讨论机器学习中的安全性问题,即讨论各种干扰机器学习系统输出正确结果的攻击方法以及对应的防御方法。
|
內容簡介: |
《对抗机器学习》由机器学习安全领域的学者撰写,针对存在安全威胁的对抗性环境,讨论如何构建健壮的机器学习系统,涵盖所涉及的理论和工具。
《对抗机器学习》分为四部分,分别讨论对抗机器学习的基本概念、诱发型攻击、探索性攻击和未来发展方向。
《对抗机器学习》中介绍了当前实用的工具,你将学会利用它们来监测系统安全状态并进行数据分析,从而设计出有效的对策来应对新的网络攻击;详细讨论了隐私保护机制和分类器的近似优规避,在关于垃圾邮件和网络安全的案例研究中,深入分析了传统机器学习算法为何会被成功击破;全面概述了该领域的新技术以及未来可能的发展方向。
《对抗机器学习》适合机器学习、计算机安全、网络安全领域的研究人员、技术人员和学生阅读。
|
關於作者: |
安东尼·D.约瑟夫(Anthony D.Joseph),加州大学伯克利分校电子工程与计算机科学系教授,曾任伯克利Intel实验塞主管。
布莱恩·尼尔森(Blamne Nelson),谷歌公司CAT(Counter-Abuse Technology)团队软件工程师,曾任教于波茨坦大学和图宾根大学。
本杰明·I.P.鲁宾斯坦(Benjamin I.P.Rubinstein),墨尔本大学计算与信息系统系副教授,曾任职于微软研究院、谷歌研究院和IBM研究院。
J.D.泰格(J.D.Tygar),加州大学伯克利分校电子工程与计算机科学系教授,曾任教于卡内基·梅隆大学。
|
目錄:
|
译者序
致谢
符号表
部分对抗机器学习概述
第1章引言
11动机
12安全学习的原则性方法
13安全学习年表
14本书内容概述
第2章背景知识及符号说明
21基本表示
22统计机器学习
221数据
222假设空间
223学习模型
224监督学习
225其他学习模式
第3章安全学习框架
31学习阶段分析
32安全分析
321安全目标
322威胁模型
323安全中的机器学习应用探讨
33框架
331分类
332对抗学习博弈
333对抗能力特征
334攻击
335防御
34探索性攻击
341探索性博弈
342探索性完整性攻击
343探索性可用性攻击
344防御探索性攻击
35诱发型攻击
351诱发型博弈
352诱发型完整性攻击
353诱发型可用性攻击
354防御诱发型攻击
36重复学习博弈
37隐私保护学习
371差分隐私
372探索性和诱发型隐私攻击
373随机效用
第二部分关于机器学习的诱发型攻击
第4章攻击一个超球面学习者
41超球面检测器的诱发型攻击
411学习假设
412攻击者假设
413分析方法论
42超球面攻击描述
421取代质心
422攻击的正式描述
423攻击序列的特征
43无约束攻击
44对攻击施加时间限制
441可变质量的堆叠块
442替代配方
443松弛解
45使用数据替换进行重新训练的攻击
451平均输出和随机输出替换策略
452近输出替换策略
46受限制的攻击者
461贪婪攻击
462混合数据攻击
463扩展
47总结
第5章可用性攻击案例研究:SpamBayes
51SpamBayes垃圾邮件过滤器
511SpamBayes的训练算法
512SpamBayes的预测
513SpamBayes的模型
52SpamBayes的威胁模型
521攻击者目标
522攻击者知识
523训练模型
524污染假设
53对SpamBayes学习者的\\诱发型攻击
531诱发型可用性攻击
532诱发型完整性攻击——伪垃圾邮件
54拒绝负面影响防御
55使用SpamBayes进行实验
551实验方法
552字典攻击结果
553集中攻击结果
554伪垃圾邮件攻击实验
555RONI结果
56总结
第6章完整性攻击案例研究:主成分分析检测器
61PCA方法用于流量异常检测
611流量矩阵和大规模异常
612用于异常检测的子空间方法
62腐蚀PCA子空间
621威胁模型
622无信息垃圾流量选择
623局部信息垃圾流量选择
624全局信息垃圾流量选择
625温水煮青蛙式攻击
63腐蚀抵御检测器
631直觉
632PCAGRID方法
633鲁棒的拉普拉斯阈值
64实证评估
641准备
642识别易受攻击流
643攻击评估
644ANTIDOTE评估
645温水煮青蛙式毒化攻击实证评估
65总结
第三部分关于机器学习的探索性攻击
第7章用于SVM学习的隐私保护机制
71隐私泄露案例研究
711马萨诸塞州员工健康记录
712AOL搜索查询日志
713Netflix奖
714Twitter昵称的去匿名化
715全基因组关联研究
716广告微目标
717经验教训
72问题定义:隐私保护学习
721差分隐私
722可用性
723差分隐私的历史研究方向
73支持向量机:简单介绍
731平移不变核
732算法的稳定性
74基于输出干扰的差分隐私
75基于目标函数干扰的差分隐私
76无限维特征空间
77差分隐私的界限
771上界
772下界
78总结
第8章分类器的近似规避
81近似规避的特征
811对抗成本
812近似规避
813搜索的术语
814乘法性与加法性
815凸诱导性分类器族
82l1成本凸类的规避
821对于凸X f的IMAC搜索
822对于凸X-f的IMAC学习
83一般lp成本的规避
831凸正集
832凸负集
84总结
841近似规避中的开放问题
842规避标准的替代
843现实世界的规避
第四部分对抗机器学习的未来方向
第9章对抗机器学习的挑战
91讨论和开放性问题
911对抗博弈的未探索组件
912防御技术的发展
92回顾开放性问题
93结束语
附录A学习和超几何背景知识
附录B超球面攻击的完整证明
附录CSpamBayes分析
附录D近似规避的完整
证明
术语表
参考文献
|
內容試閱:
|
随着机器学习的迅速发展与广泛应用,许多机器学习算法和数据面临的威胁逐渐浮出水面。例如,攻击者可能会利用分类器的漏洞,引发错误分类或者提取敏感信息。为了应对上述挑战,近年来学术界和工业界致力于研究对抗机器学习,在对抗性环境下发现机器学习算法中存在的漏洞,设计更加安全的新算法。
2017年,剑桥大学出版社出版了由Anthony D.Joseph、Blamne Nelson、Benjamin I.P.Rubinstein和J.D.Tygar四位学者撰写的Adversarial Machine Learning一书。四位学者一直耕耘在对抗机器学习领域的前沿,是诸多机器学习算法漏洞的主要发现者和安全性机器学习新算法的贡献者。
本书系统地介绍了对抗机器学习的概念、原理、技术与发展方向,主要包括四个部分。部分介绍对抗机器学习的基本概念,包括机器学习算法安全性评估框架和漏洞分类方法等。第二部分探讨机器学习的诱发型攻击,即攻击者通过影响训练数据来欺骗学习模型。第三部分介绍机器学习的探索性攻击,即在不污染数据的情况下,试探学习模型中存在的漏洞。第四部分探讨对抗机器学习未来的发展方向。
这是一本通过安全应用介绍对抗机器学习的书籍,它着眼于病毒、垃圾邮件和网络异常检测等实际应用领域,系统介绍了对抗场景、攻击方法和防御方法。书中体现了作者对安全应用中对抗机器学习的理解和思考,处处蕴含着深刻的思想,耐人寻味,引人深思。其中,第1章关于安全领域对抗机器学习场景、历史发展等的论述尤为透彻、精辟。
作者指出,对抗机器学习起源于人工智能和计算机安全领域过去20年的研究积累,许多安全问题开始需要自适应的学习模型,并且学习模型在恶意数据下的漏洞变得明显,这形成了安全领域对抗机器学习的基础。作者还详细介绍了自1940年以来促进安全领域对抗机器学习发展的重大事件年表。
作者分析了学习模型存在诸多威胁的原因,认为:“威胁实际上来自对手适应学习过程的能力。一个信息量充足的对手可以根据对学习模型缺点的了解而改变其攻击方法,或者通过巧妙地构造数据、破坏或欺骗学习过程来误导它(例如垃圾邮件发送者通常会修改消息以规避垃圾邮件检测器)。通过这种方式,恶意用户能够扰乱学习过程,从而破坏系统服务,甚至威胁到整个系统。”
作者指出:“计算机安全的个准则是在部署或广泛使用系统之前主动进行研究以预防潜在的攻击。关于系统安全性的分析和公开辩论能够为它提供一定的置信度。”为了发现机器学习算法的潜在威胁,作者设计了一个安全性评估框架,用于识别和分析学习模型面临的威胁,并用这个框架系统地探索几个学习模型的漏洞。
谈到防御方法,作者认为:“防御的发展将不可避免地造成军备竞赛,因此成功的防御必须预见潜在的反击,并证明它们能够抵御合理的威胁。”为了设计更好的防御策略,作者提出了攻击者和防御者之间的安全博弈策略,这些策略是针对攻击者所实施的特定类型的威胁而设计的。
|
|