本文按照时间顺序整理了机器学习的攻防对抗近些年来的文献,希望能和对该领域感兴趣的研究人员做一个分享。
有些文献我只是大概地浏览了一下,如下文有错误,请为我指出来,感激不尽!
感兴趣的朋友可以在评论里交流(勿喷),或者可以认识一下(留下联系方式)。?
持续更新中。。。
文章目录
- 1. 2013年以前
- 2. 2014年
- 3. 2015年
- 4. 2016年
- 5. 2017年
- 5.1 ***Practical Black-Box Attacks against Machine Learning***
- 6. 2018年
- 7. 2019年
本文将按照:发表时间、论文名、收录会议(C)或期刊(J)等 的顺序列出文献并对其作简要介绍
其中:
**
P, publication, 发表信息
A / T,attack \ defence,攻击 \ 防御
M,method,所用的方法
D,dataset,数据集
R,result,实验结果
C,contribution,作者的主要贡献
红色、蓝色、黑色的文章标题是我认为文章的阅读价值降序**
1. 2013年以前
2. 2014年
3. 2015年
4. 2016年
5. 2017年
5.1 Practical Black-Box Attacks against Machine Learning
P
Papernot N, McDaniel P, Goodfellow I, et al. Practical black-box attacks against machine learning[C]//Proceedings of the 2017 ACM on Asia Conference on Computer and Communications Security. ACM, 2017: 506-519.
A
黑盒攻击
M
- 选出部分测试数据使用黑盒检测器打标签。
- 将其交给替代检测器学习训练。
- 使用基于雅克比的数据增强方法扩充数据并再次使用黑盒检测器打标签。
- 以此方式迭代,使得替代检测器的决策边界逼近黑盒检测器。
- 使用FGSM等白盒攻击方法生成替代检测器的对抗样本,并用其攻击黑盒检测器。
R
使MetaMind远端分类器达到84.24%的错误率。
校准后,使Amazon和Google的分类器分布达到了96.19%和88.94%的错误率。
C
作者都是大佬,文章提出的方法很有开创性,做的实验完整,结果也很不错。
感兴趣的可以看:我的阅读笔记