1. 磐创AI首页
  2. 系列教程
  3. PyTorch

PyTorch专栏(十二):一文综述图像对抗算法

本文是全系列中第21 / 24篇:Pytorch 专栏

PyTorch专栏(十二):一文综述图像对抗算法

作者 | News

编辑 | 奇予纪

出品 | 磐创AI团队出品

【磐创AI 导读】:本篇文章讲解了PyTorch专栏的第四章中的生成对抗示例。本教程将提高您对ML(机器学习)模型的安全漏洞的认知,并将深入了解对抗性机器学习的热门话题。查看专栏历史文章,请点击下方蓝色字体进入相应链接阅读。查看关于本专栏的介绍:PyTorch专栏开篇。想要更多电子杂志的机器学习,深度学习资源,大家欢迎点击上方蓝字关注我们的公众号:磐创AI


专栏目录:
第一章:PyTorch之简介与下载
  • PyTorch简介
  • PyTorch环境搭建
第二章:PyTorch之60分钟入门
第三章:PyTorch之入门强化
第四章:PyTorch之图像篇
  • 微调基于torchvision 0.3的目标检测模型
  • 微调TorchVision模型
  • 空间变换器网络
  • 使用PyTorch进行神经传递
  • 生成对抗示例
  • 使用ONNX将模型转移至Caffe2和移动端
第五章:PyTorch之文本篇
  • 聊天机器人教程
  • 使用字符级RNN生成名字
  • 使用字符级RNN进行名字分类
  • 在深度学习和NLP中使用Pytorch
  • 使用Sequence2Sequence网络和注意力进行翻译
第六章:PyTorch之生成对抗网络
第七章:PyTorch之强化学习


PyTorch专栏(十二):一文综述图像对抗算法

生成对抗示例

本教程将提高您对ML(机器学习)模型的安全漏洞的认识,并将深入了解对抗性机器学习的热门话题。您可能会惊讶地发现,为图像添加难以察觉的扰动会导致模型性能大不相同。鉴于这是一个教程,我们将通过图像分类器上的示例探讨该主题。具体来说,我们将使用第一种也是最流行的攻击方法之一,即快速梯度符号攻击算法(FGSM)来迷惑 MNIST 分类器。

1.威胁模型

对于上下文,有许多类别的对抗性攻击,每种攻击具有不同的目标和对攻击者知识的假设。然而,通常,总体目标是向输入数据添加最少量的扰动以引起期望的错误分类。

对攻击者的知识有几种假设,其中两种是:白盒子和黑盒子。白盒攻击假定攻击者具有对模型的全部知识和访问权限,包括体系结构、输入、输出和权重。黑盒攻击假设攻击者只能访问模型的输入和输出,并且对底层架构或权重一无所知。还有几种类型的目标,包括错误分类和源/目标错误分类。错误分类的目标意味着攻击者只希望输出分类错误,但不关心新分类是什么。源/目标错误分类意味着攻击者想要更改最初属于特定源类的图像,以便将其归类为特定目标类。

FGSM 攻击是一种白盒攻击,其目标是错误分类。有了这些背景信息,我们现在可以详细讨论攻击。

2.FGSM(Fast Gradient Sign Attack)

快速梯度标志攻击(FGSM),是迄今为止最早和最受欢迎的对抗性攻击之一,它由 Goodfellow 等人在[Explaining and Harnessing Adversarial Examples]
(https://arxiv.org/abs/1412.6572)中提出,是一种简单但是有效的对抗样本生成算法。它旨在通过利用模型学习的方式和渐变来攻击神经网络。这个想法很简单,攻击调整输入数据以基于相同的反向传播梯度来最大化损失,而不是通过基于反向传播的梯度调整权重来最小化损失。换句话说,攻击是利用损失函数的梯度,然后调整输入数据以最大化损失。

在进入代码之前,先讲一下著名的 FGSM 熊猫示例并提取一些符号。

PyTorch专栏(十二):一文综述图像对抗算法

从图中可以看出,PyTorch专栏(十二):一文综述图像对抗算法是正确分类为“熊猫”的原始输入图像,PyTorch专栏(十二):一文综述图像对抗算法PyTorch专栏(十二):一文综述图像对抗算法的基本事实标签,
PyTorch专栏(十二):一文综述图像对抗算法代表模型参数,PyTorch专栏(十二):一文综述图像对抗算法是用于训练网络的损失。攻击是反向将梯度传播回输入数据以计算PyTorch专栏(十二):一文综述图像对抗算法

然后,它在一个方向上(即PyTorch专栏(十二):一文综述图像对抗算法)调整输入数据(图中的PyTorch专栏(十二):一文综述图像对抗算法或0.007),这将使损失最大化。然后,当目标网络仍然明显是“熊猫”时,由此产生的扰动图像PyTorch专栏(十二):一文综述图像对抗算法被错误地分类为“长臂猿”。

3.实现

在本节中,我们将讨论教程的输入参数,定义被攻击的模型,然后编写攻击代码并运行一些测试。

3.1 引入相关包

  1. from __future__ import print_function

  2. import torch

  3. import torch.nn as nn

  4. import torch.nn.functional as F

  5. import torch.optim as optim

  6. from torchvision import datasets, transforms

  7. import numpy as np

  8. import matplotlib.pyplot as plt

3.2 输入

本教程只有三个输入,定义如下:

  • epsilons:用于运行的epsilon值列表。在列表中保留0非常重要,因为它表示原始测试集上的模型性能。而且,我们期望epsilon越大,扰动就越明显,但就降低模型精度方面而言攻击越有效。由于此处的数据范围为[0,1],因此epsilon值不应超过1。

  • pretrained_model:pytorch/examples/mnist训练的预训练 MNIST模型的路径。为简单起见,请在此处下载预训练模型。

  • use_cuda:如果需要和可使用CUDA的布尔标志。注意,带有CUDA的GPU对本教程并不重要,因为本教程使用CPU不会花费太多时间。

epsilons = [0, .05, .1, .15, .2, .25, .3]pretrained_model = "data/lenet_mnist_model.pth"use_cuda=True

3.3 被攻击的模型

如上所述,受攻击的模型与pytorch/examples/mnist中的 MNIST 模型相同。您可以训练并保存自己的 MNIST 模型,也可以下载并使用提供的模型。此处的 Net 定义和测试数据加载器已从 MNIST 示例中复制。

本小节的目的是定义模型和数据加载器,然后初始化模型并加载预训练的权重。

  1. # 定义LeNet模型

  2. class Net(nn.Module):

  3. def __init__(self):

  4. super(Net, self).__init__()

  5. self.conv1 = nn.Conv2d(1, 10, kernel_size=5)

  6. self.conv2 = nn.Conv2d(10, 20, kernel_size=5)

  7. self.conv2_drop = nn.Dropout2d()

  8. self.fc1 = nn.Linear(320, 50)

  9. self.fc2 = nn.Linear(50, 10)


  10. def forward(self, x):

  11. x = F.relu(F.max_pool2d(self.conv1(x), 2))

  12. x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))

  13. x = x.view(-1, 320)

  14. x = F.relu(self.fc1(x))

  15. x = F.dropout(x, training=self.training)

  16. x = self.fc2(x)

  17. return F.log_softmax(x, dim=1)


  18. #声明 MNIST 测试数据集何数据加载

  19. test_loader = torch.utils.data.DataLoader(

  20. datasets.MNIST('../data', train=False, download=True, transform=transforms.Compose([

  21. transforms.ToTensor(),

  22. ])),

  23. batch_size=1, shuffle=True)


  24. # 定义我们正在使用的设备

  25. print("CUDA Available: ",torch.cuda.is_available())

  26. device = torch.device("cuda" if (use_cuda and torch.cuda.is_available()) else "cpu")


  27. # 初始化网络

  28. model = Net().to(device)


  29. # 加载已经预训练的模型

  30. model.load_state_dict(torch.load(pretrained_model, map_location='cpu'))


  31. # 在评估模式下设置模型。在这种情况下,这适用于Dropout图层

  32. model.eval()

  • 输出结果:

  1. Downloading http://yann.lecun.com/exdb/mnist/train-images-idx3-ubyte.gz to ../data/MNIST/raw/train-images-idx3-ubyte.gz

  2. Extracting ../data/MNIST/raw/train-images-idx3-ubyte.gz

  3. Downloading http://yann.lecun.com/exdb/mnist/train-labels-idx1-ubyte.gz to ../data/MNIST/raw/train-labels-idx1-ubyte.gz

  4. Extracting ../data/MNIST/raw/train-labels-idx1-ubyte.gz

  5. Downloading http://yann.lecun.com/exdb/mnist/t10k-images-idx3-ubyte.gz to ../data/MNIST/raw/t10k-images-idx3-ubyte.gz

  6. Extracting ../data/MNIST/raw/t10k-images-idx3-ubyte.gz

  7. Downloading http://yann.lecun.com/exdb/mnist/t10k-labels-idx1-ubyte.gz to ../data/MNIST/raw/t10k-labels-idx1-ubyte.gz

  8. Extracting ../data/MNIST/raw/t10k-labels-idx1-ubyte.gz

  9. Processing...

  10. Done!

  11. CUDA Available: True

3.4 FGSM算法攻击

现在,我们可以通过扰乱原始输入来定义创建对抗性示例的函数。fgsm_attack数有三个输入,PyTorch专栏(十二):一文综述图像对抗算法是原始的勿扰乱图像PyTorch专栏(十二):一文综述图像对抗算法PyTorch专栏(十二):一文综述图像对抗算法是像素方式的扰动量PyTorch专栏(十二):一文综述图像对抗算法PyTorch专栏(十二):一文综述图像对抗算法是输入图像的损失梯度PyTorch专栏(十二):一文综述图像对抗算法。然后该功能将扰动图像创建为:

PyTorch专栏(十二):一文综述图像对抗算法

最后,为了保持数据的原始范围,将扰动的图像剪切到范围[0,1]。

  1. # FGSM算法攻击代码

  2. def fgsm_attack(image, epsilon, data_grad):

  3. # 收集数据梯度的元素符号

  4. sign_data_grad = data_grad.sign()

  5. # 通过调整输入图像的每个像素来创建扰动图像

  6. perturbed_image = image + epsilon*sign_data_grad

  7. # 添加剪切以维持[0,1]范围

  8. perturbed_image = torch.clamp(perturbed_image, 0, 1)

  9. # 返回被扰动的图像

  10. return perturbed_image

3.5 测试函数

最后,本教程的核心结果来自测试功能。每次调用此测试函数都会对 MNIST 测试集执行完整的测试步骤,并报告最终的准确性。但是,请注意,此函数也需要输入PyTorch专栏(十二):一文综述图像对抗算法。这是因为test函数展示受到强度为PyTorch专栏(十二):一文综述图像对抗算法的攻击下被攻击模型的准确性。

更具体地说,对于测试集中的每个样本,该函数计算输入数据PyTorch专栏(十二):一文综述图像对抗算法的损失梯度,用fgsm_attack(perturbed_data)创建扰乱图像,然后检查扰动的例子是否是对抗性的。除了测试模型的准确性之外,该函数还保存并返回一些成功的对抗性示例,以便稍后可视化。

  1. def test( model, device, test_loader, epsilon ):


  2. # 精度计数器

  3. correct = 0

  4. adv_examples = []


  5. # 循环遍历测试集中的所有示例

  6. for data, target in test_loader:


  7. # 把数据和标签发送到设备

  8. data, target = data.to(device), target.to(device)


  9. # 设置张量的requires_grad属性,这对于攻击很关键

  10. data.requires_grad = True


  11. # 通过模型前向传递数据

  12. output = model(data)

  13. init_pred = output.max(1, keepdim=True)[1] # get the index of the max log-probability


  14. # 如果初始预测是错误的,不打断攻击,继续

  15. if init_pred.item() != target.item():

  16. continue


  17. # 计算损失

  18. loss = F.nll_loss(output, target)


  19. # 将所有现有的渐变归零

  20. model.zero_grad()


  21. # 计算后向传递模型的梯度

  22. loss.backward()


  23. # 收集datagrad

  24. data_grad = data.grad.data


  25. # 唤醒FGSM进行攻击

  26. perturbed_data = fgsm_attack(data, epsilon, data_grad)


  27. # 重新分类受扰乱的图像

  28. output = model(perturbed_data)


  29. # 检查是否成功

  30. final_pred = output.max(1, keepdim=True)[1] # get the index of the max log-probability

  31. if final_pred.item() == target.item():

  32. correct += 1

  33. # 保存0 epsilon示例的特例

  34. if (epsilon == 0) and (len(adv_examples) < 5):

  35. adv_ex = perturbed_data.squeeze().detach().cpu().numpy()

  36. adv_examples.append( (init_pred.item(), final_pred.item(), adv_ex) )

  37. else:

  38. # 稍后保存一些用于可视化的示例

  39. if len(adv_examples) < 5:

  40. adv_ex = perturbed_data.squeeze().detach().cpu().numpy()

  41. adv_examples.append( (init_pred.item(), final_pred.item(), adv_ex) )


  42. # 计算这个epsilon的最终准确度

  43. final_acc = correct/float(len(test_loader))

  44. print("Epsilon: {}tTest Accuracy = {} / {} = {}".format(epsilon, correct, len(test_loader), final_acc))


  45. # 返回准确性和对抗性示例

  46. return final_acc, adv_examples

3.6 运行攻击

实现的最后一部分是实际运行攻击。在这里,我们为 epsilons 输入中的每个 epsilon 值运行一个完整的测试步骤。对于每个epsilon,我们还保存最终的准确性,并在接下来的部分中绘制一些成功的对抗性示例。注意随着 epsilon 值的增加,打印精度会如何降低。

另外,请注意ε= 0的情况表示原始测试精度,没有攻击。

  1. accuracies = []

  2. examples = []


  3. # 对每个epsilon运行测试

  4. for eps in epsilons:

  5. acc, ex = test(model, device, test_loader, eps)

  6. accuracies.append(acc)

  7. examples.append(ex)

  • 输出结果:

  1. Epsilon: 0 Test Accuracy = 9810 / 10000 = 0.981

  2. Epsilon: 0.05 Test Accuracy = 9426 / 10000 = 0.9426

  3. Epsilon: 0.1 Test Accuracy = 8510 / 10000 = 0.851

  4. Epsilon: 0.15 Test Accuracy = 6826 / 10000 = 0.6826

  5. Epsilon: 0.2 Test Accuracy = 4301 / 10000 = 0.4301

  6. Epsilon: 0.25 Test Accuracy = 2082 / 10000 = 0.2082

  7. Epsilon: 0.3 Test Accuracy = 869 / 10000 = 0.0869

4.结果

4.1 准确度 vs Epsilon

第一个结果是精度与 epsilon 图。如前所述,随着 epsilon 的增加,我们期望测试精度降低。这是因为较大的 epsilons 意味着我们朝着最大化损失的方向迈出更大的一步。

请注意,即使 epsilon 值线性分布,曲线中的趋势也不是线性的。例如,ε= 0.05 时的精度仅比 ε= 0 低约 4%,但ε= 0.2 时的精度比 ε= 0.15 低 25%。另外,请注意在 ε= 0.25 和 ε= 0.3 之间模型的准确性达到10级分类器的随机精度。

  1. plt.figure(figsize=(5,5))

  2. plt.plot(epsilons, accuracies, "*-")

  3. plt.yticks(np.arange(0, 1.1, step=0.1))

  4. plt.xticks(np.arange(0, .35, step=0.05))

  5. plt.title("Accuracy vs Epsilon")

  6. plt.xlabel("Epsilon")

  7. plt.ylabel("Accuracy")

  8. plt.show()

PyTorch专栏(十二):一文综述图像对抗算法

4.2 样本对抗性示例

正如天底下没有免费午餐。在这种情况下,随着 epsilon 增加,测试精度降低,但同时扰动也在变得更容易察觉。

实际上,在攻击者必须考虑权衡准确度降级和可感知性。在这里,我们展示了每个 epsilon 值的成功对抗性示例的一些例子。图的每一行显示不同的 epsilon 值。第一行是ε= 0 的例子,它们代表没有扰动的原始“干净”图像。每个图像的标题显示“原始分类 – >对抗性分类。”注意,扰动在 ε= 0.15 时开始变得明显,并且在 ε= 0.3 时非常明显。然而,在所有情况下,尽管增加了噪音,人类仍然能够识别正确的类别。

  1. # 在每个epsilon上绘制几个对抗样本的例子

  2. cnt = 0

  3. plt.figure(figsize=(8,10))

  4. for i in range(len(epsilons)):

  5. for j in range(len(examples[i])):

  6. cnt += 1

  7. plt.subplot(len(epsilons),len(examples[0]),cnt)

  8. plt.xticks([], [])

  9. plt.yticks([], [])

  10. if j == 0:

  11. plt.ylabel("Eps: {}".format(epsilons[i]), fontsize=14)

  12. orig,adv,ex = examples[i][j]

  13. plt.title("{} -> {}".format(orig, adv))

  14. plt.imshow(ex, cmap="gray")

  15. plt.tight_layout()

  16. plt.show()

PyTorch专栏(十二):一文综述图像对抗算法

5.展望

希望通过本教程能够深入了解对抗机器学习。在这里有很多潜在的方向。这次攻击代表了对抗性攻击研究的开始,因为后来有很多关于如何从对手攻击和防御 ML 模型的想法。

事实上,在NIPS 2017上有一场对抗性攻击和防守比赛,文章:[Adversarial Attacks and Defences Competition](https://arxiv.org/pdf/1804.00097.pdf)描述了竞赛中使用的许多方法。防御方面的工作也让我们萌发了使机器学习模型在一般情况下更加健壮的想法,包括自然扰动和对抗性的输入。

另一个方向是不同领域的对抗性攻击和防御。对抗性研究不仅限于图像领域,对语音到文本模型的攻击可以查看这里。

但也许了解更多关于对抗性机器学习的最好方法就是动起手来。尝试从 NIPS 2017竞赛中实施不同的攻击,并了解它与 FGSM 的区别。然后,尝试从您自己的攻击中保护模型。



相关文章链接:

  • [Explaining and Harnessing Adversarial  Examples]

          https://arxiv.org/abs/1412.6572

  • [Adversarial Attacks and Defences Competition]

          https://arxiv.org/pdf/1804.00097.pdf


也许你还想
●  PyTorch专栏(五):迁移学习
●  PyTorch专栏(四):小试牛刀
●  PyTorch专栏(三):数据加载与预处理
●  PyTorch专栏(二)
●  PyTorch专栏(一)
●  PyTorch专栏开篇
欢迎扫码关注:
PyTorch专栏(十二):一文综述图像对抗算法


PyTorch专栏(十二):一文综述图像对抗算法 下方点击 |   | 了解更多


磐创AI:http://www.panchuangai.com/ 智能客服:http://www.panchuangai.com/ TensorFlow:http://panchuang.net 推荐关注公众号:磐创AI

原创文章,作者:fendouai,如若转载,请注明出处:https://panchuang.net/2019/11/09/9f315ee200/

发表评论

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息