Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
爱喝水的木子
pytorch-doc-zh
提交
4fd340c1
P
pytorch-doc-zh
项目概览
爱喝水的木子
/
pytorch-doc-zh
与 Fork 源项目一致
Fork自
OpenDocCN / pytorch-doc-zh
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
pytorch-doc-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
4fd340c1
编写于
1月 25, 2021
作者:
W
wizardforcel
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
2021-01-25 00:19:01
上级
15e3677d
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
1 addition
and
1 deletion
+1
-1
docs/1.7/21.md
docs/1.7/21.md
+1
-1
未找到文件。
docs/1.7/21.md
浏览文件 @
4fd340c1
...
...
@@ -18,7 +18,7 @@
迄今为止,最早的也是最流行的对抗性攻击之一被称为
*快速梯度符号攻击(FGSM)*
,由
[
《解释和利用对抗性示例》
](
https://arxiv.org/abs/1412.6572
)
(Goodfellow 等)描述。 攻击非常强大,而且直观。 它旨在利用神经网络学习
*梯度*
的方式来攻击神经网络。 这个想法很简单,不是通过基于反向传播的梯度来调整权重来使损失最小化,攻击会基于相同的反向传播的梯度来调整输入数据,以使损失最大化。 换句话说,攻击使用损失相对于输入数据的梯度,然后调整输入数据以使损失最大化。
在进入代码之前,让我们看一下著名的
[
FGSM
](
https://arxiv.org/abs/1412.6572
)
Pandas示例,并提取一些符号。
在进入代码之前,让我们看一下著名的
[
FGSM
](
https://arxiv.org/abs/1412.6572
)
Pandas
示例,并提取一些符号。
![
fgsm_panda_image
](
img/d74012096c3134b776b5e9f70e8178f3.png
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录