Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Greenplum
Annotated Deep Learning Paper Implementations
提交
19bd8b8e
A
Annotated Deep Learning Paper Implementations
项目概览
Greenplum
/
Annotated Deep Learning Paper Implementations
11 个月 前同步成功
通知
6
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
A
Annotated Deep Learning Paper Implementations
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
19bd8b8e
编写于
9月 26, 2020
作者:
V
Varuna Jayasiri
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
tracking hooks
上级
32e7df1e
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
13 addition
and
5 deletion
+13
-5
labml_nn/gan/mnist.py
labml_nn/gan/mnist.py
+13
-5
未找到文件。
labml_nn/gan/mnist.py
浏览文件 @
19bd8b8e
...
...
@@ -6,13 +6,14 @@ import torch.nn as nn
import
torch.utils.data
from
torchvision
import
transforms
import
labml.utils.pytorch
as
pytorch_utils
from
labml
import
tracker
,
monit
,
experiment
from
labml.configs
import
option
,
calculate
from
labml_helpers.datasets.mnist
import
MNISTConfigs
from
labml_helpers.device
import
DeviceConfigs
from
labml_helpers.module
import
Module
from
labml_helpers.optimizer
import
OptimizerConfigs
from
labml_helpers.train_valid
import
MODE_STATE
,
BatchStepProtocol
,
TrainValidConfigs
from
labml_helpers.train_valid
import
MODE_STATE
,
BatchStepProtocol
,
TrainValidConfigs
,
hook_model_outputs
,
Mode
from
labml_nn.gan
import
DiscriminatorLogitsLoss
,
GeneratorLogitsLoss
plt
.
rcParams
[
'image.interpolation'
]
=
'nearest'
...
...
@@ -71,6 +72,9 @@ class GANBatchStep(BatchStepProtocol):
self
.
discriminator_loss
=
discriminator_loss
self
.
generator_optimizer
=
generator_optimizer
self
.
discriminator_optimizer
=
discriminator_optimizer
hook_model_outputs
(
self
.
generator
,
'generator'
)
hook_model_outputs
(
self
.
discriminator
,
'discriminator'
)
tracker
.
set_scalar
(
"loss.generator.*"
,
True
)
tracker
.
set_scalar
(
"loss.discriminator.*"
,
True
)
tracker
.
set_image
(
"generated"
,
True
,
1
/
100
)
...
...
@@ -99,6 +103,8 @@ class GANBatchStep(BatchStepProtocol):
tracker
.
add
(
"loss.generator."
,
loss
)
if
MODE_STATE
.
is_train
:
loss
.
backward
()
if
MODE_STATE
.
is_log_parameters
:
pytorch_utils
.
store_model_indicators
(
self
.
generator
,
'generator'
)
self
.
generator_optimizer
.
step
()
with
monit
.
section
(
"discriminator"
):
...
...
@@ -114,6 +120,8 @@ class GANBatchStep(BatchStepProtocol):
tracker
.
add
(
"loss.discriminator."
,
loss
)
if
MODE_STATE
.
is_train
:
loss
.
backward
()
if
MODE_STATE
.
is_log_parameters
:
pytorch_utils
.
store_model_indicators
(
self
.
discriminator
,
'discriminator'
)
self
.
discriminator_optimizer
.
step
()
return
{
'samples'
:
len
(
data
)},
None
...
...
@@ -163,8 +171,8 @@ def _discriminator_optimizer(c: Configs):
opt_conf
=
OptimizerConfigs
()
opt_conf
.
optimizer
=
'Adam'
opt_conf
.
parameters
=
c
.
discriminator
.
parameters
()
opt_conf
.
learning_rate
=
2.5e-
4
opt_conf
.
betas
=
(
0.5
,
0.999
)
opt_conf
.
learning_rate
=
2.5e-
5
#
opt_conf.betas = (0.5, 0.999)
return
opt_conf
...
...
@@ -173,8 +181,8 @@ def _generator_optimizer(c: Configs):
opt_conf
=
OptimizerConfigs
()
opt_conf
.
optimizer
=
'Adam'
opt_conf
.
parameters
=
c
.
generator
.
parameters
()
opt_conf
.
learning_rate
=
2.5e-
4
opt_conf
.
betas
=
(
0.5
,
0.999
)
opt_conf
.
learning_rate
=
2.5e-
5
#
opt_conf.betas = (0.5, 0.999)
return
opt_conf
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录