小行星

热爱平淡,向往未知


  • 首页

  • 分类

  • 归档

  • 关于

  • 阅读排行

  • 搜索

tensorflow op名字和node名字

发表于 2018-07-Mon | 阅读次数:
1
2
3
4
5
6
7
8
with tf.name_scope('ab'):
a = tf.Variable(tf.constant(1), name="v1")

a.name
u'ab_1/v1:0'

a.op.name
u'ab_1/v1'

tensorflow 输出所有变量

发表于 2018-07-Mon | 阅读次数:
1
2
3
4
[n.name for n in tf.get_default_graph().as_graph_def().node]

for op in tf.get_default_graph().get_operations():
print str(op.name)

最好的语言tfpdb

发表于 2018-07-Mon | 阅读次数:
1
list_tensors | node_info | print_tensor | list_inputs | list_outputs | run_info | help

pytorch zero_grad

发表于 2018-07-Sun | 阅读次数:

如果不置零,Variable 的梯度在每次 backward 的时候都会累加。

1
2
3
4
optimizer.zero_grad()
loss = criterion(outputs, targets)
loss.backward()
optimizer.step()

pytorch param_groups

发表于 2018-07-Sun | 阅读次数:

参数组

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# 有两个`param_group`即,len(optim.param_groups)==2
optim.SGD([
{'params': model.base.parameters()},
{'params': model.classifier.parameters(), 'lr': 1e-3}
], lr=1e-2, momentum=0.9)

#一个参数组
optim.SGD(model.parameters(), lr=1e-2, momentum=.9)

def lr_decay(optimizer, step, lr, decay_step, gamma):
lr = lr * gamma ** (step/decay_step)
for param_group in optimizer.param_groups:
param_group['lr'] = lr
return lr

pytorch eval作用

发表于 2018-07-Sun | 阅读次数:

锁住batch_norm层

1
2
3
During training, this layer keeps a running estimate of its computed mean and variance. The running sum is kept with a default momentum of 0.1.

During evaluation, this running mean/variance is used for normalization.

pytorch train/eval mode

发表于 2018-07-Sun | 阅读次数:
1
2
model.train()
model.eval()

tf global_step

发表于 2018-07-Sun | 阅读次数:

声明global_step的目的在于获得 optimizer内部的step

python format

发表于 2018-07-Sun | 阅读次数:
1
print('>>> epoch: {} | lr: {:.5f}'.format(epoch + 1, lr_now))

pytorch 不求甚解

发表于 2018-07-Sun | 阅读次数:
1
cudnn.benchmark = True
1…303132…59
fangyh

fangyh

最爱的是那苍穹之外的浩渺宇宙

588 日志
4 分类
66 标签
© 2020 fangyh
由 Hexo 强力驱动
|
主题 — NexT.Mist v5.1.3
|本站总访问量次