1 | with tf.name_scope('ab'): |
tensorflow 输出所有变量
发表于 | 阅读次数:
1 | [n.name for n in tf.get_default_graph().as_graph_def().node] |
最好的语言tfpdb
发表于 | 阅读次数:
1 | list_tensors | node_info | print_tensor | list_inputs | list_outputs | run_info | help |
pytorch zero_grad
发表于 | 阅读次数:
如果不置零,Variable 的梯度在每次 backward 的时候都会累加。
1 | optimizer.zero_grad() |
pytorch param_groups
发表于 | 阅读次数:
参数组
1 | # 有两个`param_group`即,len(optim.param_groups)==2 |
pytorch eval作用
发表于 | 阅读次数:
锁住batch_norm
层
1 | During training, this layer keeps a running estimate of its computed mean and variance. The running sum is kept with a default momentum of 0.1. |
pytorch train/eval mode
发表于 | 阅读次数:
1 | model.train() |
tf global_step
发表于 | 阅读次数:
声明global_step的目的在于获得 optimizer内部的step
python format
发表于 | 阅读次数:
1 | print('>>> epoch: {} | lr: {:.5f}'.format(epoch + 1, lr_now)) |
pytorch 不求甚解
发表于 | 阅读次数:
1 | cudnn.benchmark = True |