pytorch zero_grad 发表于 2018-07-Sun | 阅读次数: 如果不置零,Variable 的梯度在每次 backward 的时候都会累加。1234optimizer.zero_grad()loss = criterion(outputs, targets)loss.backward()optimizer.step()请作者喝一杯咖啡☕️打赏微信支付