小行星

热爱平淡,向往未知


  • 首页

  • 分类

  • 归档

  • 关于

  • 阅读排行

  • 搜索

pytorch retain_graph=True

发表于 2018-08-Mon | 阅读次数:

pytorch 在backward的时候会删除计算图,
所以在backward的时候要加入参数 loss.backward(retain_graph=True)

请作者喝一杯咖啡☕️
fangyh 微信支付

微信支付

Loss.backward() raises error ‘grad can be implicitly created only for scalar outputs’
梯度为0
fangyh

fangyh

最爱的是那苍穹之外的浩渺宇宙

588 日志
4 分类
66 标签
© 2020 fangyh
由 Hexo 强力驱动
|
主题 — NexT.Mist v5.1.3
|本站总访问量次