深度学习任务中要求损失函数必须是可导的吗?

查看 22|回复 0
作者:LeeReamond   
重看了一遍深度学习教程,有点疑惑,理论上来说必须可导才能反向传播对吧?
不过 torch 很显然能自定义损失函数,这又是怎么回事,用户也没法保证自己定义出来的计算方法是可导的吧。
以前学习属于是不求甚解了,这么多年说实话也就用过那些经典损失函数,没细相过这个问题。。
您需要登录后才可以回帖 登录 | 立即注册

返回顶部