提交 7518621d authored 作者: Sina Honari's avatar Sina Honari

correcting grad_not_implemented

上级 a9255855
...@@ -388,7 +388,7 @@ class DownsampleFactorMaxGrad(Op): ...@@ -388,7 +388,7 @@ class DownsampleFactorMaxGrad(Op):
ggx, = grads ggx, = grads
if self.st != self.ds: if self.st != self.ds:
return [theano.gradient.grad_not_implemented(self, 0, x), return [theano.gradient.grad_not_implemented(self, 0, x),
theano.gradient.grad_not_implemented(self, 1, maxout) theano.gradient.grad_not_implemented(self, 1, maxout),
theano.gradient.grad_not_implemented(self, 2, gz)] theano.gradient.grad_not_implemented(self, 2, gz)]
return [theano.tensor.zeros_like(x), return [theano.tensor.zeros_like(x),
theano.tensor.zeros_like(maxout), theano.tensor.zeros_like(maxout),
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论