提交 6636db6e authored 作者: James Bergstra's avatar James Bergstra

simplified expression in softmax python impl

上级 0d29e2c9
...@@ -384,7 +384,7 @@ class Softmax(gof.Op): ...@@ -384,7 +384,7 @@ class Softmax(gof.Op):
for i in xrange(sm.shape[0]): for i in xrange(sm.shape[0]):
row = x[i] row = x[i]
sm[i] = numpy.exp(row - numpy.max(row)) sm[i] = numpy.exp(row - numpy.max(row))
sm[i] *= 1.0 / numpy.sum(sm[i]) sm[i] /= numpy.sum(sm[i])
output_storage[0][0] = sm output_storage[0][0] = sm
def grad(self, (x,), (g_sm,)): def grad(self, (x,), (g_sm,)):
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论