提交 0b872572 authored 作者: Frederic Bastien's avatar Frederic Bastien

Add in the doc softsign and confusion_matrix

上级 3c351def
...@@ -18,10 +18,12 @@ ...@@ -18,10 +18,12 @@
- Others - Others
- :func:`softplus` - :func:`softplus`
- :func:`softmax` - :func:`softmax`
- :func:`softsign`
- :func:`relu() <theano.tensor.nnet.relu>` - :func:`relu() <theano.tensor.nnet.relu>`
- :func:`binary_crossentropy` - :func:`binary_crossentropy`
- :func:`.categorical_crossentropy` - :func:`.categorical_crossentropy`
- :func:`h_softmax() <theano.tensor.nnet.h_softmax>` - :func:`h_softmax() <theano.tensor.nnet.h_softmax>`
- :func:`confusion_matrix <theano.tensor.nnet.confusion_matrix>`
.. function:: sigmoid(x) .. function:: sigmoid(x)
...@@ -111,6 +113,12 @@ ...@@ -111,6 +113,12 @@
W = T.dmatrix('W') W = T.dmatrix('W')
y = T.nnet.softplus(T.dot(W,x) + b) y = T.nnet.softplus(T.dot(W,x) + b)
.. function:: softsign(x)
Return the elemwise softsign activation function
:math:`\\varphi(\\mathbf{x}) = \\frac{1}{1+|x|}`
.. function:: softmax(x) .. function:: softmax(x)
Returns the softmax function of x: Returns the softmax function of x:
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论