- 24 1月, 2012 27 次提交
-
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
由 James Bergstra 提交于
-
- 23 1月, 2012 13 次提交
-
-
由 nouiz 提交于
Fixed grad of grad of scan
-
由 nouiz 提交于
Fixed tests with script run_tests_in_batch.py
-
由 Razvan Pascanu 提交于
-
由 Razvan Pascanu 提交于
-
由 Razvan Pascanu 提交于
-
由 Razvan Pascanu 提交于
Note sure it makes the file anymore readable, but at least I've tried.
-
由 Razvan Pascanu 提交于
Otherwise the numberic differentiation gradient quickly becomes numerically unstable.
-
由 Razvan Pascanu 提交于
-
由 Razvan Pascanu 提交于
the index goes from 0 to n_mit_mot-1 for mit_mot sequnces.
-
由 Razvan Pascanu 提交于
-
由 Razvan Pascanu 提交于
The main bug was gradients where represented as shared variables. Now we represent them as sit_sot sequences to which only the last step is used (hence the savemem optimization does the memory clean up). The advantage is that gradients with respect to sitsot are well defined.
-
由 Razvan Pascanu 提交于
-
由 Razvan Pascanu 提交于
-