提交 4d9a2c65 authored 作者: Arnaud Bergeron's avatar Arnaud Bergeron

Adjust tolerances for float16.

上级 913f11c5
...@@ -1373,10 +1373,10 @@ class numeric_grad(object): ...@@ -1373,10 +1373,10 @@ class numeric_grad(object):
# perfectly accurate. # perfectly accurate.
type_eps = {'float64': 1e-7, type_eps = {'float64': 1e-7,
'float32': 3e-4, 'float32': 3e-4,
'float16': 1e-3, 'float16': 1e-1,
numpy.dtype('float64'): 1e-7, numpy.dtype('float64'): 1e-7,
numpy.dtype('float32'): 3e-4, numpy.dtype('float32'): 3e-4,
numpy.dtype('float16'): 1e-3} numpy.dtype('float16'): 1e-1}
def __init__(self, f, pt, eps=None, out_type=None): def __init__(self, f, pt, eps=None, out_type=None):
"""Return the gradient of f at pt. """Return the gradient of f at pt.
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论